Compétences recherchées — Connectez-vous et téléversez votre CV pour comparer avec votre profil
Détails du poste
- Lieu de travail : Montreal
- Type de poste : Permanent à temps plein
Ingénieur de données (intermédiaire) - Data Engineer (Intermediate)
Description du poste
Missions
- Fournir des services quotidiens pour soutenir les unités de Banque d’Investissement et de Financement ainsi que leurs clients dans le cadre des activités de Global Banking Technology & Operations (GBTO) au Canada.
- Contribuer à l’accélération de la transformation agile en promouvant une culture technologique et orientée données, en réduisant les délais de prise de décision et en appliquant une approche industrielle de livraison.
- Rejoindre l’équipe en charge du risque de contrepartie (CCR) au sein du département XRM (Cross Risk Metrics), en soutenant des outils principalement utilisés par la fonction Risque.
- Développer et maintenir des applications de suivi de portefeuille post-origination, utilisées par la première et la deuxième ligne de défense (1LOD et 2LOD).
- Digitaliser les formulaires clés et les processus décisionnels afin d’automatiser les tâches manuelles et les contrôles permanents.
- Créer et maintenir des pistes d’audit fiables et produire des rapports en temps réel.
- Améliorer la qualité et la fiabilité des données à travers les applications.
- Travailler dans un cadre Agile Scrum afin d’assurer une communication continue et transparente avec les partenaires fonctionnels.
- Contribuer à une dynamique d’équipe forte axée sur la création de valeur à long terme et la pérennité des applications.
- Concevoir, développer et maintenir des pipelines de données scalables et robustes pour l’ingestion, le traitement et la transformation de grands volumes de données structurées et non structurées.
- Participer aux initiatives de refonte des données dans le cadre de la migration d’environnements de cloud privé on-premises vers Microsoft Azure.
- Développer, tester et maintenir des bases de données, des systèmes de traitement à grande échelle et des entrepôts de données optimisés pour le cloud.
- Collaborer avec les analystes de risques et les parties prenantes afin de recueillir les besoins en données et fournir des jeux de données de haute qualité pour l’analytique et le machine learning.
- Optimiser la livraison des données en repensant les infrastructures pour améliorer la scalabilité, la fiabilité et la performance.
- Mettre en œuvre et faire respecter les normes de sécurité, de gouvernance et de conformité des données conformément aux politiques internes et aux exigences réglementaires.
- Surveiller et dépanner les systèmes de données afin de garantir leur intégrité, leur disponibilité et leur performance.
- Automatiser les tâches et processus de données répétitifs pour améliorer l’efficacité opérationnelle.
- Se tenir à jour des tendances du secteur, des outils et des technologies cloud afin d’améliorer continuellement les pratiques d’ingénierie des données.
- Documenter les processus d’ingénierie des données, les flux de données et les configurations des systèmes.
- Gérer les processus de mise en production, incluant les notes de version, les scripts de déploiement, les plans de contingence et les procédures de retour arrière.
- Participer au support de production de niveau 3 (L3) et à la gestion des incidents, incluant l’analyse des causes racines et leur résolution.
Exigences
- Baccalauréat en informatique ou dans un domaine connexe.
- 3 à 5 ans d’expérience professionnelle en tant qu’ingénieur de données ou dans un rôle similaire.
- Solide maîtrise de MS SQL Server 2022, incluant les requêtes complexes, les procédures stockées et l’optimisation des performances.
- Expérience avec Azure Synapse Analytics pour les entrepôts de données à grande échelle.
- Expertise dans la conception, le développement et la maintenance de pipelines ETL.
- Expérience pratique avec Apache Spark et Databricks pour le traitement et la transformation de données massives.
- Bonne connaissance des services cloud Microsoft Azure, incluant les services de données et la gestion d’infrastructure.
- Maîtrise de Python pour la manipulation des données, l’automatisation et les scripts.
- Solides compétences en Power BI et Excel avancé pour la création de tableaux de bord et de rapports.
- Maîtrise de GitHub pour la gestion du code source et les workflows de développement collaboratif.
- Aisance dans les environnements Unix/Linux.
- Capacité à communiquer efficacement en anglais, à l’oral comme à l’écrit.
- Capacité à travailler dans un environnement bilingue (français et anglais).
- Atouts
- Expérience avec les technologies de conteneurisation telles que Kubernetes et Docker.
- Connaissance des outils d’Infrastructure as Code tels que Terraform.
- Expérience avec les technologies .NET (.NET 7, .NET 8) et Entity Framework.
- Expérience avec Angular 14+ et Bootstrap 5.
- Connaissance des concepts de risque de crédit et de contrepartie.
- Bonne compréhension des produits de marchés de capitaux, incluant les opérations de financement sécurisé, les dérivés ou les prêts corporatifs.
- Connaissance des réglementations financières américaines ou internationales.
- Certification ITIL.
- Certification Azure Cloud.
Langues
La maîtrise de l’anglais, à l’oral et à l’écrit, est requise, car la personne occupant ce poste devra collaborer régulièrement avec des collègues et partenaires aux États-Unis.