Data Integration Architect

Montreal

Offre publiée le 2025-09-29

PSL Group

```html

Overview

Data Integration Architect – PSL Group

Position Summary

We are seeking an experienced Integration Data Architect to lead the ETL architecture, design and modernization of end-to-end data pipeline solutions for our Data Management team. You will shape scalable, efficient and future-ready data solutions enabling advanced analytics, reporting and machine learning across the organization.

Key Responsibilities

  • Design and implement scalable, modular reusable ETL / ELT solutions across Snowflake, AWS, PostgreSQL and future platforms such as dbt and Databricks
  • Ensure pipelines are optimized for performance and resource utilization, reducing cloud compute & storage costs
  • Define and document source-to-target mappings for structured and semi-structured data
  • Standardize data integration patterns that improve throughput and reduce maintenance overhead
  • Embed compliance requirements into pipeline design
  • Ensure ETL / ELT processes scale seamlessly with business requirements
  • Tune workflows for higher concurrency and throughput without driving costs up
  • Create clear technical documentation, design patterns and reusable templates
  • Write pseudo code and technical specifications to accelerate development and ensure consistency across teams
  • Work closely with data engineers, analysts and business stakeholders to ensure solutions align with business value
  • Provide architectural guidance for integrating new data ecosystems such as dbt, databricks etc.

Key Skills, Knowledge & Professional Education

  • 6 - 8+ years of experience in data engineering, ETL and / or architecture
  • Strong hands-on experience with Snowflake, AWS (e.g. S3, Glue, Lambda) and PostgreSQL
  • Familiarity with dbt, Databricks, and modern ETL practices preferred
  • Proven experience in pipeline optimization, modular design and reusable frameworks
  • Knowledge of compliance frameworks (e.g. GDPR, HIPAA) and data governance principles
  • Strong documentation and communication skills, including ability to write clear pseudo code for data engineers

Nice to Have

  • Healthcare industry and life sciences data experience
  • Knowledge of Databricks and DBT, including migration strategies from legacy data warehouses to modern lakehouse architectures
  • Professional certifications in AWS, Snowflake, DBT or Databricks

Version française

Notre vision

Le Groupe PSL est une organisation mondiale dédiée à mettre l'information au service de la médecine. Les sociétés et les personnes du Groupe PSL visent à améliorer les soins médicaux en servant ceux qui en ont besoin, ceux qui les fournissent et ceux qui cherchent à les améliorer.

À cette fin, nous souhaitons que nos services d'information et d'éducation contribuent aux objectifs que nous partageons avec nos cliniciens, nos clients et nos partenaires, à savoir : accélérer les progrès de la médecine et aider les gens à vivre mieux et plus longtemps.

Notre mission

Notre principale contribution à la société est d'aider les cliniciens et ceux qui les soutiennent à offrir des soins médicaux de pointe.

Notre objectif commercial principal est d'aider nos clients et partenaires à accroître l'efficacité des activités liées à la communication scientifique, à l'éducation médicale et au maintien d'une relation de proximité avec les cliniciens.

Résumé du poste

Nous recherchons un(e) Architecte en Intégration de Données expérimenté(e) pour diriger l'architecture, la conception et la modernisation des solutions de pipelines de données de bout en bout au sein de notre équipe de gestion des données. Vous façonnerez des solutions de données évolutives, efficaces et prêtes pour l'avenir, permettant l'analytique avancée, la production de rapports et l'apprentissage automatique à l'échelle de l'organisation.

Responsabilités principales

  • Concevoir et mettre en œuvre des solutions ETL / ELT évolutives, modulaires et réutilisables sur Snowflake, AWS, PostgreSQL et sur des plateformes futures telles que dbt et Databricks.
  • Garantir l'optimisation des pipelines en matière de performance et d'utilisation des ressources, en réduisant les coûts de calcul et de stockage dans le cloud.
  • Définir et documenter les mappings source-cible pour les données structurées et semi-structurées.
  • Standardiser les modèles d'intégration de données afin d'améliorer le débit et de réduire la charge de maintenance.
  • Intégrer les exigences de conformité dans la conception des pipelines.
  • S'assurer que les processus ETL / ELT évoluent de manière fluide en fonction des besoins de l'entreprise.
  • Ajuster les flux de travail pour accroître la concurrence et le débit sans augmenter les coûts.
  • Rédiger une documentation technique claire, des modèles de conception et des gabarits réutilisables.
  • Écrire du pseudo-code et des spécifications techniques afin d'accélérer le développement et d'assurer la cohérence entre les équipes.
  • Collaborer étroitement avec les ingénieurs de données, les analystes et les parties prenantes métier pour aligner les solutions sur la valeur commerciale.
  • Fournir des orientations architecturales pour l'intégration de nouveaux écosystèmes de données tels que dbt, Databricks, etc.

Compétences, connaissances et formation professionnelle

  • 6 à 8+ années d'expérience en ingénierie de données, ETL et / ou architecture.
  • Solide expérience pratique avec Snowflake, AWS (p. ex. S3, Glue, Lambda) et PostgreSQL.
  • Familiarité avec dbt, Databricks et les pratiques ETL modernes (atout).
  • Expérience avérée en optimisation de pipelines, conception modulaire et cadres réutilisables.
  • Connaissance des cadres de conformité (p. ex. RGPD, HIPAA) et des principes de gouvernance des données.
  • Excellentes compétences en documentation et communication, y compris la capacité à rédiger du pseudo-code clair pour les ingénieurs de données.

Atouts

  • Expérience dans l'industrie de la santé et des sciences de la vie.
  • Connaissance de Databricks et dbt, y compris des stratégies de migration d'entrepôts de données traditionnels vers des architectures modernes de type lakehouse.
  • Certifications professionnelles en AWS, Snowflake, dbt ou Databricks.

#J-18808-Ljbffr

```