Développeur.se principal.e, Applications IA (Sécurité) / Senior AI Dev (Safety)
Mila - Institut québécois d'intelligence artificielle
Détails du poste
- Lieu de travail : Montreal
- Type de poste : Permanent à temps plein
À propos de Mila
Fondé par le professeur Yoshua Bengio de l'Université de Montréal, Mila rassemble des chercheurs spécialisés en intelligence artificielle et plus précisément en apprentissage automatique, apprentissage profond et apprentissage par renforcement. Reconnu mondialement pour ses importantes contributions au domaine de l'apprentissage profond, Mila s'est particulièrement distingué dans la modélisation du langage, la traduction automatique, la reconnaissance d'objets et les modèles génératifs. Depuis 2017, Mila est le fruit d'une collaboration entre l'Université de Montréal et l'Université McGill, en lien étroit avec Polytechnique Montréal et HEC Montréal.
Mila s'est donné pour mission d'être un pôle mondial d'avancées scientifiques qui inspire l'innovation et l'essor de l'intelligence artificielle (IA) au bénéfice de tous.
Pour en connaitre davantage, veuillez consulter
Description du poste
L'équipe Développement d'applications IA (DAI) conçoit et bâtit des applications alimentées par l'IA générative et l'apprentissage automatique. Nous travaillons étroitement avec les Studios, l'AMLRT et les équipes internes pour transformer des modèles, prototypes et idées en produits fonctionnels et démonstrations interactives.
En tant que développeur.se principal.e, vous serez affecté.e au Studio Sécurité de l'IA, où vous contribuerez à la conception et au développement d'une plateforme d'évaluation open source mesurant la sécurité et la robustesse comportementale des agents IA. La plateforme évalue les agents en boîte noire en les soumettant à des scénarios adversariaux et en mesurant objectivement leur résistance. La feuille de route couvre l'évaluation de la résistance aux injections conversationnelles, la sécurité des appels d'outils, l'application de politiques de capacité, et la sécurité des systèmes multi-agents. Vous porterez la vision technique de cette plateforme de sa première livraison jusqu'à sa maturité.
Ce rôle exige un profil qui combine architecture de sécurité et développement logiciel solide. Vous devrez raisonner sur des modèles de menace, des surfaces d'attaque et des frontières de confiance à chaque étape du projet — d'abord pour construire des outils d'évaluation (harnais CLI, moteurs de scoring, DSL de scénarios), puis pour concevoir de l'infrastructure d'application de politiques (proxys, passerelles d'appels d'outils), et éventuellement pour modéliser la sécurité dans des architectures multi-agents. Vous travaillerez en étroite collaboration avec des chercheur.se.s en évaluation adversariale.
Vous accompagnerez les développeurs plus juniors et contribuerez à structurer un écosystème technique durable. À terme, vous pourrez également contribuer aux autres projets de l'équipe DAI (applications IA, plateformes, outils internes).
Ce rôle s'adresse à quelqu'un qui souhaite exercer une influence technique sur un projet stratégique à la croisée de la conception logiciel et de la sécurité de l'IA, et évoluer dans un environnement mêlant backend, sécurité, IA appliquée, et outillage développeur.
Responsabilités principales
- Concevoir et développer une plateforme d'évaluation de la sécurité des agents IA : CLI, adaptateurs d'agents (HTTP et Python), moteur d'exécution, moteur de scoring, parseur de DSL, et génération de rapports d'audit.
- Implémenter et faire évoluer le moteur de scoring : vérifications déterministes (sous-chaînes, regex), vérifications par embeddings (similarité sémantique), intégration structurée de LLM-as-judge, et scoring des appels d'outils (détection d'exfiltration, analyse de chaînes d'appels).
- Concevoir l'architecture des schémas de données (run records, scénarios, politiques) pour assurer la reproductibilité, le versionnement et l'auditabilité des évaluations.
- Raisonner sur les modèles de menace et les surfaces d'attaque des agents IA pour orienter les décisions d'architecture et collaborer efficacement avec des chercheur.se.s en évaluation adversariale.
- Concevoir et développer l'infrastructure d'application de politiques de sécurité (proxys d'appels d'outils, passerelles de contrôle d'accès) au fur et à mesure de la maturité de la plateforme.
- Contribuer à la fiabilité, la performance et la sécurité des systèmes déployés.
- Encadrer les bonnes pratiques de développement logiciel (tests, CI/CD, architecture, documentation).
- Participer activement aux revues de code, aux choix technologiques et à l'amélioration de la qualité.
- Encadrer, conseiller et accompagner les développeurs moins expérimentés.
- Collaborer avec chercheurs, ingénieurs, designers et gestionnaires de projet.
- Documenter les architectures, décisions techniques et modules partagés.
- Assurer une veille active sur la sécurité de l'IA, les techniques adversariales émergentes, et les architectures d'agents.
Requirements
Compétences essentielles
- Bac ou Maîtrise en informatique, génie logiciel, cybersécurité, ou domaine connexe.
- Minimum de 5 à 7 ans d'expérience en développement logiciel, dont expérience significative en Python.
- Expérience substantielle en sécurité informatique : évaluation de vulnérabilités, sécurité applicative, red teaming, conception de systèmes sécuritaires, ou développement d'outils de sécurité. On cherche quelqu'un capable de raisonner sur des modèles de menace et des surfaces d'attaque, pas seulement d'implémenter des vérifications.
- Solides compétences en architecture logicielle, conception d'outils et de librairies, et bonnes pratiques (tests, CI/CD, performance).
- Expérience avec les architectures d'agents IA : compréhension du fonctionnement des agents en production (system prompts, appels d'outils, orchestration, systèmes multi-agents).
- Capacité à naviguer en environnement multidisciplinaire et à mener des initiatives techniques.
- Maîtrise du français et de l'anglais.
Compétences qui vous démarqueront:
- Expérience en évaluation ou benchmarking de sécurité de systèmes d'IA (robustesse adversariale, red teaming de LLM, injection de prompts).
- Expérience dans la conception d'outils développeur : CLI, librairies Python, DSL, parseurs, moteurs de règles, ou frameworks de test.
- Expérience en développement open source ou contribution à des outils de sécurité (garak, Semgrep, OWASP, etc.).
- Expérience avec la conception de proxys, middleware, ou passerelles d'application de politiques.
- Expertise en orchestration cloud (GCP, Azure), environnements containerisés (Docker, Kubernetes), et systèmes distribués.
- Familiarité avec les intégrations de LLM (OpenAI, Anthropic), embeddings textuels, et mesures de similarité sémantique.
- Expérience en FastAPI, bases de données vectorielles (Qdrant, Milvus, Weaviate), ou développement frontend (React, Next.js) — utile pour les rotations vers d'autres projets DAI.
- Expérience en observabilité, monitoring, métriques, et optimisation de systèmes.
Benefits
De bonnes raisons pour travailler à Mila
- L'occasion de contribuer à une mission unique avec un impact important;
- Un programme d'assurance collective complet (maladie, dentaire, invalidité, vie, assurance voyage et garanties complémentaires);
- Un programme d'aide aux employés et à la famille;
- Un accès à un service de télémédecine;
- Une politique de congés annuels offrant une base de 20 jours de vacances dès l'embauche;
- Un régime d'épargne retraite avec contribution de l'employeur minimale de 4%;
- Une généreuse enveloppe flexible vous permettant de personnaliser vos avantages sociaux en fonction de ce qui contribue à votre bien-être. Vous pouvez sélectionner et combiner les options qui correspondent à vos besoins parmi les crédits style de vie, une assurance bonifiée, des journées de vacances supplémentaires et une contribution enrichie au régime de retraite;
- Un horaire flexible, un horaire d'été et une possibilité de télétravail;
- Un milieu de travail au cœur de la Petite Italie, dans le quartier branché Mile-Ex, à proximité des transports en commun;
- Une équipe d'experts de leur domaine, des gens passionnés et passionnants;
- Une ambiance de travail collaborative et inclusive.
Nous voulons vous connaître
À Mila, la diversité nous tient à cœur. Nous valorisons un environnement de travail équitable, ouvert et respectueux des différences. Nous encourageons toute personne souhaitant œuvrer dans un écosystème en progression continue et stimulée à contribuer à l'application et la définition d'une culture saine et inclusive, à postuler.
Veuillez noter que seules les personnes sélectionnées seront contactées.
Senior AI Applications Developer - Safety
About Mila
Founded by Professor Yoshua Bengio of the Université de Montréal, Mila brings together researchers specializing in artificial intelligence, and more specifically in machine learning, deep learning and reinforcement learning. Recognized worldwide for its important contributions to the field of deep learning, Mila has particularly distinguished itself in language modeling, machine translation, object recognition and generative models. Since 2017, Mila has been the fruit of a collaboration between Université de Montréal and McGill University, with close links to Polytechnique Montréal and HEC Montréal.
Mila's mission is to be a global hub of scientific advances that inspires innovation and the rise of artificial intelligence (AI) for the benefit of all.
To find out more, please visit
Position Summary
The AI Applications Development (AAD) team builds end-to-end applications powered by Generative AI and machine learning. We work across Studios, AMLRT, and Mila internal teams to turn cutting-edge research into reliable software systems, demonstrators, and production-grade platforms.
As a Senior AI Applications Developer, you will be assigned to the AI Safety Studio, where you will contribute to the design and development of an open-source evaluation platform that measures the security and behavioral robustness of AI agents. The platform evaluates agents as black-box systems by subjecting them to adversarial scenarios and objectively measuring their resistance. The project roadmap covers conversational injection resistance evaluation, tool-call security, capability policy enforcement, and multi-agent security. You will own the technical direction of this platform from its first release through maturity.
This role requires a profile that combines security systems design with strong software development. You will need to reason about threat models, attack surfaces, and trust boundaries at every stage — first building evaluation tooling (CLI harness, scoring engines, scenario DSL), then designing policy enforcement infrastructure (proxies, tool-call gateways), and eventually modeling security in multi-agent architectures. You will work closely with adversarial evaluation researchers.
You will mentor more junior developers and help build a sustainable technical ecosystem. Over time, you may also contribute to other AAD projects (AI applications, platforms, internal tools).
This role is ideal for someone who wants to take technical ownership of a strategic project at the intersection of software architecture and AI security, and operate across backend, security, applied AI, and developer tooling.
Main Responsibilities
- Design and build an AI agent security evaluation platform: CLI, agent adapters (HTTP and Python), execution engine, scoring engine, DSL parser, and audit report generation.
- Implement and evolve the scoring engine: deterministic checks (substring, regex), embedding-based checks (semantic similarity), structured LLM-as-judge integration, and tool-call scoring (exfiltration detection, call chain analysis).
- Architect data schemas (run records, scenarios, policies) to ensure reproducibility, versioning, and auditability of evaluations.
- Reason about threat models and attack surfaces of AI agents to guide architecture decisions and collaborate effectively with researchers in adversarial evaluation.
- Design and build policy enforcement infrastructure (tool-call proxies, access control gateways) as the platform matures.
- Ensure reliability, performance, and security of deployed systems.
- Enforce software development excellence: testing strategies, CI/CD, code quality, documentation.
- Participate in code reviews and guide technical decisions.
- Mentor and support junior and intermediate developers.
- Collaborate closely with researchers, developers, designers, and PMs.
- Document architectural decisions, technical flows, and shared components.
- Maintain active awareness of AI security, emerging adversarial techniques, and agent architecture practices.
Required Qualifications
- Bachelor's or Master's in computer science, software engineering, cybersecurity, or related field.
- 5–7+ years of professional software development experience, with a significant portion in Python.
- Substantial experience in computer security: vulnerability assessment, application security, red teaming, secure system design, or security tooling development. We are looking for someone who can reason about threat models and attack surfaces — not just implement checks.
- Strong architectural thinking, tool and library design, and software development practices (testing, CI/CD, performance).
- Experience with AI agent architectures: understanding of how agents work in production (system prompts, tool-calling, orchestration, multi-agent systems).
- Ability to lead initiatives in a multidisciplinary environment.
- Proficiency in French and English.
Nice-to-Have Skills
- Experience in AI system security evaluation or benchmarking (adversarial robustness, LLM red teaming, prompt injection).
- Experience building developer tools: CLIs, Python libraries, DSLs, parsers, rule engines, or test frameworks.
- Experience in open-source development or contribution to security tools (garak, Semgrep, OWASP, etc.).
- Experience designing proxies, middleware, or policy enforcement gateways.
- Expertise in cloud orchestration (GCP, Azure), containerized environments (Docker, Kubernetes), and distributed systems.
- Familiarity with LLM integrations (OpenAI, Anthropic), text embeddings, and semantic similarity measures.
- Experience with FastAPI, vector databases (Qdrant, Milvus, Weaviate), or frontend development (React, Next.js) — useful for rotation into other AAD projects.
- Prior work on observability, monitoring, metrics, and system optimization.
Good Reasons to Work at Mila
- The opportunity to contribute to a unique mission with a major impact;
- A comprehensive group insurance program (health, dental, disability, life, travel and extended benefits);
- An employee and family assistance program;
- Access to a telemedicine service;
- A vacation policy offering a base of 20 days' vacation upon hiring;
- A retirement savings plan with a minimum employer contribution of 4%;
- A generous flexible package allowing you to tailor your benefits to what contributes to your well-being. You can select and combine options to suit your needs, including lifestyle credits, enhanced insurance, extra vacation days and enriched pension contributions;
- Flexible working hours, a summer schedule and the possibility of telecommuting;
- A work environment in the heart of Little Italy, in the trendy Mile-Ex district, close to public transportation;
- A team of passionate experts in their field;
- A collaborative and inclusive work environment.
We Want to Hear from You
At Mila, diversity is important to us. We value a work environment that is fair, open and respectful of differences. We encourage anyone who wants to work in an ecosystem that is constantly evolving and stimulated to contribute to the application and definition of a healthy and inclusive culture, to apply.
Please note that only selected candidates will be contacted.