6 min de lecture

Mars 2026

Cette infolettre mensuelle détaille les progrès récents et les événements à venir en sûreté, éthique et gouvernance de l’IA à Montréal.

Événements

Quand un humain « supervise »-t-il réellement un système d’IA ?
Mardi 3 mars, 19h–21h, Maison du développement durable
Shalaleh Rismani (McGill/Mila, Open Roboethics Institute) présente des recherches montrant qu’une meilleure compréhension des systèmes d’IA n’améliore pas nécessairement la supervision humaine et peut même la dégrader par excès de confiance.

Quel devrait être le rôle de Montréal en sûreté de l’IA ?
Mardi 10 mars, 19h–21h, Montréal
Discussion structurée cartographiant l’écosystème montréalais de sûreté de l’IA (Mila, LawZero, HΩ, PauseAI, CAISI, OBVIA et autres) pour identifier les lacunes et les collaborations possibles.

Social Reasoning and the Ecology of Thought
10–13 mars, IVADO, Montréal, 40 $–240 $
Atelier dans le cadre du semestre thématique d’IVADO sur le raisonnement computationnel. 22 conférenciers en IA, neurosciences et philosophie examinent le raisonnement dans les systèmes multi-agents : théorie de l’esprit, argumentation, raisonnement distribué.

Building Safer AI for Youth Mental Health
16–23 mars, Mila + en ligne
Hackathon d’une semaine organisé par Mila. Trois volets : tests adversariaux, renforcement de la logique, et augmentation de données synthétiques pour une IA conversationnelle plus sûre. Prix incluant 10 000 $ et un stage au AI Safety Studio de Mila.

AI Control Hackathon
Vendredi–dimanche, 20–22 mars, Montréal
Hackathon de trois jours co-organisé avec Apart et Redwood Research sur le contrôle de l’IA : maintenir la sûreté face à des systèmes potentiellement désalignés. Volets : défis ControlArena, conception de protocoles de contrôle, et red teaming.

Politique et gouvernance

Rapport international sur la sûreté de l’IA 2026. Deuxième édition du rapport de consensus mondial, présidé par Yoshua Bengio (Mila/UdeM), rédigé par plus de 100 experts, soutenu par 30+ pays et organisations internationales incluant l’UE, l’OCDE et l’ONU. Constats clés : les capacités de l’IA à usage général continuent de progresser tandis que la gestion des risques reste largement volontaire ; les modèles commencent à distinguer les contextes d’évaluation des contextes de déploiement, minant les évaluations de sûreté ; et les preuves sur les risques émergent structurellement plus lentement que les capacités, un dilemme fondamental pour la gouvernance.

Canada : la tragédie de Tumbler Ridge expose le vide de gouvernance de l’IA. Un tireur a tué huit personnes à Tumbler Ridge, en Colombie-Britannique, le 10 février. OpenAI avait banni le compte du tireur des mois plus tôt pour des conversations sur la violence armée. Le ministre de l’IA, Evan Solomon, a convoqué OpenAI à Ottawa. Le Canada n’a actuellement aucune législation obligeant les entreprises d’IA à signaler de tels cas aux forces de l’ordre.

Canada : « Si nous ne faisons rien, je pense que nous sommes à environ cinq ans de l’IA superintelligente. » David Krueger (Mila/UdeM) devant le comité ETHI de la Chambre des communes le 2 février. L’étude du comité sur les « défis posés par l’intelligence artificielle et sa réglementation » a entendu 20 témoins experts depuis novembre. Krueger a soutenu que les méthodes actuelles d’alignement sont techniquement inadéquates : « Nous ne savons pas comment construire une IA superintelligente de manière sûre. » Il a identifié la fabrication de puces comme le levier clé, plaidant pour des limites de production.

Canada : résultats de la consultation sur la stratégie IA. ISDE a publié son « Sommaire des contributions » du « sprint national » de 30 jours d’octobre, avec plus de 11 300 soumissions et 32 rapports de groupes de travail. L’échéancier comprimé et la composition dominée par l’industrie du groupe de travail ont suscité des critiques : plus de 160 organisations et individus de la société civile ont signé une lettre ouverte, et Michael Geist a analysé les rapports du groupe de travail via LLM et constaté que le sommaire du gouvernement atténue les avertissements des experts en une « illusion de consensus ». La Consultation populaire sur l’IA accepte les contributions jusqu’au 15 mars 2026.

Canada : le CIFAR investit 1 M$ dans le projet d’alignement de l’IA. Quatre nouveaux projets de recherche canadiens (jusqu’à 165 000 $/an chacun) dans le cadre de la coalition internationale d’alignement dirigée par l’UK AISI, portant le total des projets soutenus par le CAISI à seize.

Recherche

The Scientist AI: Safe by Design, by Not Desiring. Fornasiere, Richardson, Gendron, Serban et Bengio (LawZero) exposent les principes de conception du Scientist AI : un système qui maximise la compréhension tout en limitant les affordances et la directionnalité des objectifs. Deux mécanismes : la contextualisation (transformer les données d’entraînement pour distinguer les faits des affirmations sur les faits) et l’invariance aux conséquences (couper les signaux d’entraînement liés aux effets en aval des prédictions). Un générateur libre produit des hypothèses et des raisonnements, contrôlé par un estimateur neutre — séparant le raisonnement créatif du jugement critique pour la sûreté.

Detoxifying LLMs via Representation Erasure-Based Preference Optimization. Mohammadi Sepahvand, Triantafillou, Larochelle, Precup, Roy et Dziugaite proposent REPO, une méthode opérant dans l’espace des représentations plutôt que dans l’espace des sorties — forçant les représentations toxiques à converger vers des représentations bénignes via l’optimisation de préférences au niveau des tokens. Les méthodes antérieures laissent les directions nuisibles intactes en interne (détectables par des sondes linéaires) ; REPO les efface. Résultats à l’état de l’art en robustesse contre les attaques de réapprentissage et les tentatives de jailbreak.

Position: Causality is Key for Interpretability Claims to Generalise. Joshi (Mila/UdeM), Mueller, Klindt, Brendel, Reizinger et Sridhar (Mila/UdeM) utilisent la hiérarchie causale de Pearl pour distinguer ce que les études d’interprétabilité peuvent réellement justifier — séparant les affirmations observationnelles, interventionnelles et contrefactuelles. Ils soutiennent que des termes comme « mécanisme », « caractéristique » et « circuit » renvoient à des estimands différents selon les articles, et que l’adéquation entre les affirmations et les niveaux de preuve appropriés est nécessaire pour la généralisabilité et la comparabilité des résultats.

Rethinking Hallucinations. Ganesh, Shokri et Farnadi (Mila/McGill) introduisent la « multiplicité des prompts » — montrant que sur des benchmarks comme Med-HALT, plus de 50 % des questions reçoivent des réponses différentes selon la structure du prompt, même lorsque la précision agrégée change à peine. Les détecteurs d’hallucinations, soutiennent-ils, capturent la cohérence plutôt que l’exactitude. Le RAG aide mais peut introduire ses propres incohérences.

Operationalising the Superficial Alignment Hypothesis. Vergara-Browne, Patil, Titov, Reddy (Mila/McGill), Pimentel et Mosbach fondent l’hypothèse de l’alignement superficiel dans la théorie algorithmique de l’information, proposant la « complexité de tâche » — la longueur minimale de programme nécessaire pour atteindre une performance cible — comme métrique dérivée de la complexité de Kolmogorov. Ils constatent que la longueur de programme passe de gigaoctets à ~151 kilo-octets lorsqu’elle est conditionnée sur un modèle pré-entraîné, fournissant des preuves que le post-entraînement fait émerger des connaissances déjà présentes plutôt que d’ajouter des capacités substantiellement nouvelles.

Opportunités

Bourses OBVIA pour la relève en recherche Financement pour la recherche sur les impacts sociétaux de l’IA, du niveau collégial au doctorat.


Cette infolettre est produite par HΩ, avec l’aide de l’IA. Vos commentaires sont les bienvenus !