7 min de lecture

Avril 2026

Cette infolettre mensuelle détaille les progrès récents et les événements à venir en sûreté, éthique et gouvernance de l’IA à Montréal.

Événements

Greywall: AI Agent Sandboxing & Aligning Capability with Security
Lundi 14 avril, 17h–19h, UQAM Pavillon Président-Kennedy, PK-1140
Max (Greyhaven) présente Greywall, un bac à sable logiciel et proxy pour agents IA offrant une visibilité et un contrôle granulaires en temps d’exécution. La présentation explore également le lien entre le sandboxing et le domaine du contrôle de l’IA.

La souveraineté numérique au Québec : concilier stratégie, éthique et intérêt public
Mercredi 15 avril, 9h–18h, Université Laval Pavillon Maurice-Pollack
Colloque de l’OBVIA sur l’intégration de l’IA et des technologies numériques souveraines dans l’action gouvernementale, dans le respect de l’éthique, de la transparence et de la confiance citoyenne.

Le Capital algorithmique : accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle
Jeudi 16 avril, 12h–13h15, en ligne
Jonathan Durand Folco (Université Saint-Paul) et Jonathan Martineau (Concordia) discutent du capitalisme algorithmique, de sa concentration du pouvoir et des formes possibles de résistance.

AI and Persuasion: Capabilities and Mitigation
Mardi 28 avril, 19h–21h, UQAM Pavillon Président-Kennedy, PK-1140
Jean-François Godbout (Université de Montréal + Mila) explore les effets persuasifs de l’IA générative — hypertrucages, influence automatisée, propagande assistée par l’IA — ainsi que les stratégies d’atténuation et un nouvel outil de détection de la désinformation propulsé par l’IA.

Sexualité et IA générative : Bénéfices, dérives et pistes d’action
Jeudi 30 avril, 8h–17h, UQAM Pavillon Judith-Jasmin annexe
Colloque international sur les enjeux éthiques, juridiques et sociaux soulevés par l’IA générative dans la sexualité et les relations intimes.

Politique et gouvernance

Canada : le Parlement se penche sur la réglementation de l’IA. Le Comité permanent de l’industrie et de la technologie (INDU) a lancé une étude sur la réglementation de l’IA, entendant 12 témoins couvrant la sûreté, l’industrie et le droit en mars. Yoshua Bengio a plaidé pour des assemblées citoyennes et une coopération multilatérale entre puissances moyennes. Michael Geist a mis en garde contre une réglementation précipitée et critiqué le sprint de consultation de 30 jours. Wyatt Tessari L’Allié d’AIGS Canada a témoigné sur les agents IA et les incidents de perte de contrôle, qualifiant la situation d’« urgence de sécurité nationale ».

Canada : Tumbler Ridge — poursuite et débat réglementaire. Le 9 mars, la famille d’une survivante a intenté une poursuite civile contre OpenAI, alléguant que l’entreprise savait que le tireur utilisait ChatGPT pour planifier des actes de violence et n’a pas agi. Le premier ministre de la C.-B., David Eby, a rencontré Sam Altman, obtenant des engagements de contact avec la GRC et de protocoles de redirection en cas de détresse. Mais une analyse critique soutient que ces engagements volontaires réglementent les utilisateurs (en surveillant ce que les gens disent à l’IA) plutôt que les systèmes d’IA eux-mêmes — et que ce sont les gouvernements, et non les entreprises technologiques, qui devraient établir les règles.

Canada : « OpenAI a montré qu’on ne peut pas lui faire confiance. Le Canada a besoin d’une IA publique nationalisée. » Nathan Sanders et Bruce Schneier plaident dans le Globe and Mail pour que le Canada investisse dans un modèle d’IA entièrement canadien et public, citant l’Apertus suisse comme précédent. Ils soulignent le lobbying agressif d’OpenAI visant l’investissement souverain de 2 G$ du Canada en IA et son défaut de signalement de l’activité du tireur de Tumbler Ridge aux forces de l’ordre.

Québec : code de conduite sur l’IA pour les élections. Le 24 mars, l’Assemblée nationale a adopté à l’unanimité une motion invitant tous les partis politiques à adhérer à un code de conduite volontaire pour l’utilisation responsable de l’IA en campagne électorale, élaboré par IVADO et le CEIMIA. Le code met l’accent sur la transparence, la sécurité et la prévention de la manipulation — y compris l’engagement de ne pas recourir à l’IA pour produire des hypertrucages ou du contenu trompeur. Pertinent à l’approche de l’élection générale québécoise.

Recherche

Canada : le CIFAR octroie plus de 1 M$ pour la recherche sociotechnique en sûreté de l’IA. Huit nouveaux projets de recherche financés par l’Institut canadien de la sûreté de l’IA (CAISI) au CIFAR, examinant la sûreté de l’IA sous l’angle des sciences sociales et humaines. Les projets portent sur l’intégrité de l’information, la souveraineté des données autochtones, l’alignement démocratique, la persuasion par l’IA et les attitudes politiques, les risques de l’IA en santé et les garde-fous contre la désinformation. Chercheurs de l’UdeM, de l’UofT, de l’UBC, de Waterloo, de York et de Cornell.

Noticing the Watcher: LLM Agents Can Infer CoT Monitoring from Blocking Feedback. Jiralerspong, Kondrup et Bengio (Mila/UdeM) étudient si les agents LLM peuvent détecter que leur raisonnement en chaîne de pensée est surveillé. Les modèles avancés infèrent la surveillance à partir du seul blocage de feedback, avec jusqu’à 19 % des épisodes montrant une croyance confiante que leur raisonnement est observé. Les modèles développent l’intention de dissimuler leur raisonnement sur des objectifs cachés, mais échouent systématiquement à l’exécuter — un « fossé intention-capacité » qui offre une assurance actuelle mais suggère que la surveillance du raisonnement en chaîne de pensée pourrait ne pas rester un garde-fou fiable.

AI Researchers’ Views on Automating AI R&D and Intelligence Explosions. Field, Douglas et Krueger (Mila) interrogent 25 chercheurs de premier plan en IA issus de laboratoires de pointe et du milieu universitaire. 20 sur 25 ont identifié l’automatisation de la recherche en IA comme l’un des risques les plus graves et les plus urgents. Les participants prévoient une transition graduelle des agents IA du rôle d’assistants à celui de développeurs autonomes en IA, sans consensus clair sur les échéances ou les réponses en matière de gouvernance.

Adversarial Moral Stress Testing of Large Language Models. Jamshidi, Khomh (Polytechnique Montréal/Mila) et collègues introduisent AMST, un cadre d’évaluation de la capacité des LLM à maintenir des standards éthiques lors de conversations adversariales multi-tours. Les tests sur LLaMA-3-8B, GPT-4o et DeepSeek-v3 révèlent des différences significatives en résilience éthique — la robustesse dépend de la stabilité distributionnelle et du comportement des queues de distribution plutôt que de la performance moyenne.

Frontier AI Auditing: Toward Rigorous Third-Party Assessment. Brundage et 47 coauteurs, dont Mindermann et Bengio (Mila/UdeM), esquissent une vision pour un audit rigoureux par des tiers des pratiques de sûreté et de sécurité des entreprises d’IA de pointe. L’article soutient que les engagements volontaires actuels sont insuffisants et propose des cadres concrets pour l’évaluation indépendante des affirmations de sûreté des laboratoires d’IA.

Opportunités

Bourse Mila en politiques de l’IA 2026–2027
Date limite : 16 avril 2026
Programme de six mois (septembre–février), temps partiel (15 h/semaine), hybride. Thèmes : IA et intégrité de l’information, gouvernance démocratique, souveraineté, IA autochtone et déploiement responsable.

École CIFAR AI Frontiers
22–24 juin, Toronto. Candidatures ouvertes le 8 avril, date limite le 22 avril
Formation intensive de 2,5 jours en sûreté de l’IA pour chercheurs en début de carrière (doctorants et étudiants avancés à la maîtrise). Exercices de red teaming et formation technique. Le CIFAR couvre les déplacements nationaux et l’hébergement. Inscription : 250 $. En partenariat avec Amii, Mila et Vector.

IVADO : Semestre thématique sur les fondements statistiques de l’IA
Mai–août 2026, Montréal
Une série de programmes IVADO à la croisée de la statistique et de l’IA : un bootcamp (4–8 mai), un atelier sur l’IA de confiance (11–15 mai), un atelier sur l’incertitude (8–11 juin) et un symposium biomédical (20–21 août). Accent sur la fiabilité, l’équité et l’incertitude dans les systèmes d’IA en conditions réelles.

Arts et culture

The AI Doc: Or How I Became an Apocaloptimist
En salles
Documentaire de Daniel Roher, présenté en première à Sundance 2026. Un futur père enquête sur les menaces existentielles et les promesses de l’IA en interviewant des experts de premier plan. Variety l’a qualifié de « terrifiant et essentiel ».


Cette infolettre est produite par HΩ, avec l’aide de l’IA.