4 min de lecture

Mai 2026

Cette infolettre mensuelle détaille les progrès récents et les événements à venir en sûreté, éthique et gouvernance de l’IA à Montréal.

Événements

AI Safety Papers We Love #1: Multi-Agent Risks from Advanced AI
Mercredi 6 mai, 18h30–20h30. Ω Labs.
Cercle de lecture animé par Orpheus sur l’article « Multi-Agent Risks from Advanced AI » de Hammond et al. Discussion des modes de défaillance et des facteurs de risque dans les systèmes multi-agents d’IA avancée.

Atelier IVADO : Statistiques pour une IA de confiance
11–15 mai 2026, 9h30–17h.
Atelier de cinq jours sur les méthodes statistiques sous-tendant une IA de confiance, dans le cadre du semestre thématique d’IVADO sur les fondements statistiques de l’IA. Inscription ouverte selon le principe du premier arrivé, premier servi, places limitées.

Comprendre et combattre le fairwashing en apprentissage automatique
Mardi 19 mai, 19h–21h. UQAM, Pavillon Président-Kennedy, PK-1140, Montréal.
Sébastien Gambs (UQAM, Chaire de recherche du Canada en analyse respectueuse de la vie privée et éthique des données massives) sur le fairwashing : comment des modèles boîte noire inéquitables peuvent être présentés comme équitables par manipulation d’explications post-hoc, pourquoi les attaques de fairwashing se transfèrent entre modèles, et ce qui en limite la détection.

Communauté de pratique en gouvernance de l’IA de Mila
Jeudi 21 mai, 9h–12h. Agora de Mila, 6666 rue Saint-Urbain #200, Montréal.
Troisième séance de la Communauté de pratique en gouvernance de l’IA de Mila, une série en cours réunissant dirigeants, experts et praticiens pour partager des défis concrets entre secteurs. Cette séance s’articule autour de quatre axes : des protocoles d’évaluation suffisamment subtils pour que les IA autonomes ne détectent pas le test et n’en biaisent pas leur comportement, des environnements de test sécurisés pour les IA agentives, le soutien aux employés en rôle de supervision d’agents autonomes, et l’adaptation des politiques publiques sur la responsabilité légale alors que les agents IA gagnent en autonomie et en interactivité.

Obvia : Les risques éthiques de l’intelligence artificielle pour la démocratie
Jeudi 4 juin 2026, 13h–18h30. HEC Montréal, Édifice Côte-Sainte-Catherine, Amphithéâtre Banque Nationale.
Lancement public d’un avis de la commission d’éthique de l’Obvia identifiant neuf risques éthiques que pose l’IA générative aux processus démocratiques, accompagné de vingt et une recommandations. Panels avec des experts sur l’intégrité électorale et la qualité du débat public.

Recherche faite à Montréal

État de la situation 2026 de l’Obvia
Obvia, 16 avril 2026. Troisième bilan annuel des impacts sociétaux de l’IA au Québec ; l’édition 2026 se concentre sur l’IA agentive et alerte sur l’affaiblissement de la capacité de gouvernance, l’aggravation de la concentration du pouvoir et le creusement des inégalités.

SHAPO: Sharpness-Aware Policy Optimization for Safe Exploration
Mani, Pequignot, Mai, Paull. ICLR 2026. Une règle de mise à jour de politique consciente de la rugosité (sharpness-aware) pour l’apprentissage par renforcement sécuritaire : évaluer les gradients à des paramètres perturbés rend les mises à jour pessimistes face à l’incertitude épistémique de l’acteur, ce qui élargit la frontière de Pareto sûreté–performance sur des tâches de contrôle continu.

Generative Adversarial Post-Training Mitigates Reward Hacking in Live Human-AI Music Interaction
Wu, Brade, Ma, Fowler, Yang, Banar, Courville, Jaques, Huang. ICLR 2026. Le jamming musical en direct entre humain et IA, sous récompenses de cohérence, sombre dans le reward hacking ; un discriminateur co-évolutif ramène la politique vers la distribution des données et restaure la diversité des sorties dans une interaction en temps réel avec des musiciens experts.

Benefits and Limitations of Communication in Multi-Agent Reasoning
Rizvi-Martel, Bhattamishra, Rathi, Rabusseau, Hahn. ICLR 2026. Un cadre théorique pour l’expressivité des systèmes de raisonnement multi-agents, avec des bornes sur le nombre d’agents, la communication inter-agents et les accélérations atteignables pour le suivi d’état, le rappel et le raisonnement à k bonds.

A Benchmark for Evaluating Outcome-Driven Constraint Violations in Autonomous AI Agents
Li, Fung, Weiss, Xiong, Al-Hussaeni, Fachkha. NeurIPS 2025. Un benchmark de 40 scénarios évalue si des agents LLM autonomes violent des contraintes éthiques, légales ou de sûreté sous pression d’indicateurs de performance. Sur 12 LLM de pointe, les taux de violation vont de 11,5 % à 66,7 % (la majorité au-dessus de 30 %) et ne s’améliorent pas de manière fiable d’une génération de modèles à la suivante.

Vous avez un événement, une opportunité ou un article à proposer pour le mois prochain ? Écrivez-nous à team@horizonomega.org, ou répondez simplement à ce courriel.

Cette infolettre est produite par HΩ, avec l’aide de l’IA.