7 min de lecture

Février 2026

Cette infolettre mensuelle détaille les progrès récents et les événements à venir en sûreté, éthique et gouvernance de l’IA à Montréal.

Événements à venir

AI Pluralism: What Models Do, Who Decides, and Why It Matters Mardi 3 février, 19h–21h, UQAM Pavillon Président-Kennedy Présentation de Rashid Mushkani (UdeM + Mila). Discussion sur qui décide du comportement des modèles et selon quels critères.

Technopolice : la surveillance policière à l’ère de l’IA Vendredi 6 février, 12h–13h30, en ligne (Zoom) Cercle de lecture de l’axe Droit, cybersécurité et cyberjustice de l’OBVIA. Présentation de Félix Tréguer, réaction de Benoît Dupont.

La Bataille de l’IA Vendredi 6 février, 13h–15h, 501 rue de la Gauchetière Ouest, salle C.623, Montréal Atelier participatif (format jeu) sur cinq enjeux de l’IA générative : fiabilité de l’information, données personnelles, propriété intellectuelle, biais algorithmiques, impact environnemental. Inscription requise.

IVADO Programme étudiant Perspective IA Vendredis 6, 13 et 27 février, 16h–18h, hybride Programme de formations courtes, non créditées et gratuites, en français et en anglais.

Mila Communauté de pratique : AI Safety Jeudi 12 février, 9h–12h, Mila (6666 St-Urbain, Montréal) Rencontre de la communauté de pratique sur la sûreté de l’IA.

What hackers talk about when they talk about AI Mardi 17 février, 19h–21h, UQAM Pavillon Président-Kennedy Présentation de Benoît Dupont (Chaire de recherche du Canada en cyber-résilience, UdeM). Analyse de 160+ conversations de forums cybercriminels : comment les hackers perçoivent et exploitent l’IA, leurs doutes, et les implications pour la sécurité.

À noter : ACM FAccT 2026 (Fairness, Accountability, and Transparency) se tiendra à Montréal du 25 au 28 juin 2026 au Centre Sheraton Montréal.

Opportunités

Mila Indigenous Pathfinders in AI Date limite : 13 février 2026 Programme pour talents des Premières Nations, Inuits et Métis. Formation de fin mai à mi-juillet à Mila, couvrant les dimensions techniques et humaines de l’IA. Bourse de 5 800 $ plus transport et hébergement.

ML4Good Bootcamp — Montréal 1–9 juin 2026. Date limite : 8 février, 23h59 GMT (18h59 heure de Montréal) Formation intensive en AI Safety. 8 jours, en personne, entièrement financé, places limitées. Les participants passés travaillent maintenant à l’AI Security Institute (UK), à la Commission européenne, et à MATS.

Bénévolat avec Horizon Omega L’organisation derrière cette infolettre cherche des bénévoles pour l’organisation d’événements, le field-building en AI safety à Montréal, l’AI Safety Unconference (prochaine édition en préparation), et d’autres projets.

Politique et gouvernance

Ontario : Principes conjoints IPC-OHRC sur l’IA. Le 21 janvier, le Commissaire à l’information et à la protection de la vie privée et la Commission ontarienne des droits de la personne ont publié conjointement six principes pour l’utilisation responsable de l’IA : validité et fiabilité, sécurité, protection de la vie privée, respect des droits de la personne, transparence et responsabilité. Non contraignants, ces principes guideront néanmoins l’évaluation de conformité des deux organismes.

Canada : Étude parlementaire sur les risques de l’IA. Le comité ETHI de la Chambre des communes mène une étude sur les « défis posés par l’intelligence artificielle et sa réglementation ». Fait notable : le comité aborde explicitement les risques catastrophiques et existentiels. Les personnes ayant une expertise sur le sujet peuvent demander à témoigner en écrivant à ETHI@parl.gc.ca. Vidéos des audiences : séance 1, séance 2, séance 3.

Canada : Norme sur l’IA accessible. Le Canada a publié CAN-ASC-6.2:2025 (1re édition), une norme sur l’IA accessible et équitable couvrant tout le cycle de vie des systèmes IA pour les personnes en situation de handicap.

Québec : Directives pour la fonction publique. Le ministère de la Cybersécurité et du Numérique impose des directives pour l’IA générative dans l’administration publique : protection des données, formation du personnel, évaluation des risques et cadre de gouvernance. Le moratoire sur les assistants virtuels IA a été levé sous conditions strictes. L’IA doit rester un outil d’aide, non un décideur, avec évaluations d’impact sur la vie privée obligatoires.

Ontario : Divulgation IA dans l’embauche. Depuis le 1er janvier 2026, divulgation obligatoire si l’IA est utilisée pour évaluer ou filtrer des candidatures.

Canada : Consultation populaire sur l’IA. Plus de 160 organisations de la société civile, juristes et universitaires ont lancé le 21 janvier une consultation citoyenne en réponse au processus fédéral jugé trop rapide et dominé par l’industrie. Contributions acceptées jusqu’au 15 mars 2026.

Ailleurs. Aux États-Unis, un executive order vise à limiter les lois étatiques sur l’IA via l’action fédérale. New York a malgré tout signé le RAISE Act sur les modèles « frontier » : les développeurs doivent publier leurs protocoles de sécurité et signaler tout incident critique dans les 72 heures, sous peine d’amendes allant jusqu’à 1 M$. En Europe, les premières obligations clés de l’AI Act pour les systèmes à haut risque et la transparence entrent en vigueur à partir d’août 2026.

Recherche

UK AISI Frontier AI Trends Report. Le rapport du UK AI Security Institute (décembre 2025) documente des avancées préoccupantes : l’IA rend les novices ~5x plus susceptibles de rédiger des protocoles de récupération virale, les taux de réussite en auto-réplication sont passés de moins de 5 % à plus de 60 % en deux ans, et des jailbreaks universels ont été trouvés dans tous les systèmes testés.

Legal Alignment for Safe and Ethical AI. Nouveau champ de recherche proposant d’utiliser les règles, principes et méthodes juridiques pour résoudre les problèmes d’alignement. Trois directions : conformité au droit, adaptation des méthodes d’interprétation juridique, et utilisation des concepts juridiques comme modèle structurel. Auteurs incluant Gillian K. Hadfield (Vector Institute) et Jonathan Zittrain.

Alignment Pretraining. Première étude contrôlée montrant que les données de pré-entraînement sur l’IA influencent causalement l’alignement. L’augmentation de documents positifs réduit les scores de désalignement de 45 % à 9 %. Les effets persistent après le post-entraînement (SFT + DPO).

Multilingual Amnesia. Désapprendre un concept en anglais ne garantit pas qu’il soit désappris en français. Les interventions de sécurité ne se transfèrent pas entre langues.

Calibration multilingue. L’instruction-tuning dégrade la calibration dans les 71 langues testées : la confiance augmente sans amélioration de la précision, y compris pour les langues absentes des données d’entraînement. Problème pour toute application où la confiance du modèle influence une décision.

LLMs et persuasion. Trois expériences pré-enregistrées (N=2,724) montrent que les LLM peuvent convaincre les gens de croire à des théories du complot.

L’IA en milieu scolaire. Point de vue des parents québécois sur l’IA à l’école.

L’IA face à la diversité linguistique et culturelle. Comment les modèles traitent les langues minoritaires et les références culturelles locales.

L’IA pour l’accès à l’information juridique. Étude sur l’utilisation de l’IA pour améliorer l’accès au droit au Québec.

Arts et culture

Devenirs partagés : pratiques de l’IA Jusqu’au 28 février, Galerie de l’UdeM (Pavillon de l’Esplanade, 6737 av. de l’Esplanade) Exposition issue de l’initiative IA responsable (IVADO + UdeM) sur les usages créatifs et critiques de l’IA.

La Boîte Noire Jusqu’au 21 février, Duceppe Thriller dystopique de Catherine-Anne Toupin. Une entreprise technologique utilise un algorithme pour reprogrammer les cerveaux et « faire de meilleurs choix ». La pièce explore les dérives de l’IA, l’optimisation de soi et la déshumanisation.

À l’heure de l’IA Jusqu’au 19 février, Université de Sherbrooke (Bibliothèque Roger-Maltais, Agora B1-2002) Exposition interactive de l’OBVIA sur les impacts sociétaux de l’IA. Huit scènes du quotidien explorent comment l’IA s’intègre dans nos vies, ses enjeux et les principes éthiques pour une utilisation responsable. Accessible à tous, sans prérequis.

Yoshua Bengio chez HugoDécrypte Interview sur les risques de l’IA et la gouvernance.