Février 2026
Français
(English follows)
Cette infolettre mensuelle détaille les progrès récents et les événements à venir en sûreté, éthique et gouvernance de l'IA à Montréal.
Événements à venir
AI Pluralism: What Models Do, Who Decides, and Why It Matters
Mardi 3 février, 19h–21h, UQAM Pavillon Président-Kennedy
Présentation de Rashid Mushkani (UdeM + Mila). Discussion sur qui décide du comportement des modèles et selon quels critères.
Technopolice : la surveillance policière à l'ère de l'IA
Vendredi 6 février, 12h–13h30, en ligne (Zoom)
Cercle de lecture de l'axe Droit, cybersécurité et cyberjustice de l'OBVIA. Présentation de Félix Tréguer, réaction de Benoît Dupont.
La Bataille de l'IA
Vendredi 6 février, 13h–15h, 501 rue de la Gauchetière Ouest, salle C.623, Montréal
Atelier participatif (format jeu) sur cinq enjeux de l'IA générative : fiabilité de l'information, données personnelles, propriété intellectuelle, biais algorithmiques, impact environnemental. Inscription requise.
IVADO Programme étudiant Perspective IA
Vendredis 6, 13 et 27 février, 16h–18h, hybride
Programme de formations courtes, non créditées et gratuites, en français et en anglais.
Mila Communauté de pratique : AI Safety
Jeudi 12 février, 9h–12h, Mila (6666 St-Urbain, Montréal)
Rencontre de la communauté de pratique sur la sûreté de l'IA.
What hackers talk about when they talk about AI
Mardi 17 février, 19h–21h, UQAM Pavillon Président-Kennedy
Présentation de Benoît Dupont (Chaire de recherche du Canada en cyber-résilience, UdeM). Analyse de 160+ conversations de forums cybercriminels : comment les hackers perçoivent et exploitent l'IA, leurs doutes, et les implications pour la sécurité.
À noter : ACM FAccT 2026 (Fairness, Accountability, and Transparency) se tiendra à Montréal du 25 au 28 juin 2026 au Centre Sheraton Montréal.
Opportunités
Mila Indigenous Pathfinders in AI
Date limite : 13 février 2026
Programme pour talents des Premières Nations, Inuits et Métis. Formation de fin mai à mi-juillet à Mila, couvrant les dimensions techniques et humaines de l'IA. Bourse de 5 800 $ plus transport et hébergement.
ML4Good Bootcamp — Montréal
1–9 juin 2026. Date limite : 8 février, 23h59 GMT (18h59 heure de Montréal)
Formation intensive en AI Safety. 8 jours, en personne, entièrement financé, places limitées. Les participants passés travaillent maintenant à l'AI Security Institute (UK), à la Commission européenne, et à MATS.
Bénévolat avec Horizon Omega
L'organisation derrière cette infolettre cherche des bénévoles pour l'organisation d'événements, le field-building en AI safety à Montréal, l'AI Safety Unconference (prochaine édition en préparation), et d'autres projets.
Politique et gouvernance
Ontario : Principes conjoints IPC-OHRC sur l'IA. Le 21 janvier, le Commissaire à l'information et à la protection de la vie privée et la Commission ontarienne des droits de la personne ont publié conjointement six principes pour l'utilisation responsable de l'IA : validité et fiabilité, sécurité, protection de la vie privée, respect des droits de la personne, transparence et responsabilité. Non contraignants, ces principes guideront néanmoins l'évaluation de conformité des deux organismes.
Canada : Étude parlementaire sur les risques de l'IA. Le comité ETHI de la Chambre des communes mène une étude sur les « défis posés par l'intelligence artificielle et sa réglementation ». Fait notable : le comité aborde explicitement les risques catastrophiques et existentiels. Les personnes ayant une expertise sur le sujet peuvent demander à témoigner en écrivant à ETHI@parl.gc.ca. Vidéos des audiences : séance 1, séance 2, séance 3.
Canada : Norme sur l'IA accessible. Le Canada a publié CAN-ASC-6.2:2025 (1re édition), une norme sur l'IA accessible et équitable couvrant tout le cycle de vie des systèmes IA pour les personnes en situation de handicap.
Québec : Directives pour la fonction publique. Le ministère de la Cybersécurité et du Numérique impose des directives pour l'IA générative dans l'administration publique : protection des données, formation du personnel, évaluation des risques et cadre de gouvernance. Le moratoire sur les assistants virtuels IA a été levé sous conditions strictes. L'IA doit rester un outil d'aide, non un décideur, avec évaluations d'impact sur la vie privée obligatoires.
Ontario : Divulgation IA dans l'embauche. Depuis le 1er janvier 2026, divulgation obligatoire si l'IA est utilisée pour évaluer ou filtrer des candidatures.
Canada : Consultation populaire sur l'IA. Plus de 160 organisations de la société civile, juristes et universitaires ont lancé le 21 janvier une consultation citoyenne en réponse au processus fédéral jugé trop rapide et dominé par l'industrie. Contributions acceptées jusqu'au 15 mars 2026.
Ailleurs. Aux États-Unis, un executive order vise à limiter les lois étatiques sur l'IA via l'action fédérale. New York a malgré tout signé le RAISE Act sur les modèles « frontier » : les développeurs doivent publier leurs protocoles de sécurité et signaler tout incident critique dans les 72 heures, sous peine d'amendes allant jusqu'à 1 M$. En Europe, les premières obligations clés de l'AI Act pour les systèmes à haut risque et la transparence entrent en vigueur à partir d'août 2026.
Recherche
UK AISI Frontier AI Trends Report. Le rapport du UK AI Security Institute (décembre 2025) documente des avancées préoccupantes : l'IA rend les novices ~5x plus susceptibles de rédiger des protocoles de récupération virale, les taux de réussite en auto-réplication sont passés de moins de 5 % à plus de 60 % en deux ans, et des jailbreaks universels ont été trouvés dans tous les systèmes testés.
Legal Alignment for Safe and Ethical AI. Nouveau champ de recherche proposant d'utiliser les règles, principes et méthodes juridiques pour résoudre les problèmes d'alignement. Trois directions : conformité au droit, adaptation des méthodes d'interprétation juridique, et utilisation des concepts juridiques comme modèle structurel. Auteurs incluant Gillian K. Hadfield (Vector Institute) et Jonathan Zittrain.
Alignment Pretraining. Première étude contrôlée montrant que les données de pré-entraînement sur l'IA influencent causalement l'alignement. L'augmentation de documents positifs réduit les scores de désalignement de 45 % à 9 %. Les effets persistent après le post-entraînement (SFT + DPO).
Multilingual Amnesia. Désapprendre un concept en anglais ne garantit pas qu'il soit désappris en français. Les interventions de sécurité ne se transfèrent pas entre langues.
Calibration multilingue. L'instruction-tuning dégrade la calibration dans les 71 langues testées : la confiance augmente sans amélioration de la précision, y compris pour les langues absentes des données d'entraînement. Problème pour toute application où la confiance du modèle influence une décision.
LLMs et persuasion. Trois expériences pré-enregistrées (N=2,724) montrent que les LLM peuvent convaincre les gens de croire à des théories du complot.
L'IA en milieu scolaire. Point de vue des parents québécois sur l'IA à l'école.
L'IA face à la diversité linguistique et culturelle. Comment les modèles traitent les langues minoritaires et les références culturelles locales.
L'IA pour l'accès à l'information juridique. Étude sur l'utilisation de l'IA pour améliorer l'accès au droit au Québec.
Arts et culture
Devenirs partagés : pratiques de l'IA
Jusqu'au 28 février, Galerie de l'UdeM (Pavillon de l'Esplanade, 6737 av. de l'Esplanade)
Exposition issue de l'initiative IA responsable (IVADO + UdeM) sur les usages créatifs et critiques de l'IA.
La Boîte Noire
Jusqu'au 21 février, Duceppe
Thriller dystopique de Catherine-Anne Toupin. Une entreprise technologique utilise un algorithme pour reprogrammer les cerveaux et « faire de meilleurs choix ». La pièce explore les dérives de l'IA, l'optimisation de soi et la déshumanisation.
À l'heure de l'IA
Jusqu'au 19 février, Université de Sherbrooke (Bibliothèque Roger-Maltais, Agora B1-2002)
Exposition interactive de l'OBVIA sur les impacts sociétaux de l'IA. Huit scènes du quotidien explorent comment l'IA s'intègre dans nos vies, ses enjeux et les principes éthiques pour une utilisation responsable. Accessible à tous, sans prérequis.
Yoshua Bengio chez HugoDécrypte
Interview sur les risques de l'IA et la gouvernance.
English
This monthly newsletter covers recent developments and upcoming events in AI safety, ethics, and governance in Montreal.
Upcoming Events
AI Pluralism: What Models Do, Who Decides, and Why It Matters
Tuesday, February 3, 7–9 PM, UQAM Pavillon Président-Kennedy
Presentation by Rashid Mushkani (UdeM + Mila). Discussion on who decides model behavior and by what criteria.
Technopolice: Police Surveillance in the Age of AI
Friday, February 6, 12–1:30 PM, online (Zoom)
Reading circle from OBVIA's Law, Cybersecurity and Cyberjustice axis. Presentation by Félix Tréguer, response by Benoît Dupont.
La Bataille de l'IA
Friday, February 6, 1–3 PM, 501 rue de la Gauchetière Ouest, room C.623, Montreal
Participatory workshop (game format) on five issues in generative AI: information reliability, personal data, intellectual property, algorithmic bias, environmental impact. Registration required.
IVADO Perspective IA Student Program
Fridays February 6, 13, and 27, 4–6 PM, hybrid
Short, non-credit, free training sessions in French and English.
Mila Community of Practice: AI Safety
Thursday, February 12, 9 AM–12 PM, Mila (6666 St-Urbain, Montreal)
AI Safety community of practice gathering.
What hackers talk about when they talk about AI
Tuesday, February 17, 7–9 PM, UQAM Pavillon Président-Kennedy
Presentation by Benoît Dupont (Canada Research Chair in Cyber-Resilience, UdeM). Analysis of 160+ cybercriminal forum conversations: how hackers perceive and exploit AI, their doubts, and implications for security.
Looking ahead: ACM FAccT 2026 (Fairness, Accountability, and Transparency) will be held in Montreal, June 25–28, 2026 at Le Centre Sheraton Montréal.
Opportunities
Mila Indigenous Pathfinders in AI
Deadline: February 13, 2026
Program for First Nations, Inuit, and Métis talent. Training from late May to mid-July at Mila, covering technical and human dimensions of AI. $5,800 stipend plus travel and accommodation.
ML4Good Bootcamp — Montreal
June 1–9, 2026. Deadline: February 8, 11:59 PM GMT (6:59 PM Montreal time)
Intensive AI Safety training. 8 days, in-person, fully funded, limited spots. Past participants now work at the AI Security Institute (UK), European Commission, and MATS.
Volunteer with Horizon Omega
The organization behind this newsletter is looking for volunteers for event organization, AI safety field-building in Montreal, the AI Safety Unconference (next edition in preparation), and other projects.
Policy and Governance
Ontario: Joint IPC-OHRC AI Principles. On January 21, the Information and Privacy Commissioner and the Ontario Human Rights Commission jointly published six principles for responsible AI use: validity and reliability, safety, privacy protection, human rights affirmation, transparency, and accountability. While non-binding, these principles will guide compliance assessments by both bodies.
Canada: Parliamentary study on AI risks. The House of Commons ETHI committee is conducting a study on "challenges posed by artificial intelligence and its regulation." Notably, the committee explicitly addresses catastrophic and existential risks. Those with relevant expertise can request to testify by writing to ETHI@parl.gc.ca. Hearing videos: session 1, session 2, session 3.
Canada: Accessible AI Standard. Canada published CAN-ASC-6.2:2025 (1st edition), a standard on accessible and equitable AI covering the full lifecycle of AI systems for people with disabilities.
Quebec: Guidelines for Public Service. The Ministry of Cybersecurity and Digital imposes guidelines for generative AI in public administration: data protection, staff training, risk assessment, and governance framework. The moratorium on AI virtual assistants has been lifted under strict conditions. AI must remain a support tool, not a decision-maker, with mandatory privacy impact assessments.
Ontario: AI Disclosure in Hiring. Since January 1, 2026, mandatory disclosure if AI is used to evaluate or screen job applications.
Canada: People's AI Consultation. Over 160 civil society organizations, lawyers, and academics launched a citizen consultation on January 21 in response to the federal process they deemed too rushed and industry-dominated. Submissions accepted until March 15, 2026.
Elsewhere. In the United States, an executive order aims to limit state AI laws through federal action. New York nonetheless signed the RAISE Act on frontier models: developers must publish safety protocols and report critical incidents within 72 hours, with fines up to $1M. In Europe, the first key obligations of the AI Act for high-risk systems and transparency take effect starting August 2026.
Research
UK AISI Frontier AI Trends Report. The UK AI Security Institute's report (December 2025) documents concerning advances: AI makes novices ~5x more likely to write feasible viral recovery protocols, self-replication success rates rose from under 5% to over 60% in two years, and universal jailbreaks were found in every system tested.
Legal Alignment for Safe and Ethical AI. New research field proposing to use legal rules, principles, and methods to address alignment problems. Three directions: compliance with law, adapting legal interpretation methods, and using legal concepts as structural blueprints. Authors include Gillian K. Hadfield (Vector Institute) and Jonathan Zittrain.
Alignment Pretraining. First controlled study showing that pretraining data about AI causally influences alignment. Upsampling positive documents reduces misalignment scores from 45% to 9%. Effects persist through post-training (SFT + DPO).
Multilingual Amnesia. Unlearning a concept in English does not guarantee it is unlearned in French. Safety interventions do not transfer across languages.
Multilingual Calibration. Instruction-tuning degrades calibration across all 71 languages tested: confidence increases without accuracy gains, even for languages absent from training data. A problem for any application where model confidence influences a decision.
LLMs and Persuasion. Three pre-registered experiments (N=2,724) show that LLMs can convince people to believe conspiracy theories.
AI in Schools. Quebec parents' perspectives on AI in education.
AI and Linguistic and Cultural Diversity. How models handle minority languages and local cultural references.
AI for Access to Legal Information. Study on using AI to improve access to law in Quebec.
Arts and Culture
Devenirs partagés: pratiques de l'IA
Until February 28, Galerie de l'UdeM (Pavillon de l'Esplanade, 6737 av. de l'Esplanade)
Exhibition from the Responsible AI initiative (IVADO + UdeM) on creative and critical uses of AI.
La Boîte Noire
Until February 21, Duceppe
Dystopian thriller by Catherine-Anne Toupin. A tech company uses an algorithm to reprogram brains and help people "make better choices." The play explores AI dangers, self-optimization, and dehumanization.
À l'heure de l'IA
Until February 19, Université de Sherbrooke (Roger-Maltais Library, Agora B1-2002)
Interactive OBVIA exhibition on AI's societal impacts. Eight everyday scenes explore how AI integrates into our lives, its challenges, and ethical principles for responsible use. Accessible to all, no prior knowledge required.
Yoshua Bengio on HugoDécrypte
Interview on AI risks and governance.