AI Safety Montréal

Sécurité de l'IA Montréal

Community hub for AI ethics, safety, governance and alignment

Page communautaire pour l'éthique, la sécurité, la gouvernance et l'alignement de l'IA

Montréal hosts a vibrant ecosystem of AI safety, ethics, and governance initiatives, spanning academia, nonprofits, student groups, community meetups, and government programs.

À Montréal, on retrouve un écosystème dynamique d'organismes en sûreté de l'IA, éthique et gouvernance. Ça inclut des universités, des organismes sans but lucratif, des groupes étudiants, des rencontres communautaires et des programmes gouvernementaux.

Quick ways to get involved:

Comment s'impliquer directement :

Details may evolve; follow links for current information. For this directory, AI Safety means the technical, policy, and community work aimed at ensuring advanced AI systems remain beneficial and do not pose undue risks to individuals, society, or humanity.

Les détails peuvent évoluer ; consultez les liens pour les informations actuelles. Pour ce répertoire, Sécurité de l'IA signifie le travail technique, politique et communautaire visant à s'assurer que les systèmes d'IA avancés restent bénéfiques et ne posent pas de risques indus aux individus, à la société ou à l'humanité.

Mila – Québec AI Institute

Mila – Institut québécois d'intelligence artificielle

World-leading AI research institute with dedicated safety research programs, policy initiatives, and international partnerships.

Institut de recherche en IA de renommée mondiale. Fait de la recherche en sécurité, des initiatives politiques et des partenariats internationaux.

AI Governance, Public Policy & Safety

Gouvernance de l'IA, Politiques publiques et sécurité

World-class AI research institute with dedicated safety research. Mila runs research programmes in AI alignment and governance and collaborates with international bodies such as UNESCO. A landmark international AI-safety report was coordinated here.

Institut de recherche en IA de classe mondiale qui fait de la recherche en sécurité. Mila gère des programmes de recherche en alignement et gouvernance IA et collabore avec des organismes internationaux tels que l'UNESCO. Un rapport international marquant sur la sécurité de l'IA a été coordonné ici.

AI Safety Reading Group

Groupe de lecture en sécurité de l'IA

Discussion group at Mila focusing on technical papers.

Groupe de discussion à Mila qui discute d'articles techniques.

Krueger AI Safety Lab (KASL)

Laboratoire de sécurité de l'IA Krueger (KASL)

Technical alignment research group led by Prof. David Krueger. Focuses on goal misgeneralization, reward hacking, scalable oversight, and interpretability.

Groupe de recherche en alignement technique dirigé par le Prof. David Krueger. Se concentre sur la généralisation incorrecte des objectifs, le piratage de récompenses, la supervision évolutive et l'interprétabilité.

Independent AI Safety Organizations

Organismes indépendants de sécurité de l'IA

Nonprofit organizations focused exclusively on AI safety research, community building, and coordination efforts.

Organismes à but non lucratif qui se concentrent sur la recherche en sécurité de l'IA, le développement communautaire et la coordination.

LawZero

LawZero

LawZero is a Montréal-based nonprofit AI-safety lab launched in June 2025 by Yoshua Bengio and incubated at Mila. It develops "safe-by-design" methods for non-agentic, truth-seeking AI systems that can accelerate scientific discovery and provide rigorous oversight for more powerful agentic models, aiming to avert catastrophic risks rather than retrofit safety later.

LawZero est un laboratoire de sécurité de l'IA sans but lucratif basé à Montréal, lancé en juin 2025 par Yoshua Bengio et incubé à Mila. Il développe des méthodes «sûres par conception» pour des systèmes d'IA non-agentiques et axés sur la vérité qui peuvent accélérer la découverte scientifique et fournir une supervision rigoureuse pour des modèles agentiques plus puissants, visant à éviter les risques catastrophiques plutôt que d'ajouter la sécurité après coup.

Horizon Omega (HΩ)

Horizon Omega (HΩ)

Canadian nonprofit catalyst for AI safety R&D. Its Horizon Events programme runs event series such as the Guaranteed Safe AI Seminars and the Virtual AI Safety Unconference (VAISU), while also offering event-support services to safety labs. HΩ curates open resources like the AI Safety Events Tracker and aisafetymontreal.org. It is open to collaboration and volunteering.

Organisme canadien sans but lucratif catalyseur de R&D en sécurité de l'IA. Son programme Horizon Events organise des séries d'événements telles que les Séminaires Guaranteed Safe AI et l'AI Safety Unconference virtuelle (VAISU), et offre un soutien événementiel aux laboratoires de sécurité. HΩ tient à jour des ressources ouvertes comme l'AI Safety Events Tracker et aisafetymontreal.org. L'organisation est ouverte à la collaboration et au bénévolat.

Academic institutes

Instituts de recherche

Research institutes with dedicated technical AI safety and alignment programs. Listed here are institutes with specifically named AI safety clusters or programs.

Instituts de recherche avec des programmes techniques en sécurité et alignement de l'IA. Répertoriés ici sont les instituts avec des programmes ou grappes de sécurité de l'IA spécifiquement nommés.

IVADO (Institut de valorisation des données)

IVADO (Institut de valorisation des données)

Major Montréal data science and AI institute running the R³ AI program (Robust, Reasoning and Responsible AI), led by Yoshua Bengio. Under the R³ AI programme, the R10: AI Safety & Alignment cluster studies evaluation, alignment methods and scalable oversight, supported in part by federal excellence funding.

Grand institut de science des données et d'IA de Montréal qui gère le programme R³ AI (IA robuste, raisonnante et responsable), dirigé par Yoshua Bengio. Sous le programme R³ AI, la grappe R10 : Sécurité et alignement de l'IA étudie l'évaluation, les méthodes d'alignement et la supervision évolutive, soutenue en partie par un financement fédéral d'excellence.

University AI Safety Clubs

Clubs universitaires de sécurité de l'IA

Student-led initiatives at local universities whose central mission is advanced AI safety and alignment research.

Initiatives étudiantes dans les universités locales dont la mission centrale est la recherche en sécurité et alignement de l'IA avancée.

AI Alignment McGill (AIAM)

AI Alignment McGill (AIAM)

Student club at McGill University, organising events; schedules vary—see link.

Club étudiant à McGill University, organisant des événements; horaires variables —voir le lien.

Meetups

Rencontres

Public gatherings for discussing AI safety, ethics, and governance in accessible formats.

Rencontres publiques pour discuter de sécurité de l'IA, d'éthique et de gouvernance de façon accessible.

Montréal AI Governance, Ethics & Safety Meetup

Meetup Montréal AI Governance, Ethics & Safety

Public meetup organising events. Covers both near-term AI ethics and long-term safety through informal discussions.

Meetup public organisant des événements. Organisé par des bénévoles d'AI Governance & Safety Canada. Couvre à la fois l'éthique de l'IA à court terme et la sécurité à long terme à travers des discussions informelles.

Policy & Government Interfaces

Interfaces gouvernementales et politiques

Federal and provincial initiatives connecting Montréal's AI safety research to Canadian policy development.

Initiatives fédérales et provinciales qui connectent la recherche en sécurité de l'IA de Montréal au développement des politiques canadiennes.

Canadian AI Safety Institute (CAISI)

Institut canadien de sécurité de l'IA (CAISI)

The Canadian AI Safety Institute (CAISI) is a federal initiative that funds and coordinates AI-safety research nationwide. It has dual structure: CAISI Research Program at CIFAR with co-direction from UdeM and U of T researchers (co-directed by Mila-affiliated Prof. Catherine Régis), plus NRC-led government R&D.

L'Institut canadien de sécurité de l'IA (CAISI) est une initiative fédérale qui finance et coordonne la recherche en sécurité de l'IA à travers le Canada. Elle a une structure duale : le programme de recherche CAISI au CIFAR avec co-direction de chercheurs de l'UdeM et de l'Université de Toronto (co-dirigé par la Prof. Catherine Régis affiliée à Mila), plus R&D gouvernementale dirigée par le CNRC.

Quebec Government Office of the Chief Scientist

Bureau du scientifique en chef du Québec

Coordinates provincial AI programmes (e.g. OBVIA) and advises the Québec government on AI policy.

Coordonne les programmes d'IA provinciaux (ex. OBVIA) et conseille le gouvernement du Québec sur la politique d'IA.

Notes and adjacent efforts

Notes et efforts connexes

Additional organizations and frameworks relevant to Montréal's AI safety ecosystem.

Organismes et cadres supplémentaires pertinents à l'écosystème de sécurité de l'IA de Montréal.

Responsible AI & Governance

IA responsable et gouvernance

Organizations focused on AI ethics, responsible AI development, and broader governance frameworks.

Organismes axés sur l'éthique de l'IA, le développement d'IA responsable et les cadres de gouvernance plus larges.

Coalition for Responsible AI

Coalition pour une IA responsable

Coalition for Responsible AI is a citizen-led advocacy network launched Canada-wide on January 2025. It rallies the public to press for strong safeguards—such as a federal AI ministry, greater safety-research funding, and broad consultations—to keep advanced AI safe and broadly beneficial.

La Coalition pour une IA responsable est une alliance citoyenne lancée au Canada en janvier 2025. Elle mobilise la population pour exiger des garde-fous solides—ministère fédéral de l'IA, financement accru de la recherche en sécurité et consultations élargies—afin que l'IA avancée demeure sûre et bénéfique pour tous.

Montréal AI Ethics Institute (MAIEI)

Institut d'éthique de l'IA de Montréal (MAIEI)

Founded in 2018 by the late Abhishek Gupta (1992-2024) and Renjie Butalid to democratize AI ethics literacy. Publishes open-access resources such as the AI Ethics Brief newsletter and the State of AI Ethics report series.

Fondé en 2018 par feu Abhishek Gupta (1992-2024) et Renjie Butalid pour démocratiser la littératie en éthique de l'IA. Publie des ressources libres d'accès telles que l'infolettre AI Ethics Brief et la série State of AI Ethics.

CEIMIA (Centre for Expertise on Inclusive AI)

CEIMIA (Centre d'expertise sur l'IA inclusive)

Montréal-based research center focused on developing inclusive AI systems and governance frameworks. Works with the OECD and other international organizations on AI policy development. Specializes in addressing bias, fairness, and representation issues in AI systems.

Centre de recherche basé à Montréal axé sur le développement de systèmes d'IA inclusifs et de cadres de gouvernance. Travaille avec l'OCDE et d'autres organisations internationales sur le développement de politiques d'IA. Se spécialise dans la résolution des problèmes de biais, d'équité et de représentation dans les systèmes d'IA.

OBVIA (Observatoire international sur les impacts sociétaux de l'IA)

OBVIA (Observatoire international sur les impacts sociétaux de l'IA)

Governance-focused research hub on societal impacts of AI, bringing together 19 Quebec institutions including UdeM, Concordia, HEC, Polytechnique, and McGill. With a renewed mandate, produces annual status reports on AI's societal impacts and organizes public forums. Examines the pace of AI development relative to governance frameworks.

Pôle de recherche axé sur la gouvernance des impacts sociétaux de l'IA, rassemblant 19 institutions québécoises incluant l'UdeM, Concordia, HEC, Polytechnique et McGill. Avec un mandat renouvelé, produit des rapports annuels sur les impacts sociétaux de l'IA et organise des forums publics. Examine régulièrement le rythme de développement de l'IA par rapport aux cadres de gouvernance.

CIFAR AI & Society Program

Programme IA et société du CIFAR

Canadian Institute for Advanced Research program focused on AI's societal impacts and governance challenges. Brings together researchers from across Canada to address ethical implications and policy development. Conducts research initiatives connecting AI development with human values and social good. Note: CIFAR separately hosts the Canadian AI Safety Institute (CAISI) Research Program with dedicated technical safety funding.

Programme de l'Institut canadien de recherches avancées axé sur les impacts sociétaux de l'IA et les défis de gouvernance. Rassemble des chercheurs de tout le Canada pour aborder les implications éthiques et le développement de politiques. Mène des initiatives de recherche connectant le développement de l'IA avec les valeurs humaines et le bien social. Note : Le CIFAR héberge séparément le Programme de recherche de l'Institut canadien de sécurité de l'IA (CAISI) avec un financement technique dédié à la sécurité.

Responsible AI, Ethics & Governance (University-led)

IA responsable, éthique et gouvernance (Initiatives universitaires)

University-based research centers and initiatives focused on AI ethics, responsible AI development, and governance frameworks.

Centres de recherche et initiatives universitaires axés sur l'éthique de l'IA, le développement d'IA responsable et les cadres de gouvernance.

Concordia University AI Ethics Initiatives

Initiatives d'éthique de l'IA de l'Université Concordia

Multiple research and community initiatives including Affecting Machines participatory action research group focused on gender diversity in AI, and a Feminist Perspectives on AI reading group on feminist perspectives in AI (see Concordia site for schedule). The Applied AI Institute emphasizes responsible innovation with principles of ethics, transparency, and social good. Also hosts the Montreal AI Community-Based Action Research (AI CBAR) Network, a city-wide initiative anchored at Concordia.

Plusieurs initiatives de recherche et communautaires incluant le groupe de recherche-action participative Affecting Machines axé sur la diversité de genre en IA, et un groupe de lecture Perspectives féministes sur l'IA sur les perspectives féministes en IA (voir le site de Concordia pour l'horaire). L'Institut d'IA appliquée met l'accent sur l'innovation responsable avec des principes d'éthique, de transparence et de bien social. Concordia héberge aussi le réseau Montreal AI Community-Based Action Research (AI CBAR), une initiative à l'échelle de la ville ancrée à Concordia.

McGill Centre for Media, Technology & Democracy

Centre McGill pour les médias, la technologie et la démocratie

Research center at McGill University focusing on AI governance, digital democracy, and the intersection of technology with democratic institutions. Conducts research on AI regulation, algorithmic transparency, and the impact of AI systems on democratic processes. Engages with policy and civil society communities.

Centre de recherche à l'Université McGill axé sur la gouvernance de l'IA, la démocratie numérique et l'intersection de la technologie avec les institutions démocratiques. Mène des recherches sur la réglementation de l'IA, la transparence algorithmique et l'impact des systèmes d'IA sur les processus démocratiques. S'engage avec les communautés politiques et de la société civile.

Communities

Communautés

Related communities that intersect with AI safety through rationality, effective altruism, and long-term thinking.

Communautés connexes qui touchent la sécurité de l'IA par la rationalité, l'altruisme efficace et la pensée à long terme.

PauseAI Montréal

PauseAI Montréal

Community of volunteers that aims to mitigate the risks of AI by convincing governments to pause the development of superhuman AI. We inform the public, talk to decision-makers, and organize events.

Communauté de bénévoles dont l'objectif est de limiter les risques liés à l'IA en convaincant les gouvernements de mettre en pause le développement d'IA surhumaines. Nous informons le public, échangeons avec les politiciens, et organisons des événements.

ACX Montréal (Montréal LessWrong)

ACX Montréal (Montréal LessWrong)

Rationalist community that discusses Astral Codex Ten posts, rationality topics, and AI alignment. Current iteration of the original Montréal LessWrong group. Hosts Discord server and email list for coordination.

Communauté rationaliste qui discute des articles d'Astral Codex Ten, de sujets de rationalité et d'alignement de l'IA. Itération actuelle du groupe original Montréal LessWrong. Héberge un serveur Discord et une liste de courriel pour la coordination.

Effective Altruism Montréal (EA Québec)

Altruisme efficace Montréal (EA Québec)

Local EA community organized under EA Québec. Hosts career workshops on AI and existential risk careers, helps members secure funding or small grants for projects, and connects to global EA movement. Has supported AI safety initiatives and reading groups.

Communauté EA locale organisée sous EA Québec. Organise des ateliers de carrière sur l'IA et les carrières de risque existentiel, aide les membres à sécuriser du financement ou de petites subventions pour des projets, et se connecte au mouvement EA mondial. A soutenu des initiatives de sécurité de l'IA et des groupes de lecture.