Connectez-vous avec les membres de la communauté, les organisations et les praticiens, grâce à une infolettre mensuelle, des événements locaux et un répertoire d'organisations.

Infolettre

01
fév

Février 2026

Organisations

  • AI Safety Reading Group (Mila)
    Série de séminaires de recherche bihebdomadaires à Mila invitant des auteurs à présenter leurs propres articles sur la sécurité de l'IA.
  • AI Alignment McGill (AIAM)
    Club étudiant à McGill axé sur l'alignement et la sécurité de l'IA ; organise des groupes de lecture, des hackathons et des activités connexes.
  • Canadian AI Safety Institute (CAISI)
    Institut fédéral de sécurité de l'IA. Finance la recherche via les programmes CIFAR et CNRC, développe des outils et des lignes directrices de sécurité. Membre du Réseau international des instituts de sécurité de l'IA.
  • CEIMIA
    Organisation indépendante gérant le hub montréalais du Réseau de centres du PMIA. Met en œuvre des projets appliqués à fort impact pour une IA responsable basée sur l'éthique et les droits humains.
  • CIFAR — AI & Society
    Programme dans le cadre de la Stratégie pancanadienne en matière d'IA qui organise des réunions interdisciplinaires et publie des rapports sur les impacts sociétaux de l'IA pour les décideurs et le public.
  • McGill Centre for Media, Technology & Democracy (CMTD)
    Centre de recherche de l'École Max Bell de McGill axé sur la gouvernance de l'IA, la transparence et la surveillance démocratique. Publie des analyses et organise des ateliers éclairant les politiques canadiennes et internationales.
  • Encode Canada
    Groupe dirigé par des jeunes qui développe la littératie en IA et les capacités en début de carrière par des bourses étudiantes, des ateliers pratiques, des événements publics et des programmes créatifs.
  • Goodheart AI
    Goodheart développe des systèmes d'IA pour accélérer en toute sécurité la R&D de technologies défensives afin de créer un monde résilient face à une IA puissante.
  • Horizon Omega (HΩ)
    Hub à but non lucratif basé à Montréal soutenant la communauté locale en sécurité, éthique et gouvernance de l'IA par des rencontres, du cotravail, des ateliers et des collaborations.
  • IVADO — R³AI / R10: AI Safety & Alignment
    Programme de recherche pluriannuel sur la sécurité de l'IA selon plusieurs axes : évaluation des comportements nuisibles, compréhension de la prise de décision de l'IA, approches algorithmiques pour une IA sûre.
  • Krueger AI Safety Lab (KASL)
    Groupe de recherche en sécurité de l'IA à Mila dirigé par David Krueger. Recherche sur la généralisation erronée, l'interprétabilité mécaniste et la spécification des récompenses.
  • LawZero
    Organisation de recherche à but non lucratif en sécurité de l'IA lancée par Yoshua Bengio. Se concentre sur l'architecture « IA scientifique » non agentique comme alternative aux approches des laboratoires de pointe.
  • Montréal AI Ethics Institute (MAIEI)
    Organisation internationale à but non lucratif fondée en 2018 qui équipe les citoyens préoccupés par l'IA et ses impacts sociétaux pour agir. Produit des résumés d'éthique de l'IA et des rapports sur l'état de l'éthique de l'IA.
  • Montréal AI Governance, Ethics & Safety Meetup
    Communauté de rencontres publiques organisant des conférences, ateliers et discussions sur la gouvernance, l'éthique et la sécurité de l'IA. Co-organisé avec Horizon Omega.
  • Mila – Québec AI Institute
    Centre de recherche académique en apprentissage profond avec plus de 140 professeurs affiliés. Alignement technique, interprétabilité, développement responsable de l'IA.
  • PauseAI Montréal
    Communauté de bénévoles plaidant pour atténuer les risques de l'IA et suspendre le développement de l'IA surhumaine jusqu'à ce qu'elle soit sûre.
  • OBVIA
    Observatoire interuniversitaire sur les impacts sociétaux de l'IA. Réseau de chercheurs d'institutions québécoises publiant des recherches à travers 7 pôles thématiques.