Connectez-vous avec les membres de la communauté, les organisations et les praticiens, grâce à une infolettre mensuelle, des événements locaux et un répertoire d'organisations.
Institut fédéral de sécurité de l'IA. Finance la recherche via les programmes CIFAR et CNRC, développe des outils et des lignes directrices de sécurité. Membre du Réseau international des instituts de sécurité de l'IA.
Organisation indépendante gérant le hub montréalais du Réseau de centres du PMIA. Met en œuvre des projets appliqués à fort impact pour une IA responsable basée sur l'éthique et les droits humains.
Programme dans le cadre de la Stratégie pancanadienne en matière d'IA qui organise des réunions interdisciplinaires et publie des rapports sur les impacts sociétaux de l'IA pour les décideurs et le public.
Centre de recherche de l'École Max Bell de McGill axé sur la gouvernance de l'IA, la transparence et la surveillance démocratique. Publie des analyses et organise des ateliers éclairant les politiques canadiennes et internationales.
Groupe dirigé par des jeunes qui développe la littératie en IA et les capacités en début de carrière par des bourses étudiantes, des ateliers pratiques, des événements publics et des programmes créatifs.
Goodheart développe des systèmes d'IA pour accélérer en toute sécurité la R&D de technologies défensives afin de créer un monde résilient face à une IA puissante.
Hub à but non lucratif basé à Montréal soutenant la communauté locale en sécurité, éthique et gouvernance de l'IA par des rencontres, du cotravail, des ateliers et des collaborations.
Programme de recherche pluriannuel sur la sécurité de l'IA selon plusieurs axes : évaluation des comportements nuisibles, compréhension de la prise de décision de l'IA, approches algorithmiques pour une IA sûre.
Groupe de recherche en sécurité de l'IA à Mila dirigé par David Krueger. Recherche sur la généralisation erronée, l'interprétabilité mécaniste et la spécification des récompenses.
Organisation de recherche à but non lucratif en sécurité de l'IA lancée par Yoshua Bengio. Se concentre sur l'architecture « IA scientifique » non agentique comme alternative aux approches des laboratoires de pointe.
Organisation internationale à but non lucratif fondée en 2018 qui équipe les citoyens préoccupés par l'IA et ses impacts sociétaux pour agir. Produit des résumés d'éthique de l'IA et des rapports sur l'état de l'éthique de l'IA.
Communauté de rencontres publiques organisant des conférences, ateliers et discussions sur la gouvernance, l'éthique et la sécurité de l'IA. Co-organisé avec Horizon Omega.
Centre de recherche académique en apprentissage profond avec plus de 140 professeurs affiliés. Alignement technique, interprétabilité, développement responsable de l'IA.
Observatoire interuniversitaire sur les impacts sociétaux de l'IA. Réseau de chercheurs d'institutions québécoises publiant des recherches à travers 7 pôles thématiques.