Infolettre

Événements

Rencontres, conférences et ateliers à venir

mer, 15 avr · 9h00
La souveraineté numérique au Québec : concilier stratégie, éthique et intérêt public
Université Laval - Pavillon Maurice-Pollack, Québec
Colloque sur l'intégration de l'IA et des technologies numériques souveraines au gouvernement, dans le respect de l'éthique, la transparence et la confiance publique.
jeu, 16 avr · 12h00
Le Capital algorithmique : accumulation, pouvoir et résistance à l'ère de l'intelligence artificielle
Jonathan Durand Folco (Université Saint-Paul) et Jonathan Martineau (Concordia) discutent du capitalisme algorithmique, de la concentration du pouvoir et des formes possibles de résistance.
mar, 28 avr · 19h00
IA et persuasion : capacités et atténuation
UQAM - Pavillon Président-Kennedy, Montréal
Jean-François Godbout (Université de Montréal + Mila) explore les effets persuasifs de l'IA générative, incluant les hypertrucages, l'influence automatisée et la propagande assistée par IA, ainsi que les stratégies d'atténuation et un nouvel outil de détection de la désinformation.
jeu, 30 avr · 8h00
Sexualité et IA générative : bénéfices, dérives et pistes d'action
UQAM - Pavillon Judith-Jasmin annexe, Montréal
Colloque international sur les enjeux éthiques, juridiques et sociaux soulevés par l'IA générative dans la sexualité et les relations intimes.
lun, 4 mai · 9h00 – 8 mai
Bootcamp : perspectives statistiques sur les systèmes d'IA modernes
Montréal
Bootcamp de cinq jours sur les fondements statistiques de l'IA moderne, dans le cadre du semestre thématique IVADO sur les fondements statistiques de l'IA.
lun, 11 mai · 9h30 – 15 mai
Atelier : statistiques pour une IA digne de confiance
Montréal
Atelier de cinq jours sur les méthodes statistiques pour une IA digne de confiance, dans le cadre du semestre thématique IVADO sur les fondements statistiques de l'IA.
lun, 8 juin · 9h30 – 11 juin
Atelier : l'incertitude en IA
Montréal
Atelier de quatre jours sur la quantification de l'incertitude en IA, dans le cadre du semestre thématique IVADO sur les fondements statistiques de l'IA.

Organisations

L'écosystème montréalais de la sécurité de l'IA : laboratoires de recherche, instituts de politiques et groupes communautaires

  • AI Safety Reading Group (Mila)
    Série de séminaires de recherche bihebdomadaires à Mila invitant des auteurs à présenter leurs propres articles sur la sécurité de l'IA.
  • AI Alignment McGill (AIAM)
    Club étudiant à McGill axé sur l'alignement et la sécurité de l'IA ; organise des groupes de lecture, des hackathons et des activités connexes.
  • Canadian AI Safety Institute (CAISI)
    Institut fédéral de sécurité de l'IA. Finance la recherche via les programmes CIFAR et CNRC, développe des outils et des lignes directrices de sécurité. Membre du Réseau international des instituts de sécurité de l'IA.
  • CEIMIA
    Organisation indépendante gérant le hub montréalais du Réseau de centres du PMIA. Met en œuvre des projets appliqués à fort impact pour une IA responsable basée sur l'éthique et les droits humains.
  • CIFAR — AI & Society
    Programme dans le cadre de la Stratégie pancanadienne en matière d'IA qui organise des réunions interdisciplinaires et publie des rapports sur les impacts sociétaux de l'IA pour les décideurs et le public.
  • McGill Centre for Media, Technology & Democracy (CMTD)
    Centre de recherche de l'École Max Bell de McGill axé sur la gouvernance de l'IA, la transparence et la surveillance démocratique. Publie des analyses et organise des ateliers éclairant les politiques canadiennes et internationales.
  • Encode Canada
    Groupe dirigé par des jeunes qui développe la littératie en IA et les capacités en début de carrière par des bourses étudiantes, des ateliers pratiques, des événements publics et des programmes créatifs.
  • Goodheart AI
    Goodheart développe des systèmes d'IA pour accélérer en toute sécurité la R&D de technologies défensives afin de créer un monde résilient face à une IA puissante.
  • Horizon Omega (HΩ)
    Hub à but non lucratif basé à Montréal soutenant la communauté locale en sécurité, éthique et gouvernance de l'IA par des rencontres, du cotravail, des ateliers et des collaborations.
  • IVADO — R³AI / R10: AI Safety & Alignment
    Programme de recherche pluriannuel sur la sécurité de l'IA selon plusieurs axes : évaluation des comportements nuisibles, compréhension de la prise de décision de l'IA, approches algorithmiques pour une IA sûre.
  • Krueger AI Safety Lab (KASL)
    Groupe de recherche en sécurité de l'IA à Mila dirigé par David Krueger. Recherche sur la généralisation erronée, l'interprétabilité mécaniste et la spécification des récompenses.
  • LawZero
    Organisation de recherche à but non lucratif en sécurité de l'IA lancée par Yoshua Bengio. Se concentre sur l'architecture « IA scientifique » non agentique comme alternative aux approches des laboratoires de pointe.
  • Montréal AI Ethics Institute (MAIEI)
    Organisation internationale à but non lucratif fondée en 2018 qui équipe les citoyens préoccupés par l'IA et ses impacts sociétaux pour agir. Produit des résumés d'éthique de l'IA et des rapports sur l'état de l'éthique de l'IA.
  • Mila – Québec AI Institute
    Centre de recherche académique en apprentissage profond avec plus de 140 professeurs affiliés. Alignement technique, interprétabilité, développement responsable de l'IA.
  • OBVIA
    Observatoire interuniversitaire sur les impacts sociétaux de l'IA. Réseau de chercheurs d'institutions québécoises publiant des recherches à travers 7 pôles thématiques.
  • Montréal AI Governance, Ethics & Safety Meetup
    Communauté de rencontres publiques organisant des conférences, ateliers et discussions sur la gouvernance, l'éthique et la sécurité de l'IA. Co-organisé avec Horizon Omega.
  • PauseAI Montréal
    Communauté de bénévoles plaidant pour atténuer les risques de l'IA et suspendre le développement de l'IA surhumaine jusqu'à ce qu'elle soit sûre.