Le Regroupement de recherche 4 lance un appel à participation avec un soutien financier total de 100 000 $ pour un maximum de quatre projets d’une durée d’un an. En savoir plus >>
Réaliser de la recherche interdisciplinaire à l’intersection de deux enjeux urgents liés à l’IA, son encadrement et son déploiement.
Vision
Dépasser l’opposition traditionnelle entre innovation et réglementation en créant des modèles d’affaires et de gouvernance transparents, fiables et sécuritaires qui répondent aux exigences de l’industrie, des institutions publiques et de la population, dont les groupes que l’intelligence artificielle (IA) pourrait disqualifier.
Objectifs
- Mener des recherches scientifiques fondamentales et multidisciplinaires.
- Contribuer au développement de méthodes, d’outils et de technologies permettant le développement d’applications intelligentes dignes de confiance.
- Promouvoir l’adoption de l’IA au service de la société.
Axes de recherche
Axe 1 : Gouvernance de l’IA
L’axe 1 vise à combler les lacunes en matière d’encadrement de l’IA. Il s’intéresse à tous les enjeux juridiques, éthiques et démocratiques liés à la gouvernance de l’IA (des modèles frontières aux systèmes d’IA), tels que la sécurité, la sûreté, la promotion de l’innovation et la gestion des risques. Cet axe s’étend également à l’outillage des entreprises et des organisations pour mieux se conformer aux cadres de gouvernance.
Axe 2 : Mise en œuvre de l’IA
L’axe 2 se concentre sur l’identification et la mise à jour constante des capacités technologiques et professionnelles nécessaires à une intégration optimale de l’IA dans les organisations. Il vise également à contribuer au développement de méthodes, d’outils et de technologies permettant le développement d’applications intelligentes dignes de confiance et à démocratiser le développement d’applications en IA.
Impact anticipé
- Participer à l’élaboration de politiques pour encadrer l’utilisation de l’IA et de la robotique au Québec et au Canada.
- Réduire la mésinformation et la désinformation en développant un système de vérification des faits.
- Stimuler l’intégration responsable de l’IA dans les organisations de santé en mesurant leur maturité organisationnelle.
- Favoriser l’acquisition continue de nouvelles compétences en IA dans divers contextes de travail.
- Contribuer à la démocratisation d’un usage responsable de l’IA.
Défis
Les avancées récentes en IA ouvrent la voie à des changements majeurs et bénéfiques dans de nombreux secteurs. Cependant, la prolifération de systèmes d’IA accentue la mésinformation et la désinformation, soulevant des préoccupations éthiques, démocratiques, juridiques et de sécurité importantes. Elle génère également des défis dans le milieu de travail : érosion des compétences et de la qualité du travail, diminution de l’autonomie et du sens pour les employés, microsurveillance de la main-d’œuvre et « sur confiance » envers les outils d’IA.
Comment, dans ce contexte, tirer profit des bénéfices de l’IA sans pour autant alimenter ses effets délétères ? Cette quête d’équilibre complexe nécessite la contribution de chercheurs et chercheuses de divers domaines, tels que des spécialistes en science politique, en robotique, en droit, en éthique, en informatique, en communication et en interaction humaine-machine, qui de manière concertée, proposent une approche scientifique multidisciplinaire visant à concilier cette dualité.
Projets en cours
Une « boîte à outils » pour l’expérimentation en gouvernance de l’IA
(Axe 1)
- Pierre Larouche – Université de Montréal
- Foutse Khomh – Polytechnique Montréal
- Dalia Gesualdi-Fecteau – Université de Montréal
Filling the governance gaps in embodied AI for Canada
(Axe 1)
- AJung Moon – Université McGill
- Pierre Larouche – Université de Montréal
Détection du mensonge avec l’IA : préjugés renforcés et agentivité humaine affaiblie?
(Axe 1)
- Vincent Denault – Université de Montréal
Gouvernance de l’IA dans le secteur de la santé
(Axe 1)
- Véronique Nabelsi – Université du Québec en Outaouais
A Unified Statistical Framework for Quantifying Rare Event Risks for Language Models
(Axe 1)
- Bei Jiang – Université de l’Alberta
Gouvernance des données de qualité
(Axe 1 – Axe 2)
- Jean-François Godbout – Université de Montréal
- Catherine Beaudry – Polytechnique Montréal
- Reihaneh Rabbany – Université McGill
- Michel Desmarais – Polytechnique Montréal
Guider la mise en œuvre de l’IA – cadre de maturité organisationnelle en santé
(Axe 2)
- Aude Motulsky – Université de Montréal
- Jean-Noël Nikiema – Université de Montréal
- Pascale Béliveau – Université de Montréal
- Jean-Louis Denis – University of Toronto
- Ulrich Aïvodji – ÉTS Montréal
- Daniel J Caron – École nationale d’administration publique
- Julien Laumônier – Université Laval
- Christian Gagné – Université Laval
Intégration d’un modèle d’IA en radio-oncologie
(Axe 2)
- Lyse Langlois – Université Laval
- Nadia Naffi – Université Laval
La traduction automatique en journalisme
(Axe 2)
- Julie Alice Gramaccia – Université d’Ottawa
- Kyle Conway – Université d’Ottawa
- Colette Brin – Université Laval
Préserver la conscience de la situation des professionnels en interaction avec l’IA
(Axe 2)
- Pierre-Majorique Léger – HEC Montréal
- Marion Korosec-Serfaty – Université du Québec à Montréal
- Alexander J. Karran – HEC Montréal
- Sylvain Sénécal – HEC Montréal
Développement low-code et guidé par les intentions
(Axe 2)
- Jessie Galasso-Carbonnel – Université McGill
- Houari Sahraoui – Université de Montréal
- Ulrich Aïvodji – ÉTS Montréal
Beyond Emerging LLMUse: The Psychology of Coerced Use
(Axe 2)
- Antoine Grenier Ouimet – HEC Montréal
Vers l’appropriation responsable de l’intelligence artificielle dans les PME
(Axe 2)
- Thang Le Dinh – Université du Québec à Trois-Rivières
Evaluating Transparency Interventions to Reduce AI Over-Trust Among Vulnerable Populations
(Axe 2)
- Vera Bekes – Université McGill
- Nizar Bouguila – Université Concordia
Chercheuses et chercheurs
- AJung Moon – Université McGill
- Alexander J. Karran – HEC Montréal
- Anne-Sophie Hulin – Université de Sherbrooke
- Antoine Grenier Ouimet – HEC Montréal
- Aude Motulsky – Université de Montréal
- Bei Jiang – Université de l’Alberta
- Benoit Baudry – Université de Montréal
- Catherine Beaudry – Polytechnique Montréal
- Colette Brin – Université Laval
- Dalia Gesualdi-Fecteau – Université de Montréal
- Evelyne Brie – Université de Montréal
- Houari Sahraoui – Université de Montréal
- Hugo Lapierre – Université de Montréal
- Jean-François Godbout – Université de Montréal
- Jean-Louis Denis – Université de Toronto
- Jean-Noël Nikiema – Université de Montréal
- Jessie Galasso-Carbonnel – Université McGill
- Jocelyn Maclure – Université McGill
- Julie Alice Gramaccia – Université d’Ottawa
- Kyle Conway – Université d’Ottawa
- Lina Marsso – Polytechnique Montréal
- Marion Korosec-Serfaty – Université du Québec à Montréal
- Nizar Bouguila – Université Concordia
- Pamela Lirio – Université de Montréal
- Pierre-Majorique Léger – HEC Montréal
- Thang Le Dinh – Université du Québec à Trois-Rivières
- Théophile Demazure – HEC Montréal
- Ulrich Aïvodji – ÉTS Montréal
- Vera Bekes – Univerisité McGill
- Véronique Nabelsi – Université du Québec en Outaouais
- Vincent Denault – Université de Montréal
- Vincent Gautrais – Université de Montréal
Étudiants et étudiantes
- Amélie Lévesque – HEC Montréal
- Hugo Cossette-Lefebvre – Université McGill
- Kellin Pelrine – Université McGill
- Peter Yu – Université McGill
- Pietro Cruciata – Polytechnique Montréal
- Thaddé Rolon-Merette – HEC Montréal
Conseillère à la recherche
Florence Lussier-Lejeune : florence.lussier-lejeune@ivado.ca


