Réaliser de la recherche interdisciplinaire à l’intersection de deux enjeux urgents liés à l’IA, son encadrement et son déploiement.

Vision

Dépasser l’opposition traditionnelle entre innovation et réglementation en créant des modèles d’affaires et de gouvernance transparents, fiables et sécuritaires qui répondent aux exigences de l’industrie, des institutions publiques et de la population, dont les groupes que l’intelligence artificielle (IA) pourrait disqualifier.

Objectifs

  • Mener des recherches scientifiques fondamentales et multidisciplinaires.
  • Contribuer au développement de méthodes, d’outils et de technologies permettant le développement d’applications intelligentes dignes de confiance.
  • Promouvoir l’adoption de l’IA au service de la société.

Axes de recherche

Axe 1 : Gouvernance de l’IA

L’axe 1 vise à combler les lacunes en matière d’encadrement de l’IA et à outiller les entreprises et les organisations pour mieux s’y conformer. Cet axe s’intéresse également aux enjeux éthiques, juridiques et démocratiques relatifs à l’usage répandu des grands modèles de langage (LLMs).

Axe 2 : Mise en œuvre de l’IA

L’axe 2 se concentre sur l’identification et la mise à jour constante des capacités technologiques et professionnelles nécessaires à une intégration optimale de l’IA dans les organisations. Il vise également à démocratiser le développement d’applications en IA.

Impact anticipé

  • Participer à l’élaboration de politiques pour encadrer l’utilisation de l’IA et de la robotique au Québec et au Canada.
  • Réduire la mésinformation et la désinformation en développant un système de vérification des faits.
  • Stimuler l’intégration responsable de l’IA dans les organisations de santé en mesurant leur maturité organisationnelle.
  • Favoriser l’acquisition continue de nouvelles compétences en IA dans divers contextes de travail.
  • Contribuer à la démocratisation d’un usage responsable de l’IA.

Défis

Les avancées récentes en IA ouvrent la voie à des changements majeurs et bénéfiques dans de nombreux secteurs. Cependant, la prolifération de systèmes d’IA accentue la mésinformation et la désinformation, soulevant des préoccupations éthiques, démocratiques, juridiques et de sécurité importantes. Elle génère également des défis dans le milieu de travail : érosion des compétences et de la qualité du travail, diminution de l’autonomie et du sens pour les employés, microsurveillance de la main-d’œuvre et « sur confiance » envers les outils d’IA.

Comment, dans ce contexte, tirer profit des bénéfices de l’IA sans pour autant alimenter ses effets délétères ? Cette quête d’équilibre complexe nécessite la contribution de chercheurs et chercheuses de divers domaines, tels que des spécialistes en science politique, en robotique, en droit, en éthique, en informatique, en communication et en interaction humaine-machine, qui de manière concertée, proposent une approche scientifique multidisciplinaire visant à concilier cette dualité.

Équipe de recherche

Coresponsables

Foutse Khomh
Polytechnique Montréal
Lyse Langlois
Université Laval
Pierre-Majorique Léger
HEC Montréal

Chercheuses et chercheurs

Étudiants et étudiantes

  • Khayreddine Bouabida – Université de Montréal
  • Hugo Cossette-Lefebvre – Université McGill
  • Pietro Cruciata – Polytechnique Montréal
  • Amélie Lévesque – HEC Montréal
  • Kellin Pelrine – Université McGill
  • Thaddé Rolon-Merette – HEC Montréal
  • Peter Yu – Université McGill

Conseillère de recherche

Florence Lussier-Lejeune : florence.lussier-lejeune@ivado.ca