Les objectifs de ce Regroupement sont de (1) informer un processus responsable tout en assurant une plus grande représentation des groupes marginalisés et en conduisant à une conception, une mise en œuvre et des résultats plus équitables et sécuritaires de l’IA, (2) comprendre les nouveaux modèles d’affaires que IAR³ pourrait aider à soutenir, identifier les facteurs humains contribuant à l’utilisation de l’IA, définir des modèles de gouvernance transparents et fiables évitant la concentration du pouvoir, pour l’utilisation responsable et éco-durable de l’IA et des données nécessaires pour calibrer les modèles d’IA, et déterminer comment l’IA peut créer un meilleur travail et significatif, (3) étudier les moteurs de l’adoption de l’IA, découvrir les réponses humaines implicites aux systèmes d’IA et corréler ces réponses avec les décisions de conception prises par les équipes de développement, (4) définir clairement l’IA digne de confiance et sécuritaire, et produire des méthodes, des outils et des technologies permettant le développement d’applications intelligentes dignes de confiance, (5) proposer des normes de gouvernance et des modèles de sociétés démocratiques résilientes aux effets, aux dommages et aux risques d’IA de plus en plus puissantes. Ces objectifs devront être travaillés en collaboration avec des groupes minoritaires ou marginalisés.
Coresponsables du regroupement
Chercheuses et chercheurs
Conseillère de recherche associée
Florence Lussier-Lejeune
florence.lussier-lejeune@ivado.ca