ADOR-IA

Partagez l'événement

Dans le cadre du projet IAR3, IVADO, l’Obvia et le SEMLA unissent leurs forces et leurs réseaux respectifs pour coorganiser la première édition d’ADOR-IA, le tout premier Atelier visant le Développement et l’Opérationnalisation responsable de l’IA, qui aura lieu le 22 août 2024 en ligne et le 29 août et 5 septembre en présentiel à Montréal.

ADOR-IA est une occasion unique de travailler avec une équipe multidisciplinaire pour réfléchir à la résolution des défis de développement et d’opérationnalisation responsable de l’IA. Lors de l’atelier, les équipes participantes devront collaborer pour relever des défis soumis par des organisations membres d’IVADO.

Vous faites partie de la communauté étudiante et vous étudiez dans les domaines d’études suivants ?

  • IA et MLOps
  • Sciences sociales (droit, éthique, etc…)
  • Environnement et développement durable

Venez relever les défis ADOR-IA, avec le soutien des entreprises participantes et de mentorat par des expert(e)s!

Détails relatifs à l’atelier :

À quoi s’attendre?

  • Formation d’une journée sur les pratiques et les outils pour un déploiement responsable de l’IA
  • 6 défis d’intégration de Grand Modèle de Langage (GML, ou Large Language Model, LLM) fournis par des entreprises
  • Équipe de 3 étudiant(e) par défi minimum, accompagnée de l’entreprise
  • Accès à du mentorat offert par des expert(e)s
  • Possibilité de poursuivre sur un projet supervisé ou un stage Mitacs
  • Atelier bilingue – français et anglais

Exemples de problématiques :

Biais algorithmiques : Une organisation pourrait soumettre un problème afin de s’assurer que son modèle d’IA ne génère pas des biais algorithmiques.

Transparence et explicabilité : Une organisation pourrait soumettre un problème afin de faire en sorte que les décisions prises par son système d’IA soient moins opaques pour les utilisateurs et les utilisatrices et ainsi le rendre plus transparent.

Protection de la vie privée et des données : L’utilisation de grandes quantités de données pour entraîner des modèles d’IA soulève des préoccupations concernant la protection de la vie privée et la sécurité des données personnelles.

Responsabilité légale et éthique : En cas d’erreurs ou de préjudices causés par des systèmes d’IA, il peut être difficile de déterminer qui est responsable.

Équité et justice sociale : L’IA peut potentiellement aggraver les inégalités existantes en favorisant certains groupes ou en excluant d’autres.

Sécurité et fiabilité : Les systèmes d’IA peuvent être vulnérables aux attaques malveillantes, ce qui pose des risques pour la sécurité et la fiabilité des applications d’IA.

Consommation énergétique accrue : Les modèles d’IA nécessitent souvent de vastes quantités de données et des calculs intensifs, ce qui peut entraîner une augmentation de la consommation d’énergie.

Ces problématiques nécessitent une approche proactive et multidisciplinaire impliquant par exemple des expert(e)s en IA, en sciences sociales (éthique, droit, etc.) et en environnement pour garantir que l’IA est utilisée de manière responsable et bénéfique pour la société.

Si vous êtes intéressé(e)s à participer, veuillez soumettre votre candidature via ce formulaire avant le 3 juillet 2024.

Programme préliminaire :

22 août (en ligne)

  • AM – Plénière d’ouverture: Présentation des problèmes des différentes organisations
  • PM – Formation sur les outils et meilleures pratiques en IA responsable

29 août (en présentiel HEC centre-ville)

  • AM et PM : Travail en équipe sur les problèmes en IA responsable acceptés

5 septembre (en présentiel au HEC centre-ville)

  • AM : Préparation des présentations
  • PM : Plénière et cocktail de clôture

L’équipe organisatrice d’ADOR-IA

_________________________________________

À propos de l’Obvia

L’Obvia est un réseau interuniversitaire qui fédère les forces vives de la recherche intersectorielle sur les impacts sociétaux de l’IA et du numérique. Il réunit plus de 240 chercheur(e)s et de nombreux partenaires au Québec et à l’international. Sa mission est d’identifier les enjeux de l’IA et du numérique et de contribuer à des solutions qui placent les êtres vivants et la biosphère au centre de leur cycle de développement et d’utilisation. La communauté de recherche de l’Obvia produit des connaissances ouvertes qui renforcent les capacités individuelles et collectives, en collaboration avec la société civile, les acteurs publics, l’industrie et les développeurs.

À propos du SEMLA

SEMLA est un groupe de recherche québécois qui rassemble des chercheurs en génie logiciel et apprentissage automatique appliqué des universités du Québec et du Canada spécialisés en ingénierie des systèmes intelligents. Créé en 2021 après trois éditions couronnées de succès du SEMLA symposium. Les chercheurs du SEMLA visent à développer des méthodes, outils et technologies permettant un développement sécurisé, fiable et sûr d’applications intelligentes. SEMLA vise également à contribuer à la formation de la prochaine génération d’ingénieurs en devenir dans nos Universités et également la formation des professionnels travaillant actuellement dans l’industrie à travers des formations professionnelles.

À propos d’IVADO

IVADO est un consortium interdisciplinaire et intersectoriel de recherche, de formation, de transfert et de mobilisation des connaissances qui a pour mission de bâtir et de promouvoir une intelligence artificielle robuste, raisonnante et responsable. Piloté par l’Université de Montréal, avec 4 partenaires universitaires (Polytechnique Montréal, HEC Montréal, Université Laval et Université McGill), IVADO rassemble des centres de recherches, des partenaires gouvernementaux et industriels, pour coconstruire des initiatives intersectorielles ambitieuses favorisant un changement de paradigme de l’IA et de son adoption.