1er atelier : La statistique dans l’IA fiable

Partagez l'événement

Membres du comité responsables de l’atelier

Bei Jiang
Université de l’Alberta
Linglong Kong
Université de l’Alberta

Les systèmes d’IA s’implantent dans des domaines à haut risque – santé, finance et services publics – où les erreurs, les disparités et les atteintes à la vie privée ont un coût social réel. La plupart des pratiques actuelles sont axées sur des références et optimisées en termes de mesures, mais leur déploiement exige des preuves : contrôle des erreurs, incertitude calibrée, équité qui résiste aux changements de distribution et artefacts de gouvernance pouvant être vérifiés par les régulateurs et les cliniciens. Les statistiques constituent la colonne vertébrale de ces preuves : estimations claires et identifiabilité, garanties finies et non asymptotiques, quantification de l’incertitude, tests fondés sur des principes et conception d’études. Cet atelier réunit des statisticiens et des chercheurs en IA/ML afin de montrer comment les principes statistiques se traduisent en systèmes d’IA fiables, non seulement en théorie, mais aussi dans des outils prêts à être utilisés dans la pratique. Nos objectifs sont triples : (1) faire le lien entre la statistique et l’IA sur les défis communs liés au déploiement : équité, confidentialité, apprentissage fédéré, changement de distribution et évaluation ; (2) présenter des méthodes avec des garanties prouvables (couverture, taux d’erreur, budgets de confidentialité, tests d’équité) conçues pour la pratique ; et (3) catalyser les collaborations entre les communautés des statistiques et de l’IA, en créant une culture qui considère l’IA fiable comme une entreprise fondée sur des preuves et statistiquement étayée.

Inscriptions à partir du 2 février.

Conférencières et conférenciers : à venir