1er atelier : La statistique dans l’IA fiable

Partagez l'événement

Membres du comité responsables de l’atelier

Bei Jiang
Université de l’Alberta
Linglong Kong
Université de l’Alberta

Les systèmes d’IA s’implantent dans des domaines à haut risque – santé, finance et services publics – où les erreurs, les disparités et les atteintes à la vie privée ont un coût social réel. La plupart des pratiques actuelles sont axées sur des références et optimisées en termes de mesures, mais leur déploiement exige des preuves : contrôle des erreurs, incertitude calibrée, équité qui résiste aux changements de distribution et artefacts de gouvernance pouvant être vérifiés par les régulateurs et les cliniciens. Les statistiques constituent la colonne vertébrale de ces preuves : estimations claires et identifiabilité, garanties finies et non asymptotiques, quantification de l’incertitude, tests fondés sur des principes et conception d’études. Cet atelier réunit des statisticiens et des chercheurs en IA/ML afin de montrer comment les principes statistiques se traduisent en systèmes d’IA fiables, non seulement en théorie, mais aussi dans des outils prêts à être utilisés dans la pratique. Nos objectifs sont triples : (1) faire le lien entre la statistique et l’IA sur les défis communs liés au déploiement : équité, confidentialité, apprentissage fédéré, changement de distribution et évaluation ; (2) présenter des méthodes avec des garanties prouvables (couverture, taux d’erreur, budgets de confidentialité, tests d’équité) conçues pour la pratique ; et (3) catalyser les collaborations entre les communautés des statistiques et de l’IA, en créant une culture qui considère l’IA fiable comme une entreprise fondée sur des preuves et statistiquement étayée.

Conférencières et conférenciers confirmés

Elvezio Ronchetti (University of Geneva), Huixia Judy Wang (Rice University), Jianqing Fan (University of Alberta), Ji Zhu (University of Michigan), Jian Huang (The Hong Kong Polytechnic University), Junhui Wang (The Chinese University of Hong Kong), Lexin Lin (University of California), Linjun Zhang (Rutgers University), Naisyin Wang (University of Michigan), Pankaj Bhagwat (University of Alberta), Ricardo Silva (University College London), Tian Zheng (Columbia University), Tracy Ke (Harvard University), Weijie Su (University of Pennsylvania), Xiao Wang (Purdue University), Xiaowu Dai (UCLA) and Yuekai Sun (University of Michigan).

Programme

Lundi 11 mai 2026


9:00 – 9:20 : Accueil et inscriptions

9:20 – 9:30 : Mot de bienvenue – Aurélie Labbe (HEC Montréal), Linglong Kong et Bei Jang (University of Alberta), organisateurs de l’atelier

9:30 – 10:30 : Weijie Su (University of Pennsylvania)Alignment in Large Language Models: Statistical and Game-Theoretic Perspectives – L’unique conférence présentée en ligne.

10:30 – 11:00 : Pause café

11:00 – 12:00 : Tracy Ke (Harvard University)Integrating pre-trained language models into topic modeling

12:00 – 13:30 : Lunch (non fourni)

13:30 – 14:30 : Jianqing Fan (University of Alberta) – SMART Fine-tuning Factor Augmented Neural Lasso

14:30 – 14:45 : Pause

14:45 – 15:45 : Yuekai Sun (University of Michigan)Data-Mixing in LLM pretraining

15:45 – 16:15 : Pause café

16:15 – 17:15 : Recap. Discussion Public/Conférenciers(ères)

17:15 – 18:15 : Cocktail de réseautage

Mardi 12 mai 2026


9:00 – 9:30 : Accueil

9:30 – 10:30 : Naisyin Wang (University of Michigan)Utilize Synthetic Components to Systematically Reach Targeted Goals

10:30 – 11:00 : Pause café

11:00 – 12:00 : Bei Jiang (University of Alberta)Achieving Fairness-Utility Trade-off through Synthetic Data

12:00 – 13:30 : Lunch (non fourni)

13:30 – 14:30 : Jian Huang (The Hong Kong Polytechnic University)Representation-Based Diffusion Models

14:30 – 14:45 : Pause

14:45 – 15:45 : Xiao Wang (Purdue University)Coreset-Induced Flow Matching

15:45 – 16:15 : Pause café

16:15 – 17:15 : Recap. Discussion Public/Conférenciers(ères)

Mercredi 13 mai 2026


9:00 – 9:30 : Accueil

9:30 – 10:30 : Ricardo Silva (University College London)Cautious extrapolation of causal predictions from past experimentation

10:30 – 11:00 : Pause café

11:00 – 12:00 : Pankaj Bhagwat (University of Alberta)Universal Measures of Dependence for Complex Objects

12:00 – 13:30 : Lunch (non fourni)

13:30 – 14:30 : Linjun Zhang (Rutgers University)Evaluating LLMs When They Do Not Know the Answer

14:30 – 14:45 : Pause

14:45 – 15:45 : Xiaowu Dai (UCLA)Prediction-Powered Conditional Inference

15:45 – 16:15 : Pause café

16:15 – 17:15 : Junhui Wang (The Chinese University of Hong Kong)Understanding Partial Transfer in CNNs via Kronecker Product Regression

Jeudi 14 mai 2026


9:00 – 9:30 : Accueil

9:30 – 10:30 : Ji Zhu (University of Michigan)Efficient Embedding and Generative Modeling for Hypergraphs

10:30 – 11:00 : Pause café

11:00 – 12:00 : Lexin Lin (University of California)Brain Encoding and Decoding: Some Examples

12:00 – 13:30 : Lunch (non fourni)

13:30 – 14:30 : Huixia Judy Wang (Rice University)Fusion Learning of Biological Age from Multiple Epigenetic Clocks

14:30 – 14:45 : Pause

14:45 – 15:45 : Tian Zheng (Columbia University)Distribution-Informed Learning via Kernelized Stein Discrepancy Calibration

15:45 – 16:15 : Pause café

16:15 – 17:15 : Elvezio Ronchetti (University of Geneva)Robust Bayesian Learning

Vendredi 15 mai 2026


9:00 – 9:30 : Accueil

9:30 – 10:30 : Table ronde – discussion

10:30 – 11:00 : Pause café

11:00 – 12:00 : Recap. Discussion Public/Conférenciers(ères)

12:00 – 12:15 : Mot de clôture