Prix
$70-$280
Les systèmes d’IA s’implantent dans des domaines à haut risque – santé, finance et services publics – où les erreurs, les disparités et les atteintes à la vie privée ont un coût social réel. La plupart des pratiques actuelles sont axées sur des références et optimisées en termes de mesures, mais leur déploiement exige des preuves : contrôle des erreurs, incertitude calibrée, équité qui résiste aux changements de distribution et artefacts de gouvernance pouvant être vérifiés par les régulateurs et les cliniciens. Les statistiques constituent la colonne vertébrale de ces preuves : estimations claires et identifiabilité, garanties finies et non asymptotiques, quantification de l’incertitude, tests fondés sur des principes et conception d’études. Cet atelier réunit des statisticiens et des chercheurs en IA/ML afin de montrer comment les principes statistiques se traduisent en systèmes d’IA fiables, non seulement en théorie, mais aussi dans des outils prêts à être utilisés dans la pratique. Nos objectifs sont triples : (1) faire le lien entre la statistique et l’IA sur les défis communs liés au déploiement : équité, confidentialité, apprentissage fédéré, changement de distribution et évaluation ; (2) présenter des méthodes avec des garanties prouvables (couverture, taux d’erreur, budgets de confidentialité, tests d’équité) conçues pour la pratique ; et (3) catalyser les collaborations entre les communautés des statistiques et de l’IA, en créant une culture qui considère l’IA fiable comme une entreprise fondée sur des preuves et statistiquement étayée.
Conférencières et conférenciers confirmés
Elvezio Ronchetti (University of Geneva), Huixia Judy Wang (Rice University), Jianqing Fan (University of Alberta), Ji Zhu (University of Michigan), Jian Huang (The Hong Kong Polytechnic University), Junhui Wang (The Chinese University of Hong Kong), Lexin Lin (University of California), Linjun Zhang (Rutgers University), Naisyin Wang (University of Michigan), Pankaj Bhagwat (University of Alberta), Ricardo Silva (University College London), Tian Zheng (Columbia University), Tracy Ke (Harvard University), Weijie Su (University of Pennsylvania), Xiao Wang (Purdue University), Xiaowu Dai (UCLA) and Yuekai Sun (University of Michigan).
Programme
Lundi 11 mai 2026
9:00 – 9:20 : Accueil et inscriptions
9:20 – 9:30 : Mot de bienvenue – Aurélie Labbe (HEC Montréal), Linglong Kong et Bei Jang (University of Alberta), organisateurs de l’atelier
9:30 – 10:30 : Weijie Su (University of Pennsylvania) – Alignment in Large Language Models: Statistical and Game-Theoretic Perspectives – L’unique conférence présentée en ligne.
10:30 – 11:00 : Pause café
11:00 – 12:00 : Tracy Ke (Harvard University) – Integrating pre-trained language models into topic modeling
12:00 – 13:30 : Lunch (non fourni)
13:30 – 14:30 : Jianqing Fan (University of Alberta) – SMART Fine-tuning Factor Augmented Neural Lasso
14:30 – 14:45 : Pause
14:45 – 15:45 : Yuekai Sun (University of Michigan) – Data-Mixing in LLM pretraining
15:45 – 16:15 : Pause café
16:15 – 17:15 : Recap. Discussion Public/Conférenciers(ères)
17:15 – 18:15 : Cocktail de réseautage
Mardi 12 mai 2026
9:00 – 9:30 : Accueil
9:30 – 10:30 : Naisyin Wang (University of Michigan) – Utilize Synthetic Components to Systematically Reach Targeted Goals
10:30 – 11:00 : Pause café
11:00 – 12:00 : Bei Jiang (University of Alberta) – Achieving Fairness-Utility Trade-off through Synthetic Data
12:00 – 13:30 : Lunch (non fourni)
13:30 – 14:30 : Jian Huang (The Hong Kong Polytechnic University) – Representation-Based Diffusion Models
14:30 – 14:45 : Pause
14:45 – 15:45 : Xiao Wang (Purdue University) – Coreset-Induced Flow Matching
15:45 – 16:15 : Pause café
16:15 – 17:15 : Recap. Discussion Public/Conférenciers(ères)
Mercredi 13 mai 2026
9:00 – 9:30 : Accueil
9:30 – 10:30 : Ricardo Silva (University College London) – Cautious extrapolation of causal predictions from past experimentation
10:30 – 11:00 : Pause café
11:00 – 12:00 : Pankaj Bhagwat (University of Alberta) – Universal Measures of Dependence for Complex Objects
12:00 – 13:30 : Lunch (non fourni)
13:30 – 14:30 : Linjun Zhang (Rutgers University) – Evaluating LLMs When They Do Not Know the Answer
14:30 – 14:45 : Pause
14:45 – 15:45 : Xiaowu Dai (UCLA) – Prediction-Powered Conditional Inference
15:45 – 16:15 : Pause café
16:15 – 17:15 : Junhui Wang (The Chinese University of Hong Kong) – Understanding Partial Transfer in CNNs via Kronecker Product Regression
Jeudi 14 mai 2026
9:00 – 9:30 : Accueil
9:30 – 10:30 : Ji Zhu (University of Michigan) – Efficient Embedding and Generative Modeling for Hypergraphs
10:30 – 11:00 : Pause café
11:00 – 12:00 : Lexin Lin (University of California) – Brain Encoding and Decoding: Some Examples
12:00 – 13:30 : Lunch (non fourni)
13:30 – 14:30 : Huixia Judy Wang (Rice University) – Fusion Learning of Biological Age from Multiple Epigenetic Clocks
14:30 – 14:45 : Pause
14:45 – 15:45 : Tian Zheng (Columbia University) – Distribution-Informed Learning via Kernelized Stein Discrepancy Calibration
15:45 – 16:15 : Pause café
16:15 – 17:15 : Elvezio Ronchetti (University of Geneva) – Robust Bayesian Learning
Vendredi 15 mai 2026
9:00 – 9:30 : Accueil
9:30 – 10:30 : Table ronde – discussion
10:30 – 11:00 : Pause café
11:00 – 12:00 : Recap. Discussion Public/Conférenciers(ères)
12:00 – 12:15 : Mot de clôture

