Bourses d’excellence à la maîtrise

Programme de bourses d’excellence IVADO à la maîtrise

Engagement d’IVADO pour l’équité, la diversité et l’inclusion et note aux candidat·e·s :
Afin que l’avancement des connaissances et des opportunités dans le domaine de la science des données bénéficie équitablement à tous les membres de la société, IVADO promeut des principes d’équité, de diversité et d’inclusion à travers l’ensemble de ses programmes. IVADO s’engage à offrir un processus de recrutement et un milieu de recherche qui soient inclusifs, non discriminatoires, ouverts et transparents.

En bref

Description

FAQ

Soumission

Résultats 2018

Résultats 2019

  • Domaine d’étude Le programme de financement IVADO des bourses d’excellence Msc soutient la recherche concernant les enjeux soulevés dans la demande de subvention Apogée : la science des données au sens large, incluant des recherches méthodologiques en science des données (apprentissage automatique, recherche opérationnelle, statistiques) et leurs applications dans plusieurs domaines dont les domaines prioritaires d’IVADO (la santé, le transport, la logistique, l’énergie, le commerce et la finance) ou tout autre domaine d’application (sociologie, physique, linguistique, génie, etc.).
  • Montant de la bourse et durée : 20k $ par année pour un maximum de six sessions ou deux ans
  • Date limite de présentation de la demande : 1er avril 2019
  • Date de notification prévue [mise à jour] : semaine du 28 mai 2019
  • Critères : voir l’onglet description
  • Soumission : voir l’onglet soumission
  • Renseignements : programmes-excellence@ivado.ca

Objectifs du programme

L’objectif du programme de bourses d’excellence est de soutenir les étudiants prometteurs dans leur formation en tant que futurs personnels hautement qualifiés (chercheurs, professeurs et professionnels) et plus généralement, en tant que futurs acteurs dans le secteur de la science des données, principalement dans les domaines d’excellence des membres IVADO : recherche opérationnelle, apprentissage automatique et sciences de la décision.

Admissibilité du/de la candidat

  • Pour les étudiant·e·s :
    • Avoir déjà reçu son diplôme de baccalauréat au moment de la demande ou prévoir de l’obtenir à la date de l’annonce des résultats. IVADO sera flexible pour les candidat·e·s justifiant les interruptions de carrière et les circonstances particulières, nous invitons à l’indiquer dans votre demande (p.ex. pour cause de maternité ou de maladie).
    • Prévoir s’inscrire à un programme à HEC Montréal, Polytechnique Montréal, l’Université de Montréal, l’Université McGill ou l’Université de l’Alberta.
    • Avoir une note moyenne minimale de première classe (3,7/4,3 ou 3,5/4,00) au cours des années d’études précédentes.
  • Pour le/la professeur·e présentant la demande (superviseur·e) :
    • Être un·e professeur·e de l’une des institutions suivantes : HEC Montréal, Polytechnique Montréal ou l’Université de Montréal;
    • Les professeur·e·s de l’Université de l’Alberta et de l’Université McGill peuvent être superviseur·e·s à condition qu’ils/elles soient également membre de plein droit de l’un des groupes de recherche d’IVADO (Mila, CIRRELT, GERAD, CERC Science des données, CRM, Tech3Lab, AMII);
    • Ne pas présenter plus d’une demande de candidature pour ce concours.
  • Pour le cosuperviseur·e, il n’y aucune contrainte.

Début de la bourse

Date de début du financement : avril 2019

Montant et conditions de versement

Les fonds seront transférés au Bureau de la recherche de l’université du/de la superviseur·e, et l’université paiera l’étudiant·e en fonction de ses propres règles. Pour les projets nécessitant une approbation éthique, les fonds ne seront pas débloqués tant que l’approbation ne sera pas obtenue. Certains projets pourraient avoir besoin d’accords spécifiques, par exemple en ce qui concerne la propriété intellectuelle.

Le financement pourra être réduit, retenu, retardé ou annulé lors de situations particulières qui seront explicitées dans la lettre d’octroi.

Processus du concours

Évaluation et critères

Les propositions seront passées en revue pour vérifier les exigences du programme (demande incomplète, trop longue, superviseur·e ou candidat·e non admissible, etc.) et l’adéquation apparente du projet de recherche soumis avec la science des données. Seules les demandes répondant aux exigences seront transmises au comité d’évaluation.

Le comité d’évaluation paritaire sera composé de professeur·e·s universitaires, et qui ne présenteront aucun·e candidat·e. En raison de la petite taille de la communauté dans certains domaines, il pourrait être difficile de trouver des examinateur·trice·s pertinent·e·s ne présentant aucun·e candidat·e. Face à une telle situation, un·e évaluateur·trice pourrait être appelé·e à évaluer un·e candidat·e bien qu’il/elle participe lui /elle-même au concours; un·e examinateur·trice externe pourrait également être appelé·e. Le comité veillera par tous les moyens à ce que l’évaluateur·trice n’influe pas le classement de sa propre application.

Le comité d’évaluation s’assurera de l’adéquation entre le projet de recherche et les orientations scientifiques d’IVADO, puis procédera au classement des candidat·e·s selon l’excellence de leur dossier, et l’adéquation du projet dans le cadre général d’IVADO, qui est de promouvoir la collaboration multidisciplinaire et la diversité dans la science des données.

En ce qui regarde l’excellence du dossier du/de la candidat·e, le comité s’intéressera plus spécifiquement :

  • à son aptitude à la recherche;
  • à l’étendue et à la portée de son expérience : expériences pluridisciplinaires, expérience professionnelle, activités parascolaires ou extra-universitaires, collaborations, services à la communauté scientifique, contribution à la société, etc.
  • et à l’adéquation de l’expérience avec le projet proposé.

Finalisation du dossier et engagements de l’étudiant·e

L’étudiant·e s’engage notamment à :

  • Être physiquement présent·e à l’université de son/sa superviseur·e;
  • Participer à la communauté et aux activités IVADO, incluant par exemple:
    • les présentations sur leur propre recherche;
    • les activités de formation ou de diffusion des connaissances;
    • les consultations;
    • le soutien lors de différentes activités qui font normalement partie d’une carrière de recherche (mentorat, notamment dans le cadre du projet SEUR, participation à des évaluations, coorganisation d’événements, etc.);
  • Reconnaître qu’il/elle fait partie d’une communauté universitaire, à laquelle il/elle contribuera;
  • Se soumettre à la politique des trois organisations sur le libre accès aux publications. Il/elle est encouragé·e à publier ses productions de recherche (publications, enregistrement oral des présentations, code source, bases de données, etc.) dans le respect des règles de propriété intellectuelle applicables dans son cas particulier;
  • Reconnaître le soutien d’IVADO et d’Apogée / CFREF ou du FRQ dans la diffusion des résultats de recherche et plus généralement dans les diverses activités auxquelles l’étudiant·e participera.

Le/la superviseur·e s’engage notamment à :

  • Fournir un environnement de travail qui convient à l’achèvement du projet;
  • Superviser son étudiant·e.

FAQ

  • Y a-t-il un format particulier pour la préparation du CV?
    • Non, il n’y a pas de format particulier pour le CV. Notez toutefois que chaque pièce du dossier doit aider l’évaluateur à se faire une opinion sur le dossier. Un CV trop long ou confus pourrait rendre plus difficile l’évaluation.
  • Y a-t-il des règles spécifiques pour les lettres de recommandation?
    • Il n’y a pas de règle spécifique pour les lettres de recommandation.
  • Est-ce que les candidats peuvent-ils eux-mêmes envoyer les lettres de recommandation ?
    • Non, les lettres de recommandation doivent être envoyées par leur auteur·e sur la plateforme de candidature.
  • Est-ce que je peux envoyer mes relevés de notes non officiels?
    • Non, vous devez nous numériser et télécharger sur la plateforme joindre tous vos relevés de notes officiels incluant tous vos résultats en cours.
  • Est-ce que la bourse est cumulable?
    • La bourse n’est pas cumulable avec d’autres bourses issues de financements CRSNG, CRSH, IRSC ou IVADO. Nous n’encourageons pas le cumul de bourses issues d’autres sources de financement, mais nous ne l’interdisons pas non plus, car il peut se justifier dans certains cas.
  • J’ai déjà commencé ma maîtrise (mon doctorat), puis-je candidater pour une bourse à la maîtrise (au doctorat)?
    • Oui. Dans le cadre de la maîtrise, si vous l’avez déjà commencée, vous devez fournir vos notes de bacc. et les notes déjà obtenues à la Maîtrise. Dans le cas du doctorat, si vous l’avez déjà commencée, vous devez fournir vos notes de maîtrise et les notes déjà obtenues au doctorat.
  • Mes notes de l’année dernière me rendent éligible, mais mes notes plus récentes ne sont pas assez bonnes (ou l’inverse). Suis-je éligible?
    • Non, mais si vous pouvez justifier une baisse de vos notes (certificat médical par exemple), nous pourrions accepter votre dossier.
  • Quand puis-je commencer à utiliser ma bourse au plus tard?
    • Dans les 6 mois qui suivent l’annonce des résultats.
  • Est-ce que les étudiants dans des maîtrises professionnelles ou DESS sont éligibles?
    • Pas dans le cadre de ce concours qui privilégie la recherche.

L’ensemble du processus de soumission de dossier se passe à travers cette plateforme dédiée: https://ivado.smapply.io/

Le dossier comprendra :

    • un questionnaire à remplir sur la plateforme DONT une description vulgarisée du projet (longueur d’une page maximum);
    • le C.V. de l’étudiant·e, dans un format libre à télécharger
    • les relevés de notes officiels de l’étudiant·e (préciser l’échelle de notation pour les universités non canadiennes) à télécharger;
    • Deux lettres de recommandation (incluant une du/de la superviseur·e (en cours ou potentiel(le)) téléchargées par leur auteur·e·s sur la plateforme.

Larry Dong (McGill University, Erica Moodie)

  • When making decisions, medical professionals often rely on past experience and their own judgment. However, it is often the case that an individual decision-makerfaces a situation that is unfamiliar to him or her. An adaptive treatment strategy (ATS) can help such biomedical experts in their decision-making, as they are a statistical representation of a decision algorithm for a given treatment that optimizes patient outcomes. ATSs are estimated with large amounts of data, but an issue that may occur is that such sources of data may be subject to unmeasured confounding, whereby important variables needed to ensure the causal inference are missing. The idea behind this research project is to develop a sensitivity analysis to better understand and to quantify the impact of unmeasured confounding on decision rules in ATSs.

Jonathan Pilault (Polytechnique Montréal, Christopher Pal)

  • Language understanding and generation is a unique capacity of humans. Automatic summarization is an important task in Natural (human) Language Processing. This task consists in reducing the size of discourse while preserving information content. Abstractive summarization sets itself apart from other types of summarization since it most closely relates to how humans would summarize a book, a movie, an article or a conversation. From a research standpoint, automatic abstractive summarization is interesting since it requires models to both understand and generate human language. In the past year, we have seen research that have improved the ability of Neural Networks to choose the most important parts of discourse while beginning to address key pain points (e.g. repeating sentences, nonsensical formulations) during summary text generation. Recent techniques in Computer Vision image generation tasks have shown that image quality can be further improved using Generative Adversarial Networks (GAN). Our intuition is that the same is true for a Natural Language Processing task. We propose to incorporate newest GAN architectures into some of the most novel abstractive summarization models to validate our hypothesis. The objective is to create a state-of-the-art summarization system that most closely mimics human summarizers. This outcome will also bring us closer to understand GANs analytically.

Alice Wu (Polytechnique Montréal, François Soumis)

  • Combiner l’A.I. et la R.O. pour optimiser les blocs mensuels d’équipages aérien.Nos travaux récents portent sur le développement de deux nouveaux algorithmes Improved Primal Simplex (IPS) et Integral Simplex Using Decomposition (ISUD) qui profitent de l’information a priori sur les solutions attendues pour réduire le nombre de variables et de contraintes à traiter simultanément. Actuellement cette information est donnée par des règles fournies par les planificateurs. L’objectif de recherche sera de développer un système utilisant l’intelligence artificielle (IA) pour estimer la probabilité que la variable liant deux rotations fasse partie de la solution d’un problème de blocs mensuels d’équipages aériens. L’apprentissage se fera sur les données historiques de plusieurs mois, de plusieurs types d’avions et de plusieurs compagnies. L’estimation des probabilités doit se faire à partir des caractéristiques des rotations et non à partir de leurs noms. Une rotation ne revient pas d’une compagnie à l’autre ni d’un mois à l’autre. Il faudra identifier les caractéristiques pertinentes. Il faudra de la recherche sur l’apprentissage pour profiter des contraintes du problème. Il y a des contraintes entre le personnel terminant des rotations et celui en commençant par la suite. La validation de l’apprentissage se fera en alimentant les optimiseurs avec l’information estimée et en observant la qualité des solutions obtenues et les temps de calcul. Il y aura de la recherche à faire dans les optimiseurs pour exploiter au mieux cette nouvelle information.

Tiphaine Bonniot de Ruisselet (Polytechnique Montréal, Dominique Orban)

  • Accélération de méthodes d’optimisation pour les problèmes volumineux par évaluation inexact

Nous nous intéressons aux problèmes d’optimisation continue, non convexe et sans contraintes dans lesquels l’évaluation des valeurs de l’objectif et de son gradient sont obtenues à l’issue d’un processus coûteux. Nous supposons que l’on peut obtenir à moindre coûts des approximations de l’objectif et de son gradient à un niveau de précision souhaité. Nous regarderons l’impact de ces hypothèses sur la convergence et la complexité de méthodes d’optimisation classiques ainsi que les économies pouvant être effectuées sur le temps de calcul et la consommation énergétique. Cette étude est motivée, entre autre, par les problèmes d’inversion sismique dont la taille peut avoisiner les centaines de millions de variables et dont la fonction et le gradient peuvent être approximés par la résolution d’un problème aux moindres carrés linéaires. L’économie de temps de calcul et d’énergie est un enjeu majeur de l’ère de l’intelligence artificielle et de l’exploration des données volumineuses et cette approche est nouvelle est prometteuse en terme de retombées économiques et environnementales.

Stephanie Cairns (McGill University, Adam Oberman)

  • Oberman Mathematical approaches to adversarial robustness and confidence in DNN

Deep convolutional neural networks are highly effective at image classification tasks, achieving higher accuracy than conventional machine learning methods but lacking the performance guarantees associated with these methods. Without additional performance guarantees, for example error bounds, they cannot be safely used in applications where errors can be costly. There is a consensus amongst researchers that greater interpretability and robustness are needed. Robustness can be to differences in the data set where the models can be deployed, or even robustness to adversarial samples: perturbations of the data designed deliberately by an adversary to lead to a misclassification.

In this project, we will study reliability in two contexts: (i) developing improved confidence in the prediction of the neural network, using modified losses to improve confidence measures (ii) modified losses which result in better robustness to adversarial examples. The overall goal of the project is to lead to more reliable deep learning models.

Enora Georgeault (HEC Montréal, Marie-Ève Rancourt)

  • Modèles prédictifs de l’allocation des dons de la Croix-Rouge canadienne en réponse aux feux de forêt

Au Canada, les inondations et les feux de forêt sont les catastrophes naturelles qui provoquent le plus de dégâts. Les efforts de la Croix-Rouge canadienne (CRC) visant à atténuer les impacts des feux de forêt dépendent fortement de la capacité des organisations à planifier, à l’avance, les opérations logistiques de secours. Le premier objectif du projet est l’élaboration de modèles permettant de prédire l’allocation des dons en argent aux bénéficiaires, selon les caractéristiques socio-démographiques de la région et du bénéficiaire ainsi que selon les caractéristiques des feux (sévérité et type). Le second objectif sera de comprendre les facteurs qui ont un impact significatif sur les besoins de la CRC lors d’une réponse à un feu de forêt, afin de faciliter la planification des opérations logistiques et les appels de financement.

Bhargav Kanuparthi (Université de Montréal, Yoshua Bengio)

  • h detach Modifying the LSTM Gradient Towards Better Optimization

Recurrent neural networks are known for their notorious exploding and vanishing gradient problem (EVGP). This problem becomes more evident in tasks where the information needed to correctly solve them exist over long time scales, because EVGP prevents important gradient components from being back-propagated adequately over a large number of steps. We introduce a simple stochastic algorithm (\textit{h}-detach) that is specific to LSTM optimization and targeted towards addressing this problem. Specifically, we show that when the LSTM weights are large, the gradient components through the linear path (cell state) in the LSTM computational graph get suppressed. Based on the hypothesis that these components carry information about long term dependencies (which we show empirically), their suppression can prevent LSTMs from capturing them. Our algorithm\footnote{Our code is available at https://github.com/bhargav104/h-detach.} prevents gradients flowing through this path from getting suppressed, thus allowing the LSTM to capture such dependencies better. We show significant improvements over vanilla LSTM gradient based training in terms of convergence speed, robustness to seed and learning rate, and generalization using our modification of LSTM gradient on various benchmark datasets.

Vincent Labonté (Polytechnique Montréal, Michel Gagnon)

  • Extraction de connaissances en français basée sur une traduction des textes en anglais combinée à l’utilisation d’outils développés pour l’anglais

Plusieurs institutions gouvernementales rendent disponible sur leurs sites web un très grand volume de documents qui ne sont écrits que dans la langue officielle du pays. Or, de plus en plus ces institutions désirent transformer ces documents en une base de connaissances, déployée en un ensemble de données ouvertes intégrées au Web sémantique. C’est le cas notamment du ministère de la Culture et des Communications du Québec, qui met à la disposition du public un répertoire du patrimoine culturel du Québec, très riche en informations textuelles, mais qu’il est malheureusement difficile d’intégrer aux données des autres acteurs culturels du Québec, ou de lier à toutes les connaissances patrimoniales qui sont déjà présentes dans le réseau de données ouvertes Linked Open Data (LOD).

Plusieurs travaux ont déjà été proposés pour soutenir l’effort d’extraction de connaissances à partir de textes : des annotateurs sémantiques, qui identifient dans un document les entités qui y sont citées (personnes, organisations, etc.) et les lient à leur représentation dans une base de connaissances du LOD; des extracteurs de relations, capables d’extraire du texte des relations entre deux entités (par exemple, « X est l’auteur du roman Y »); des extracteurs d’événements et d’informations temporelles. Dans la très grande majorité des cas, ces outils ont été développés pour l’anglais, ou offrent de piètres performances lorsqu’appliqués au français.

Nous proposons donc d’explorer une approche qui consiste à produire, à partir d’un corpus de documents en français, une version équivalente traduite sur laquelle seront appliqués les outils déjà existants pour l’anglais (le service Syntaxnet de Google, par exemple). Cela implique qu’il faudra tenir compte des erreurs et inexactitudes qui résulteront de l’étape de traduction. Pour y arriver, des techniques de paraphrase et de simplification de texte seront explorées, l’hypothèse ici étant que des phrases simples sont plus faciles à traduire et que cette simplification n’aura pas d’impact majeur sur la résolution de la tâche si la sémantique est préservée lors de cette simplification. On notera aussi que certains aspects de la langue, comme l’anaphore, perturbent la traduction (le module de traduction aura du mal à choisir entre les pronoms « it » et « he » pour traduire le pronom « il »). Il faudra dans ces cas mesurer précisément leur impact et proposer des solutions de contournement.

En bref, le projet proposé permettra de déterminer dans quelle mesure les services de traduction actuellement disponibles préservent suffisamment le sens du texte pour pouvoir exploiter des outils développés pour une autre langue. L’hypothèse que nous désirons valider est que leurs lacunes peuvent être comblées par certains prétraitements du texte original, et que ces prétraitements peuvent être implémentée à faibles coûts (en temps et en ressources).

Thomas MacDougall (Université de Montréal, Sébastien Lemieux)

  • Use of Deep Learning Approaches in the Activity Prediction and Design of Therapeutic Molecules

The proposed research is to employ Deep Learning and Neural Networks, which are both fields of Machine Learning, to more accurately predict the effectiveness, or “activity”, of potential therapeutic molecules (potential drugs). We are primarily concerned with predicting a given molecule’s ability to inhibit the growth of primary patient cancer cells (cells taken directly from a patient). The Leucegene project at the Institut de Recherche en Immunologie et Cancérologie (IRIC) has tested the activity of a large number of compounds in inhibiting the growth of cancer cells from patients afflicted with acute myeloid leukemia. The proposed research will use this activity data, along with several other data sources, to build an algorithm that can better predict the effectiveness that a molecule will have in inhibiting cancer cell growth. This means that before a molecule is even synthesized in a chemistry lab, a good estimation of its effectiveness as a therapeutic compound can be made, almost instantly. The first approach is to use Neural Networks and “representation learning”, in which features of the molecules that are important to improving activity are identified automatically by the algorithm. This will be done by representing the molecules as graphs and networks. Another approach that will be taken is the use of “multi-task learning” in which the prediction accuracy of an algorithm can be improved if the same algorithm is trained for multiple tasks on multiple datasets. The « multiple tasks » that will be focused on are multiple, but related, drug targets that are essential to cancer cell growth. Moving beyond activity prediction alone, these machine learning architectures will be expanded to design new chemical structures for potential drug molecules, based on information that is learned from drug molecules with known activities. These approaches have the capacity to improve the predictions about whether molecules will make effective drugs, and to design new molecules that have even better effectiveness than known drugs. Research progress in this area will lower the cost, both in money and time, of the drug development process.

Bhairav Mehta (Université de Montréal, Liam Paull)

  • Attacking the Reality Gap in Robotic Reinforcement Learning

As Reinforcement Learning (RL) becomes an increasingly popular avenue of research, one area that stands to be revolutionized is robotics. However, one prominent downside of applying RL in robotics scenarios is the amount of experience today’s RL algorithms require to learn. Since these data-intensive policies cannot be learned on real robots due to time constraints, researchers turn to fast, approximate simulators. Trading off accuracy for speed can cause problems at test time, and policies that fail to transfer to the real world fall prey to the reality gap: the differences between training simulation and the real-world robot. Our project focuses on theoretically analyzing this issue, and provides practical algorithms to improve safety and robustness when transferring robotic policies out of simulation. We propose algorithms that use expert-collected robot data to learn a simulator, allowing for better modeling of the testing distribution and minimizing the reality gap upon transfer. In addition, we study the transfer problem using analysis tools from dynamical systems and continual learning research, looking for indicators in neural network dynamics and optimization that signal when the reality gap is likely to pose an issue. Lastly, we use the analysis to synthesize an algorithm which optimizes for the metrics that signal good, “transferable” policies, allowing safer and more robust sim-to-real transfer.

Timothy Nest (Université de Montréal, Karim Jerbi)

  • Leveraging Machine Learning and Magnetoencephalography for the Study of Normal and atypical states of Consciousness

Understanding the neural processes and network dynamics underlying conscious perception is a complex yet important challenge that lies at the intersection between cognitive brain imaging, mental health, and data science. Magnetoencephalography (MEG) is a brain imaging technique that has many qualities favorable to investigating conscious perception due to its high temporal resolution and high signal to noise ratio. However MEG analyses across space, time and frequency is challenging due to the extreme high-dimensionality of variables of interest, and susceptibility to overfitting. Furthermore, high-computational complexity limits the ease with which investigators might approach some cross-frequency coupling metrics believed to be important for conscious perception and integration, across the whole brain. To mitigate such challenges, researchers frequently rely on a variety of multivariate feature extraction and compression algorithms. However, these techniques still require substantial tuning, and are limited in their application to the kinds of high-order tensor structures encountered in MEG. New methods for the study of conscious perception with MEG are thus needed.

In this project, we will leverage very recent advances in computer science and machine learning that extend algorithms currently used in neuroimaging research, to extreme high-dimensional spaces. Taken together, the proposed research will apply state-of-the-art techniques in machine-learning and electrophysiological signal processing to overcome current obstacles in the study of the brain processes that mediate conscious perception. This work will constitute an important contribution to neuroimaging methodology, neuropharmacology, and psychiatry. Beyond expanding our understanding of healthy cognition, this research may ultimately provide novel paths to the study of psychiatric disorders that involve altered conscious perception, such as Schizophrenia.

Jacinthe Pilette (Université de Montréal, Jean-François Arguin)

  • Recherche de nouvelle physique au Grand collisionneur de hadrons (LHC) à l’aide de l’apprentissage profond

Le Grand collisionneur de hadrons (LHC) se situe au cœur de la recherche fondamentale en physique. Avec sa circonférence de 27 km, celui-ci constitue le plus grand et plus puissant accélérateur de particules au monde. Ceci en fait le meilleur outil afin d’étudier le domaine de l’infiniment petit. C’est d’ailleurs au LHC que le boson de Higgs fut découvert, menant à l’obtention du prix Nobel de physique en 2013.

Cependant, le modèle standard, référence qui dicte les lois régissant les particules et leurs interactions, possède plusieurs lacunes que les physiciens et physiciennes n’ont toujours pas réussi à combler. Plusieurs théories furent élaborées, mais aucune d’entre elles ne fut observée au LHC. Face à ce défi, la communauté de physique des particules devra utiliser une nouvelle approche.

Le groupe ATLAS de l’Université de Montréal s’est ainsi tourné vers l’intelligence artificielle. Le projet élaboré par cette collaboration, et l’objectif principal de cette recherche est de développer un algorithme d’apprentissage profond qui permettrait de détecter des anomalies dans les données. L’algorithme développé sera ensuite utilisé sur les données du détecteur ATLAS dans l’espoir de découvrir des signaux de nouvelle physique et d’améliorer notre compréhension de l’univers.

Léa Ricard (Université de Montréal, Emma Frejinger)

  • Modélisation de la probabilité d’acceptation d’une route dans un contexte de covoiturage

Le covoiturage touche aux algorithmes fréquemment étudiés de tournées de véhicule, de ramassage et de livraison avec fenêtres de temps et de transport à la demande dynamique. Toutefois, très peu d’études s’attardent au contexte où les conducteurs et les passagers peuvent rejeter une proposition de route. Alors que le rejet d’une route proposée est rare lorsque les conducteurs sont des professionnels, c’est plutôt la norme dans un contexte de covoiturage. La modélisation de la probabilité d’acceptation d’une route se pose alors comme un problème central dans le développement d’une application mobile de covoiturage de qualité.

Le modèle d’apprentissage automatique développé devra estimer, selon les caractéristiques de l’utilisateur (notamment s’il est conducteur ou passager) et les routes alternatives proposées, la probabilité d’acceptation d’une route. De prime abord, cette modélisation pose deux défis :

(1) La façon dont les acceptations et les refus sont collectés pose un problème de type logged bandit. À ce titre, plusieurs propositions peuvent être offertes en même temps et un utilisateur peut en accepter plusieurs. De plus, les offres peuvent être activement refusées, simplement ignorées ou acceptées. Puisque les offres sont affichées séquentiellement, celles qui apparaissent en premier ont plus de chance d’attirer l’attention de l’utilisateur. L’ordre des propositions a donc probablement une influence sur la probabilité d’acceptation.
(2) Le comportement des nouveaux utilisateurs, pour qui très peu d’information est disponible, devra être inféré à partir des clients similaires de longue date. Ceci est en soi un problème difficile.

Alexandre Riviello (Polytechnique Montréal, Jean-Pierre David)

  • Hardware Acceleration of Speech Recognition Algorithms

Speech recognition has become prevalent in our lives in recent years. Personal assistants, such as Amazon’s Alexa or Apple’s Siri are such examples. With the rise of deep learning, speech recognition algorithms gained a lot of precision. This is due, mostly, to the use of neural networks. These complex algorithms, used in the context of a classification task, can distinguish between different characters, phonemes or words. However, they require lots of computations, limiting their use in power-constrained devices, such as smartphones. In my research, I will attempt to find hardware-friendly implementations of these networks. Deep learning algorithms are usually written in high-level languages using frameworks such as Torch or Tensorflow. To generate hardware-friendly representations, models will be adapted, using these frameworks. For example, recent findings have shown that basic networks can use weights and activations represented over 1 or 2 bits and retain their accuracy. The reduction of the precision of the network parameters is called quantization. This concept will be one of the many ways used to simplify the networks. Another aspect of this research will be to revisit methods of representing voice features. Traditionally, spoken utterances were converted to Mel Frequency Cepstrum Coefficients (MFCCs) which are essentially values representing signal power over a frequency axis. These coefficients are calculated roughly every 10 ms and are then sent to the model network. A representation of lower precision can greatly reduce the computational costs of the network. The overall goal of the research will be to improve the calculation speed and to diminish the power consumption of speech recognition algorithms.