Portrait de Amal Zouaq

Amal Zouaq

Membre académique associé
Professeure titulaire, Polytechnique Montréal, Département de génie informatique et génie logiciel
Professeure agrégée, University of Ottawa, École de génie électrique et informatique

Biographie

Amal Zouaq est professeure titulaire à Polytechnique Montréal (GIGL). Elle est titulaire d’une Chaire FRQS (Double) en IA et santé numérique. Elle est également professeure IVADO, membre du consortium CLIQ-AI (Computational Linguistics in Québec) et professeure associée à l'Université d'Ottawa.

Ses intérêts de recherche comprennent l'intelligence artificielle, le traitement du langage naturel et le Web sémantique. Elle est directrice du laboratoire de recherche LAMA-WeST, spécialisé dans tous les aspects du traitement du langage naturel et de l'intelligence artificielle, avec un focus particulier sur les technologies du Web sémantique. Les bases de connaissances du Web sémantique peuvent représenter une source de connaissances à grande échelle pour les modèles d’intelligence artificielle et peuvent être utilisées, entre autres, pour garantir la validité des informations et l’explicabilité des modèles d’intelligence artificielle.

Les projets de recherche LAMA-WeST abordent les défis liés à l'apprentissage des représentations, aux interfaces en langage naturel et à la réponse aux questions, au raisonnement automatisé, à l'apprentissage et à l'alignement des bases de connaissances, à l'apprentissage d'ontologies, à l'ingénierie et à la modélisation des connaissances, ainsi qu'à l'extraction et à la génération d'information, pour n'en nommer que quelques-uns.

Professeure Zouaq est membre du comité de programme de nombreuses conférences et revues sur l'ingénierie des connaissances et des données, le traitement du langage naturel, l'exploration de données et le Web sémantique.

Étudiants actuels

Maîtrise recherche - Polytechnique Montréal
Maîtrise recherche - Polytechnique Montréal
Doctorat - Polytechnique Montréal
Doctorat - Polytechnique Montréal
Co-superviseur⋅e :
Doctorat - Polytechnique Montréal
Superviseur⋅e principal⋅e :

Publications

Assessing the Generalization Capabilities of Neural Machine Translation Models for SPARQL Query Generation
Samuel Reyd
SORBET: A Siamese Network for Ontology Embeddings Using a Distance-Based Regression Loss and BERT
Francis Gosselin
SORBETmatcher results for OAEI 2023.
Francis Gosselin
Local Structure Matters Most: Perturbation Study in NLU
Louis Clouâtre
Prasanna Parthasarathi
Recent research analyzing the sensitivity of natural language understanding models to word-order perturbations has shown that neural models … (voir plus)are surprisingly insensitive to the order of words.In this paper, we investigate this phenomenon by developing order-altering perturbations on the order of words, subwords, and characters to analyze their effect on neural models’ performance on language understanding tasks.We experiment with measuring the impact of perturbations to the local neighborhood of characters and global position of characters in the perturbed texts and observe that perturbation functions found in prior literature only affect the global ordering while the local ordering remains relatively unperturbed.We empirically show that neural models, invariant of their inductive biases, pretraining scheme, or the choice of tokenization, mostly rely on the local structure of text to build understanding and make limited use of the global structure.
Local Structure Matters Most: Perturbation Study in NLU
Louis Clouâtre
Prasanna Parthasarathi
Recent research analyzing the sensitivity of natural language understanding models to word-order perturbations has shown that neural models … (voir plus)are surprisingly insensitive to the order of words.In this paper, we investigate this phenomenon by developing order-altering perturbations on the order of words, subwords, and characters to analyze their effect on neural models’ performance on language understanding tasks.We experiment with measuring the impact of perturbations to the local neighborhood of characters and global position of characters in the perturbed texts and observe that perturbation functions found in prior literature only affect the global ordering while the local ordering remains relatively unperturbed.We empirically show that neural models, invariant of their inductive biases, pretraining scheme, or the choice of tokenization, mostly rely on the local structure of text to build understanding and make limited use of the global structure.