Kyle Roth
Étudiant Doctorat, Université de Montréal
J’étudie comment les grands modèles de langage (LLMs) stockent et interagissent avec les connaissances. Je suis supervisé par Bang Liu. D’autres intérêts de recherche comprennent les « neural scaling laws », la généralisation sur le pire groupe, l’apprentissage humain du langage, et la philosophie de l’éthique et de l’intelligence.