Le texte suivant a été traduit automatiquement de l'allemand et n'a pas été post-édité.
Tous les grands modèles linguistiques reposent actuellement sur ce qu’on appelle l’architecture Transformer. Celle-ci s’inspire de la capacité humaine à prêter attention aux informations pertinentes et à ignorer les détails moins importants. Michael Hahn, professeur de linguistique informatique à l'université de la Sarre, a pu prouver mathématiquement que les Transformers échouent dans les tâches où chaque partie de l'entrée est pertinente pour la sortie. Ainsi, si un seul caractère est modifié, cela peut altérer le résultat correct. Le chercheur en informatique peut ainsi acquérir des connaissances théoriques permettant de mieux prédire les forces et les faiblesses des grands modèles linguistiques.
Récemment, Michael Hahn a reçu 1,4 million d’euros de la Communauté allemande de recherche (DFG) pour ses travaux à la croisée de l’apprentissage automatique et de la linguistique informatique, afin de créer un groupe de recherche Emmy Noether (voir le communiqué de presse du 13/11/25). Le prix Heinz Maier-Leibnitz est considéré comme l’un des prix les plus prestigieux de l’espace germanophone pour les scientifiques en début de carrière. Il est doté de 200 000 euros, destinés à aider les lauréats à poursuivre leur carrière scientifique. Le prix porte le nom de Heinz Maier-Leibnitz, physicien lauréat du prix s et ancien président de la Communauté allemande de recherche (DFG), et est décerné depuis 1977.
Pour plus d'informations :
Site web personnel du professeur Michael Hahn : https://www.mhahn.info
Pour toute question, veuillez contacter :
Prof. Dr Michael Hahn
Chaire de langue, informatique et cognition
Tél. : 0681 302-4343
E-mail : mhahn(at)lst.uni-saarland.de

