L'intelligence artificielle est aujourd'hui de plus en plus utilisée pour prendre des décisions importantes qui ont un impact considérable sur la vie des gens, qu'il s'agisse d'améliorer les diagnostics médicaux, d'accroître l'efficacité de la recherche ou de faciliter la prise de décision fondée sur des données dans les domaines de l'économie et de l'administration. Cependant, l'IA ne peut pas « comprendre » comme un être humain pourquoi quelque chose se produit ou comment éviter des dommages en agissant différemment, par exemple dans le cas de la conduite d'un véhicule autonome ou de la robotique. « De nombreux systèmes réels sont aujourd'hui basés sur l'IA, mais leurs actions sont difficiles à interpréter, car on ne sait souvent pas exactement ce que les réseaux neuronaux calculent en arrière-plan. Les systèmes informatiques ne sont donc pas particulièrement fiables et sont difficiles à gérer lorsqu'ils doivent, par exemple, respecter des règles de sécurité », explique Sara Magliacane.
L'informaticienne souhaite donc mener des recherches à l'université de la Sarre sur la manière dont les concepts de causalité peuvent être utilisés pour rendre les modèles d'IA complexes plus sûrs et plus fiables. Elle s'intéresse notamment aux grands modèles linguistiques sur lesquels reposent ChatGPT et autres. Il s'agit également des modèles de langage visuel, dans lesquels l'IA est entraînée à relier entre elles des données textuelles et des données visuelles telles que des images et des vidéos. Il sera également question de l'« IA incarnée », qui permet par exemple de programmer des robots de soins de manière à ce qu'ils « comprennent » les informations provenant de leur environnement et puissent les traduire en actions propres.
Les domaines de recherche privilégiés par Sara Magliacane enrichissent à bien des égards l'environnement de recherche du Saarland Informatics Campus. Ils s'inscrivent notamment dans le cadre du programme de recherche « Modèles neuro-explicites pour le traitement du langage, la reconnaissance d'images et les décisions d'action », auquel participent, outre l'université de la Sarre, plusieurs instituts de recherche en informatique de la région et qui est financé jusqu'en 2028 par la Deutsche Forschungsgemeinschaft (Communauté allemande de recherche).
Brève biographie de Sara Magliacane
Sara Magliacane est professeure assistante à l'Amsterdam Machine Learning Lab de l'université d'Amsterdam depuis 2020. De 2019 à 2025, elle a également été chercheuse au prestigieux MIT-IBM Watson AI Lab à Cambridge/Massachusetts (États-Unis), où elle était responsable, en tant que « Principal Investigator » d'IBM, de plusieurs projets en collaboration avec la faculté du MIT. Née en Italie, elle a obtenu son master à l'université polytechnique de Milan (Italie) et son doctorat à l'université libre d'Amsterdam (Pays-Bas) en 2017. Elle a ensuite mené des recherches pendant deux ans au centre de recherche IBM Thomas J. Watson avant de rejoindre le laboratoire MIT-IBM Watson AI Lab et l'université d'Amsterdam.

