ENGINEERINGNET.BE - Chaque jour, nous reconnaissons sans effort des amis dans une foule ou identifions des formes familières, même si elles sont partiellement cachées.
Notre cerveau assemble des fragments pour en faire des objets entiers, remplissant les blancs pour donner un sens à un monde souvent chaotique.
Cette capacité est appelée «intégration des contours». Même les systèmes d’IA les plus intelligents ont encore du mal à effectuer cette tâche.
Malgré les réalisations remarquables de l’intelligence artificielle dans la reconnaissance d’images, les IA peinent encore à généraliser à partir d’informations visuelles incomplètes ou fragmentées.
Lorsque les objets sont partiellement cachés, effacés ou fragmentés, la plupart des modèles d’IA hésitent, classent incorrectement ou abandonnent.
Cela peut être un grave problème dans la vie réelle, compte tenu de notre dépendance croissante à l’IA pour des applications, telles que les voitures autonomes, les prothèses et la robotique.Anchor
L'équipe du NeuroAI Lab de l’EPFL, dirigée par Martin Schrimpf, a entrepris de comparer systématiquement la manière dont les personnes et l’IA gèrent les puzzles visuels.
Ben Lonnqvist, étudiant diplômé de l’EDNE et principal auteur de l’étude, a collaboré avec le Laboratoire de psychophysique du professeur Michael Herzog pour développer une série de tests de reconnaissance dans lesquels des êtres humains et plus de 1000 réseaux neuronaux artificiels devaient identifier des objets dont les contours étaient manquants ou fragmentés.
Leurs résultats montrent qu’en matière d’intégration des contours, les êtres humains surpassent systématiquement l’IA de pointe, et révèlent pourquoi. (Auteur: Nik Papageorgiou - Source: EPFL)
Lire plus >>