L'IA peut-elle reproduire le traitement du son par le cerveau?

Sans que nous le réalisions, notre cerveau traite en continu des informations acoustiques et en déduit des informations sémantiques. Mais comment reproduire ce processus avec des modèles d’intelligence artificielle, ou plutôt «d’écoute artificielle»?

Mots clés: #acoustique, #artificielle, #IA, #intelligence

Lire plus

research

( Photo: CNRS - Bruno Giordano )

ENGINEERINGNET.BE - Pour la première fois, une équipe de recherche menée par Bruno Giordano, chercheur du CNRS à l’Institut de neurosciences de la Timone (CNRS/Aix-Marseille Université), en collaboration avec le professeur Elia Formisano de l’Université de Maastricht, vient de comparer les modèles d’écoute artificiels actuels pour déterminer lequel explique mieux la perception et la représentation cérébrale des sons.

Leurs travaux montrent que les modèles dits «réseaux de neurones profonds» surpassent de loin les autres, le meilleur d’entre eux étant des algorithmes développés par Google.

Les scientifiques ont pour cela comparé le traitement d’une banque de sons par les différents modèles au traitement de ces mêmes sons par le cerveau de patients au travers de l’Imagerie par résonance magnétique fonctionnelle (IRMf).

En proposant un cadre et une méthodologie pour comparer les modèles d’écoute artificielle, ces résultats publiés dans Nature Neuroscience  pourraient avoir des implications significatives pour le développement de nouvelles technologies de reconnaissance des sons inspirée du cerveau.