ENGINEERINGNET.BE - Alors que l’intelligence artificielle (IA) transforme les industries, il n’a jamais été aussi important de comprendre le processus d’apprentissage de ces cerveaux numériques.
Deux chercheurs de l’EPFL, Antonio Sclocchi et Matthieu Wyart, ont aujourd’hui clarifié ce processus, en étudiant une méthode répandue appelée «descente de gradient stochastique» (SGD).
Le SGD est l’un des algorithmes qui se trouvent au cœur du processus d’apprentissage d’une IA. Il aide les IA à évoluer dans un environnement complexe d’informations pour trouver progressivement les meilleures solutions possibles.
L’étude de l’EPFL révèle comment différents paramètres du SGD peuvent influer considérablement sur l’efficacité et la qualité de l’apprentissage de l’IA.
En particulier, les chercheurs ont étudié dans quelle mesure le changement de deux variables essentielles amène des résultats d’apprentissage très différents.
Ces deux variables sont la taille des échantillons de données à partir desquels l’IA apprend en une seule fois (ce que l’on appelle la «taille du lot») et l’ampleur de ses étapes d’apprentissage (autrement dit le «taux d’apprentissage»).
Sur cette base, les chercheurs ont identifié trois scénarios distincts («régimes»), chacun présentant des caractéristiques uniques qui ont une influence différente sur le processus d’apprentissage de l’IA.
L’étude permet de mieux comprendre les compromis liés à l’entraînement des modèles d’IA. Elle souligne également l’importance d’adapter le processus d’apprentissage aux besoins spécifiques de chaque application. (Auteur: Nik Papageorgiou - Source: EPFL)