ENGINEERINGNET.BE - Ouvrir la ‘boîte noire’ des modèles de l’intelligence artificielle (IA) pour comprendre comment les résultats sont générés et si les prévisions sont fiables. C’est ce que propose «l’intelligence artificielle explicable».
Cette branche de l’IA s’est récemment distinguée dans les tâches de vision par ordinateur telles que la reconnaissance d'images, où il est essentiel de comprendre les décisions du modèle.
Forte de son succès, elle s’étend aujourd’hui à divers domaines où la confiance et la transparence sont particulièrement importantes, à l’exemple de la santé, des transports et de la finance.
A l’EPFL (Lausanne), une équipe du Laboratoire d'ingénierie éolienne et d'énergie renouvelable (WiRE) vient d’en appliquer la méthode pour ouvrir la boîte noire des modèles d’IA de leur domaine.
Leur conclusion est que l’IA explicable améliore l'interprétabilité des prévisions de l'énergie éolienne, car elle donne accès à la chaîne de décisions prises par un modèle d’IA classique. Elle peut même aider à identifier les variables les plus importantes à considérer. Leurs résultats ont récemment paru dans la revue Applied Energy.
Selon Jiannong Fang du Laboratoire d'ingénierie éolienne et d'énergie renouvelable, également co-auteur de l’étude, ces résultats pourraient contribuer à rendre l'énergie éolienne plus compétitive.
Jiannong Fang: «Les opérateurs de réseaux électriques se sentiront à l'aise avec l'énergie éolienne s'ils comprennent sur quoi reposent leurs modèles de prévision». «Avec l'approche d’IA explicable, les modèles peuvent être analysés et améliorés jour après jour, ce qui permet de générer des prévisions plus fiables sur les fluctuations journalières de l'énergie éolienne.» (Auteur: Sandrine Perroud - Source: EPFL)