ENGINEERINGNET.BE - Imaginez des modèles capables de prendre et d’exécuter des décisions de manière autonome, de manipuler des objets et de collaborer. Mais avant d’en arriver là, un obstacle de taille reste à franchir : le hardware doit pouvoir suivre.
Qu’est-ce que l’IA agentique et physique ?
L’IA agentique fait référence à des agents logiciels qui adoptent un comportement proactif et peuvent entreprendre des actions ciblées dans des environnements numériques. Pensez à une IA capable de gérer votre boîte de réception, de rédiger des réponses personnalisées à vos e-mails, de passer des commandes ou encore de rédiger ou modifier des contrats, comme le ferait un collaborateur.
L’IA physique désigne les systèmes qui interagissent avec le monde physique. Voyez les robots d’entrepôt qui collaborent avec d’autres robots ou des humains, les assistants domestiques qui nettoient, cuisinent et accomplissent des tâches ménagères, ou encore les véhicules autonomes. Ces systèmes ‘perçoivent’ grâce à une multitude de capteurs et interagissent avec le monde physique à une vitesse fulgurante.
Pourquoi parle-t-on d’IA next-gen?
Les grands modèles de langage génèrent du contenu à partir d’un prompt, et surtout d’une quantité de données : un modèle très complet de notre langage, alimenté par la quasi-totalité d’internet. Il appartient à l’utilisateur d’utiliser ou non le résultat produit.
La prochaine génération IA vise à automatiser des flux de travail complexes et réalistes. Les applications seront visibles dans des secteurs comme la logistique, la santé, l’agriculture et la construction, où la présence physique et la prise de décision en temps réel sont cruciales.
Pour y parvenir, les systèmes n’utilisent pas des grands modèles de langage (Large Language Models) mais des grands modèles comportementaux (Large Behavior Models). Leur saisie peut consister en un prompt textuel, mais contrairement aux grands modèles de langage, le résultat consiste en des actions. À y regarder de plus près, on pourrait encore considérer cela comme du ‘texte’, car les actions sont pilotées par du code, par exemple pour déplacer une articulation de robot de la position x à la position y.
La différence fondamentale réside cependant dans le fait que l’exécution correcte d’une telle action nécessite un modèle actualisé de l’environnement physique. Les données physiques ne peuvent pas être simplement extraites d’internet. La génération de données physiques commence par un jumeau numérique d’un espace, comme une usine. Des capteurs et des machines autonomes, telles que des robots, sont ajoutés à l’espace virtuel. Des simulations reproduisant des scénarios réalistes ont lieu, et les capteurs enregistrent les interactions. Plus les données collectées dans le monde réel sont précises, plus les scénarios simulés reflètent la réalité.

Puissance de calcul
Les humains sont efficaces pour accomplir des tâches dans le monde physique et manipuler des objets. En essayant, en échouant et en réessayant, les enfants apprennent ‘par l’expérience’. Chaque tentative leur apporte quelque chose de nouveau. Les enfants apprennent aussi par l’observation, en imitant les adultes.
Au fil du temps, ils développent dans leur esprit un ‘modèle du monde’ qui les aide à prédire le résultat d’une action spécifique et à planifier les tâches successives. Cependant, il faut des années pour développer un tel modèle et maîtriser les compétences nécessaires à la planification et à l’exécution de tâches typiquement humaines.
Nous ne permettons pas aux robots de consacrer autant de temps à l’apprentissage, ni de commettre autant d’erreurs (coûteuses). Par conséquent, ils s’appuient souvent sur des environnements de simulation comme NVIDIA's Omniverse pour concevoir leur ‘modèle du monde’. Cela génère une charge de calcul énorme, tant pendant l’apprentissage que lors de l’exécution.
Les défis du hardware
Quels sont les défis hardware à relever pour permettre l’émergence de la prochaine vague de l’IA?
- Mémoire: pour stocker les paramètres de modèles mondiaux volumineux.
- Réseaux fiables et déterministes: pour garantir une connectivité continue et une coordination fluide entre les agents, les appareils et les systèmes cloud.
- Fusion avancée des données capteurs: pour une prise de décision sans retard et une conscience situationnelle en temps réel.
- Puces IA: pour exécuter les charges de calcul de manière économe en énergie, pour une action sûre et avec une faible latence, en particulier dans les environnements professionnels ou sensibles à la confidentialité.
- Technologie de batterie: cruciale pour les plateformes mobiles et l’implémentation continue. Une IA consciente du hardware peut aider à équilibrer les performances et la consommation d’énergie.
- Actionneurs: disposer de systèmes d’actionneurs compatibles et d’algorithmes de contrôle adaptatifs capables de trouver un équilibre entre la puissance et la sécurité. Cela permet une manipulation humanoïde à la fois sûre et rapide. Pour y parvenir, le hardware et les algorithmes de contrôle doivent être conçus conjointement pour réagir intelligemment aux retours sensoriels.
Puces IA optimisées: une question de flexibilité
L’évolution vers des ‘modèles IA raisonnants’ rend la charge de travail de ces modèles de plus en plus hétérogène. Ils nécessitent une chaîne de différents modèles, chaque modèle répondant à un objectif spécifique et interagissant avec les autres : un système IA capable de combiner de grands modèles de langage, des modèles de perception et des modèles d’action. Certains modèles nécessitent des CPU, d’autres des GPU, tandis que certains n’ont pas encore de processeur adapté à leurs besoins.
Il est clair qu’une approche classique de type ‘one size fits all’ reposant uniquement sur une puissance de calcul accrue ne suffira pas. La difficulté réside d’autant plus dans le fait que les charges de travail de l’IA peuvent changer d’un jour à l’autre, sous l’effet d’un nouvel algorithme.
Les concepteurs d’algorithmes réagissent rapidement, mais les problèmes hardware évoqués plus haut sont chronophages : il faut souvent plusieurs années pour apporter des petites améliorations. Par ailleurs, l’optimisation hardware devient plus complexe et coûteuse. En d’autres termes, l’industrie technologique est confrontée à un problème de synchronisation.
Développer une puce de calcul spécifique pour chaque modèle – comme nous le faisons pour l’IA générative – ne permet pas de suivre le rythme de l’innovation dans les modèles IA. Et les lois de l’économie ne jouent pas en faveur du hardware : le risque inhérent est énorme, car la communauté software IA pourrait avoir changé de cap avant même que le hardware IA ne soit prêt. Il est difficile de prédire quelles seront les prochaines exigences hardware dans le monde évolutif de l’IA. À long terme, la flexibilité est essentielle. Le hardware doit devenir presque aussi ‘codable’ que le software. Un même ensemble de composants hardware devrait pouvoir être reconfigurable. Cela signifie qu’il ne serait plus nécessaire d’avoir trois ordinateurs pour exécuter une série d’algorithmes, mais d’un seul, agile, où le software pourrait définir la configuration des puces. C’est une approche très différente de l’innovation hardware actuelle.
Imaginez: au lieu d’un processus monolithique, de pointe et extrêmement coûteux, vous disposeriez de plusieurs composants plus abordables, intégrés en 3D, empilés pour rapprocher les puces à mémoire et les puces de calcul, et réduire ainsi la perte d’énergie liée au trafic de données. En combinant intelligemment les éléments, il devient possible de les adapter rapidement aux dernières exigences algorithmiques.
Un avantage supplémentaire: grâce à une approche reconfigurable, beaucoup plus d’entreprises pourront concevoir leur propre hardware pour des tâches IA spécifiques. De plus, il sera plus simple de combiner le hardware provenant de différents fournisseurs.
Il est indéniable que la situation s’est complexifiée pour les fabricants de hardware. Ils doivent avoir des connaissances approfondies en software et comprendre les exigences associées. Ils sont aussi amenés à combiner des technologies, des matériaux innovants et des nouvelles architectures. Cela nécessite un écosystème pour les différents domaines d’application. Dans le même temps, cette approche augmente les chances de succès des innovations hardware révolutionnaires.
L’avenir et le succès de la nouvelle vague d’IA dépendent de la capacité des innovations hardware à suivre le rythme. Des secteurs entiers seront repensés : la construction, les soins de santé, les transports, la maintenance. L’enjeu est considérable.

Le projet NanoIC, une extension de la ligne pilote d’imec, est la réponse européenne à la complexité induite par l’IA et renforce la position de leader européen dans la recherche en comblant le fossé entre le laboratoire et l’usine. Dans le même temps, la ligne pilote stimulera un écosystème industriel européen composé de startups, d’entreprises IA, de concepteurs de puces, de fabricants et autres acteurs autour des technologies les plus avancées.

Luc Van den hove
est président et CEO d’imec depuis le 1er juillet 2009. Auparavant, il était vice-président exécutif et directeur des opérations du centre de recherche. Il a rejoint imec en 1984 et y a débuté sa carrière de chercheur dans le domaine des technologies de siliciure et d’interconnexion. Luc Van den hove a obtenu son doctorat en électrotechnique à la KULeuven. Il est l’auteur ou le coauteur de plus de 200 publications et contributions à des conférences.

Pieter Simoens
est professeur à l’Université de Gand et affilié à l’imec. Il est spécialisé dans les systèmes d’intelligence artificielle distribués. Ses recherches portent notamment sur le lien entre les robots et l’internet des objets, les appareils embarqués à apprentissage continu et l’étude de la manière dont une intelligence collective peut émerger de la collaboration entre des agents individuels et autonomes.