ENGINEERINGNET.BE - Denk daarbij aan modellen die autonoom beslissingen kunnen nemen en uitvoeren, fysieke objecten kunnen manipuleren en kunnen samenwerken. Maar voor we zover zijn, is er een harde noot te kraken: onze hardware moet kunnen volgen.
Wat is agentic en physical AI?
Agentic AI verwijst naar softwareagenten die proactief gedrag vertonen en doelgerichte acties kunnen ondernemen in digitale omgevingen. Denk aan AI die je inbox kan beheren, gepersonaliseerde e-mailreacties redigeert, bestellingen kan plaatsen en contracten kan opstellen of aanpassen, net zoals een echte medewerker dat zou doen.
Physical AI verwijst naar systemen die interageren met de fysieke wereld. Denk aan magazijnrobots die samenwerken met andere robots of mensen, thuisassistenten die schoonmaken, koken en verzorgen, of zelfrijdende voertuigen. Ze 'voelen' via een groot aantal sensoren en interageren razendsnel met de fysieke wereld.
Waarom spreken we van next-gen AI?
Grote taalmodellen genereren content op basis van een prompt en vooral veel data: een zeer uitgebreid model van onze taal dat gevoed werd met bijna het hele internet. Het is aan de gebruiker om te beslissen of hij de output al dan niet gebruikt.
De volgende generatie AI zal complexe, realistische workflows automatiseren en de toepassingen zullen we zien in domeinen als logistiek, gezondheidszorg, landbouw en de bouw – sectoren waar fysieke aanwezigheid en realtime besluitvorming cruciaal zijn.
Hiervoor gebruiken deze AI-systemen geen taalmodellen (Large Language Models) maar gedragsmodellen (Large Behavior Models). Hun input kan bestaan uit een tekstprompt, maar in tegenstelling tot grote taalmodellen bestaat de output uit acties. Op de keper beschouwd zou je dit nog steeds als 'tekst' kunnen zien, aangezien de acties worden aangestuurd door code, bijvoorbeeld om een robotgewricht van positie x naar y te verplaatsen.
Het wezenlijke verschil: de correcte uitvoering van zo’n actie vereist een actueel model van de fysieke omgeving. En fysieke data: die kunnen we niet zomaar oogsten door het internet af te zoeken. Fysieke datageneratie begint met een digital twin van een ruimte, zoals een fabriek.
In deze virtuele ruimte worden sensoren en autonome machines zoals robots toegevoegd. Er worden simulaties uitgevoerd die realistische scenario's nabootsen, en de sensoren leggen verschillende interacties vast. Hoe beter de dataverzameling in de echte wereld is, hoe beter de simulaties de echte wereld weerspiegelen.

Een kwestie van rekenkracht
Mensen zijn extreem efficiënt in het uitvoeren van taken in de fysieke wereld en het bewegen met fysieke objecten. Door te proberen, te falen en opnieuw te proberen, leren kinderen ‘door ervaring’. Elke poging leert hen iets nieuws. Daarnaast leren kinderen ook door demonstraties, door volwassenen te kopiëren.
Gaandeweg ontwikkelen ze een 'model van de wereld' in hun hoofd dat helpt bij het voorspellen van de uitkomst van een specifieke actie en het mogelijk maakt om opeenvolgende taken te plannen. Het kost echter vele jaren om zo'n model te ontwikkelen en de vaardigheden te beheersen om typisch menselijke taken te plannen en uit te voeren.
We staan robots niet toe om zoveel tijd te besteden aan leren, noch om zoveel (dure) fouten te maken. Dit betekent dat ze vaak puur vertrouwen op simulatieomgevingen zoals NVIDIA's Omniverse om hun 'wereldmodel' te bedenken. Dit genereert een enorme rekenlast, zowel tijdens de training als tijdens de uitvoering.
De hardware-uitdagingen
Wat zijn de uitdagingen voor hardware die de volgende AI-golf mogelijk moeten maken?
- Geheugen: om de parameters van zeer grote wereldmodellen op te slaan.
- Betrouwbare, deterministische netwerken: om continue connectiviteit en coördinatie tussen agents, apparaten en cloudsystemen te garanderen.
- Geavanceerde sensordatafusie: voor besluitvorming zonder vertraging en situationeel bewustzijn in realtime.
- AI-chips: om de rekenlast energiezuinig uit te voeren, voor veilige actie met lage latentie, met name in zakelijke of privacygevoelige omgevingen.
- Batterijtechnologie: dit is met name cruciaal voor mobiele platforms en continue implementatie. Hardwarebewuste AI kan helpen bij het in evenwicht brengen van prestaties en energieverbruik.
- Actuatoren: voor compatibele actuatorsystemen en adaptieve besturingsalgoritmen die een evenwicht vinden tussen kracht en veiligheid, waardoor mensachtige manipulatie mogelijk wordt – zowel veilig als snel. Daarvoor hebben we gezamenlijk ontworpen hardware en besturingsalgoritmen nodig die intelligent reageren op sensorische feedback.
Geoptimaliseerde AI-chips: een kwestie van flexibiliteit
De evolutie naar ‘redenerende AI-modellen’ maakt de werklast van die modellen steeds heterogener. Ze vereisen een ketting van verschillende modellen die elk een specifiek doel dienen en met elkaar interageren: een AI-systeem dat grote taalmodellen, perceptiemodellen en actiemodellen kan combineren. Sommige modellen vereisen CPU’s, andere GPU’s en weer andere modellen missen momenteel de juiste processor. Het is duidelijk dat een klassieke “one size fits all”-aanpak met alleen meer rekenkracht niet zal volstaan. Wat het allemaal extra uitdagend maakt, is het feit dat AI-workloads van de ene dag op de andere kunnen veranderen, aangestuurd door een nieuw algoritme.
Algoritmebouwers schakelen inderdaad snel, maar de hierboven genoemde hardwareproblemen zijn een stuk tijdrovender: het duurt al snel meerdere jaren om zelfs maar kleine verbeteringen te realiseren. Bovendien wordt hardware-optimalisatie steeds complexer en duurder. Met andere woorden: de techindustrie zit met een synchronisatieprobleem.
Het ontwikkelen van een specifieke rekenchip voor elk model - zoals we nu doen voor generatieve AI - kan het tempo van innovatie in AI-modellen onmogelijk bijhouden. En de wetten van de economie spelen evenmin in het voordeel van hardware: er is een enorm inherent risico omdat de AI-softwaregemeenschap een andere wending kan hebben genomen tegen de tijd dat de AI-hardware klaar is. Het is moeilijk te voorspellen wat de volgende hardwarevereiste zal zijn in de snel evoluerende wereld van AI. Op de lange termijn is flexibiliteit de sleutel. Hardware moet bijna net zo 'codeerbaar' worden als software vandaag. Dezelfde set hardwarecomponenten moet herconfigureerbaar zijn. Dit betekent dat je niet drie computers nodig hebt om een reeks algoritmen uit te voeren, maar slechts één wendbaar exemplaar, waarbij software de configuratie van chips kan gaan definiëren. Dat is een heel andere benadering dan de huidige hardware-innovatie.
Stel je voor: in plaats van één monolithische 'state of the art' en superdure processor, zou je verschillende betaalbaardere bouwstenen krijgen, geïntegreerd in 3D, zo gestapeld dat geheugen- en rekenchips dicht bij elkaar kunnen worden geplaatst, waardoor het energieverlies van dataverkeer wordt beperkt. Door de verschillende bouwstenen slim te combineren kunnen ze snel worden aangepast aan de nieuwste algoritme-eisen.
Bijkomende voordeel: met zo’n herconfigureerbare aanpak zullen veel meer bedrijven hun eigen hardware kunnen ontwerpen voor specifieke AI-opdrachten. Daarnaast wordt het makkelijker om hardware van verschillende leveranciers te combineren.
Zeker is dat het voor hardwareproducenten een stuk complexer geworden is. Ze moeten diepere kennis van de softwaretoepassingen en bijbehorende vereisten hebben. En ze moeten vaak ook technologieën, nieuwe materialen en nieuwe architecturen combineren. Dat vergt een ecosysteem voor de diverse toepassingsdomeinen. Tegelijk verhoogt die manier van werken de kans op slagen van baanbrekende hardware-innovaties.
De toekomst en het succes van de nieuws golf van AI hangen af van de mate waarin hardware-innovaties kunnen volgen. Volledige sectoren zullen opnieuw vormgegeven worden: de bouw, de zorg, het transport, de maintenance. Er staat wat op het spel, dus.

Het NanoIC-project, een uitbreiding van de imec-pilootlijn, is het Europese antwoord op AI-gedreven complexiteit en versterkt de Europese leidende positie in onderzoek verder door de kloof tussen lab en fab te overbruggen. Tegelijkertijd zal de pilootlijn een Europees industrieel ecosysteem van start-ups, AI-bedrijven, chipontwerpers, fabrikanten en anderen rond de meest geavanceerde technologie stimuleren.

Luc Van den hove
is voorzitter en CEO van imec sinds 1 juli 2009. Voordien was hij executive vicepresident en chief operating officer van het onderzoekscentrum. Hij trad in dienst bij imec in 1984 en startte er zijn onderzoeksloopbaan in het domein van de silicide- en interconnect-technologieën. Luc Van den hove behaalde zijn doctoraat in elektrotechniek aan de KU Leuven. Hij is auteur of coauteur van meer dan 200 publicaties en bijdragen aan conferenties.

Pieter Simoens
is professor aan de Universiteit Gent en verbonden aan imec. Hij specialiseert zich in gedistribueerde artificieel intelligente systemen. Zijn onderzoek spitst zich o.a. toe op de koppeling tussen robots en het Internet of Things, continu lerende embedded devices en de studie van hoe een collectieve intelligentie kan ontstaan uit de samenwerking van individuele en autonome agenten.