Ontwikkeling Explainable AI voor meer inzicht in werking neurale netwerken

De Nederlandse Wageningen University & Research werkt aan innovaties op het gebied van Explainable AI die meer inzicht kunnen geven in AI, of er zelfs voor zorgen dat AI zichzelf kan uitleggen.

Trefwoorden: #artificiële, #intelligentie, #netwerk, #neurale, #veiligheid

Lees verder

Nieuws

( Foto: Wageningen University & Research )

ENGINEERINGNET.BE - AI herbergt een indrukwekkende rekenkracht en is erg geschikt om complexe analyses uit te voeren.

Enorme datasets of zeer gedetailleerde metingen kunnen sneller en beter doorgrond worden door de toepassing van AI.

Maar de berekeningen en analytische stappen die zo’n neuraal netwerk maakt, blijven in veel gevallen onbekend. Explainable AI richt zich daarom op verschillende oplossingen die neurale netwerken transparanter kunnen maken.

Om te experimenteren met zo’n oplossing, trainden dr. ir. Bas van der Velden, teamleider Data Science bij Wageningen Food Safety Research en zijn collega’s daarom een algoritme om koeienurine te analyseren op sporen van verboden stoffen.

Het neurale netwerk leerde om data uit de massaspectrometer te analyseren en de monsters die sporen bevatten van groeihormonen te onderscheiden van monsters zonder. AI had daarbij een nauwkeurigheid van 90%, bijna zo goed als bestaande methoden.

'Om te bepalen op basis van welke eigenschappen van de data AI nu precies zijn conclusies trok, hebben we een veelgebruikt framework uit de speltheorie gebruikt, genaamd SHAP. Dat legt verbanden tussen de data die het model ingaan en de resultaten die het voortbrengt,’ aldus Van der Velden.

'Het framework wees een specifieke chemische structuur aan als de meest belangrijke eigenschap van urinemonsters die wezen op groeihormonen. Deze uitleg maakt het mogelijk om meer te begrijpen van hoe een neuraal netwerk werkt.

Als AI fouten maakt, kan een uitleg als deze ook uitwijzen waar die fouten vandaan komen. Met dat inzicht kunnen algoritmen ook verbeterd worden, zodat ze geen fouten blijven maken.’

Methoden die naderhand uitleg geven, hebben echter ook nadelen. Van der Velden: ‘Het is natuurlijk heel handig dat zulke systemen op elke AI kunnen worden aangesloten, maar helaas zijn de resultaten niet altijd van dezelfde kwaliteit.’

Een andere optie is geïntegreerde uitleg. Van der Velden: ‘Uitlegfunctionaliteit die ingebakken zit in AI. Zo’n uitleg kan veel specifieker zijn, toegespitst op het doel waarvoor AI wordt ingezet. Omdat de uitleggende functies samen met het algoritme worden ontwikkeld, kan die worden afgestemd op de gebruiker.’

Ook als het algoritme nog getraind wordt, geeft AI die zichzelf uitlegt al meer inzicht in zijn eigen werking. ‘Je krijgt een soort feedbackloop. Zo’n netwerk kun je dus veel verder optimaliseren.’

‘Veel wetenschappers die aan AI werken, geloven dat het onze toekomst significant zal veranderen,’ aldus Van der Velden. ‘Dit is het moment om de richting van die transformatie te bepalen.’