Deep learning doet intrede in operatiekamer

Koen Eppenhof (TU/e) heeft aangetoond dat een algoritme op basis van deep learning kan worden gebruikt in de operatiekamer, waardoor nauwekeuriger geopereerd kan worden.

Trefwoorden: #artificial intelligence, #deep learning, #kunstmatige intelligentie, #neurale netwerken, #TU/e

Lees verder

research

( Foto: worawutprasuwan - 123RF )

ENGINEERINGNET.BE - Om zo nauwkeurig mogelijk te kunnen opereren of bestralen, wordt vooraf door de arts het te behandelen gebied op een scan (MRI of CT) ingetekend.

Dat gebied wordt vervolgens op de operatietafel gelokaliseerd met een nieuwe scan. Dat is niet eenvoudig: de positie van de patiënt is namelijk nooit exact hetzelfde op beide scans.

Volgens promovendus Koen Eppenhof van Medical Image Analysis aan de Nederlandse TU/e bestaat er al wel slimme software die de arts in staat stelt de match te maken tussen het in een eerder stadium zorgvuldig geanalyseerde beeld en de persoon in de scanner.

Eppenhof: “Maar dat kost de computer wel nog minimaal een aantal minuten aan rekentijd, terwijl je het liefst beide scans real-time aan elkaar zou willen kunnen relateren.”

Toen hij een kleine vijf jaar geleden aan zijn promotie begon, kwam net het principe van deep learning op, een vorm van kunstmatige intelligentie waarmee deze klus veel sneller geklaard zou kunnen worden.

Eppenhof: “In het begin was ik op conferenties een van de weinigen die zich met deep learning bezighield, terwijl nu vrijwel iedereen in de medische beeldanalyse het gebruikt.”

De uitdaging is in feite om elk pixel van het originele beeld te koppelen aan het overeenkomstige pixel in de nieuwe scan. Daarvoor werd een zogeheten diep neuraal netwerk getraind, draaiend op Graphics Processing Units (GPU’s).

Zo’n neuraal netwerk van GPU’s leert zichzelf als het ware hoe het zijn taak moet uitvoeren aan de hand van duizenden voorbeelden. Het probleem is echter dat er onvoldoende trainingsmateriaal beschikbaar is.

Neem het probleem van longfoto’s: er zijn simpelweg te weinig sets ‘geregistreerde’ beelden van longen in verschillende stadia van in- en uitademing. De onderzoeker koos er daarom voor om een bestaande afbeelding kunstmatig op talloze verschillende manieren te vervormen, en daarmee het neurale netwerk te voeden.

Eppenhof: “Vervolgens heb ik het getrainde netwerk losgelaten op een set van enkele tientallen echte CT-scans, die door meerdere experts zijn geregistreerd op basis van honderden anatomische herkenningspunten, zoals de plekken waar bloedvaten splitsen of elkaar kruisen.”

Dit getrainde netwerk bleek bijna net zo goed te presteren als de individuele experts. Daarmee is dus aangetoond dat je diepe neurale netwerken kunt trainen met gesimuleerde data, in plaats van met echte medische beelden. Ook bleek zijn neurale netwerk in staat om de beelden binnen een seconde te analyseren.

Of zijn versie van deep learning ook daadwerkelijk op korte termijn zijn weg naar het ziekenhuis zal vinden, is nog de vraag. Hoe het neurale netwerk precies werkt, is namelijk onduidelijk.

Eppenhof: “Sowieso zullen dit soort technieken nooit volautomatisch worden ingezet. Er moet altijd een mens zijn die meekijkt om te zien of de computer niet volledig de mist ingaat.”


(bron: TU/e - Cursor)