Diepzinnige beeldvorming
Een computer kan veel meer beelden bekijken, en er van leren, dan een menselijke specialist. Voor medische en biologische toepassingen worden AI-systemen in hoog tempo onmisbaar. Ze moeten nog wel leren uitleggen hoe ze tot hun oordeel komen.
Een AI-systeem kan tumoren op een scan aanwijzen, maar mag geen diagnose stellen
Röntgenfoto's gingen vroeger op de lichtbak. Dan besliste een radioloog of er op die foto bijvoorbeeld een tumor zichtbaar was. De radioloog kan dat vrij goed zien, omdat hij of zij tijdens de opleiding duizenden foto's bekijkt waarbij een ervaren radioloog aanwijst of dat vlekje al of niet een tumor is.
Maar een AI-systeem kan een miljoen röntgenfoto's bekijken om tumoren te leren onderscheiden, en kan dan in theorie trefzekerder worden dan de radioloog. Hetzelfde geldt voor andere beeldtechnieken, zoals MRI- en CT-scans. Volgens Boudewijn Lelieveldt, hoogleraar biomedische beeldanalyse aan het LUMC, is er sinds een jaar of vijf een revolutie op dit gebied gaande: 'Is automatische beeldanalyse iets nieuws? Nee, maar het werkt ineens veel beter.' Dat is te danken aan de enorme foto-databases die online beschikbaar zijn, aan snelle grafische chips in computers, en aan deep learning netwerken.
Zo'n netwerk kan uit tientallen lagen bestaan. In de inputlaag registreert elke cel één pixel van het beeld. De eerste tussenlaag registreert een elementair aspect, bijvoorbeeld licht en donker. De laag daaronder misschien randen en hoeken in het beeld. Uiteindelijk kan de outputlaag met grote betrouwbaarheid een contour om de waarschijnlijk aanwezige tumoren aanbrengen.
Lelieveldts groep onderzocht of training van zo’n netwerk, met datasets van verschillende ziekenhuizen en scanners van verschillende fabrikanten, nog steeds betrouwbare resultaten oplevert. Dat blijkt zo te zijn.
Wat gaat de patiënt van deze revolutie merken? Tot nu toe werd niet altijd alle nuttige informatie uit scans gehaald, omdat dit te tijdrovend was voor de medisch specialist. Lelieveldt: 'Nu zitten we bijna op een punt dat je al die metingen automatisch kunt genereren.' Een complete opmeting en vergelijking van een set scans is overigens nog lang geen diagnose voor een patiënt. Het is maar één stap in een traject, waarop menselijke artsen voorlopig het roer nog stevig in handen houden.
Met het concept van deep learning netwerken kan men nog zeker twintig jaar vooruit
De MRI- en CT-scans die door deep learning-netwerken worden bekeken, beelden ongeveer op ware grootte af. Fons Verbeek, hoogleraar Computational bio-imaging, gebruikt deep learning-netwerken om microscoopbeelden te analyseren. Hij werkt veel samen met biologen en onderzoekers van het Naturalis Biodiversity Center: 'Dat heeft een van de grootste collecties hout ter wereld.' Verbeek werkt aan een AI-systeem, dat aan het microscopische beeld van een houtoppervlak de boomsoort herkent, en later misschien ook waar die boom in de grond stond. Zo kan de douane veel sneller dan nu illegale partijen tropisch hardhout identificeren.
Deep learning-netwerken zijn een succesverhaal, maar ze hebben ze ook hun zwakke kanten. Toen Verbeek een netwerk wilde trainen om een bepaald type losse cellen onder een microscoop te onderscheiden werkte dat niet. Het netwerk gooide alles op één hoop.
Niettemin lukte het met een gewijzigde architectuur van het netwerk, waarbij sommige tussenlagen hun output weer terugvoerden naar een eerdere laag. Zo blijkt het deep learning-netwerk een zeer veelzijdig concept waar computerwetenschappers nog wel twintig jaar mee vooruit kunnen. De variatiemogelijkheden in de architectuur zijn vrijwel eindeloos. Verbeek: 'Er geldt nu een aantal veel gebruikte architecturen als standaard. Soms moet je daar afstand van nemen, en ermee gaan spelen. Er is nog heel veel uit te vinden.'