Artificial intelligence-modellen beter begrijpbaar maken voor artsen

mm
Frank van Wijck
Redactioneel,
29 september 2021

Artificial intelligence speelt in toenemende mate een rol in het bepalen wat de beste therapie is voor de individuele patiënt. Maar de meest gebruikte vormen van AI zijn te zeer een black box om de inhoud van de voorspelling die eruit rolt te kunnen duiden. De ontwikkeling van uitlegbare AI moet hierin verandering brengen.

Voor artsen is het moeilijk te begrijpen wat de artificial intelligence (AI) nu geleerd heeft. En dit kan een hindernis vormen voor de toepassing ervan in de klinische praktijk. “De geleerde modellen zijn onbegrijpelijk voor ze”, zegt Tanja Alderliesten. Zij is in het LUMC projectleider van een onderzoeksgroep die hierin verandering moet brengen door AI-uitkomsten beter begrijpbaar te maken. Bij het onderzoek zijn naast het LUMC ook Amsterdam UMC en het Centrum Wiskunde & Informatica (CWI) betrokken. Ze ontvingen een subsidie van ruim 800 duizend euro van het Gieskes-Strijbis Fonds. “Artsen willen bij toepassing van AI vaak meer weten dan alleen welke data ze erin stoppen en welke voorspelling eruit komt”, vertelt ze. “Daarom werken we aan de ontwikkeling van nieuwe technieken die moeten gaan helpen om de black box die AI nu voor ze is te openen.”

Projectleider LUMC Tanja Alderliesten

Inzicht in bijwerkingen

Een praktisch voorbeeld betreft gynaecologische kankerbehandeling. “Belangrijk hierbij is inzicht krijgen in de bijwerkingen die tijdens en na de behandeling kunnen optreden”, vertelt Alderliesten. “Daarop kunnen behandelaars nu alleen reactief sturen: ze constateren dat een bijwerking optreedt en dan acteren ze daarop. Dit willen we nu veranderen, in een project

 

Login om verder te lezen

Nog geen account? Meld u hier gratis aan.

Deel dit artikel