Internationale richtlijn veilige toepassing AI gepubliceerd

Foto: Carl Moons
Het goed en veilig toepassen van kunstmatige intelligentie (meestal bekend als AI) heeft prioriteit boven het ontwikkelen van nieuwe algoritmen. Onder leiding van het UMC Utrecht is een internationale richtlijn ontwikkeld voor alle soorten medische beslis- en leefstijlondersteuning in de zorg. Gebruik van deze richtlijn maakt de toepassing van AI veiliger en beter. De richtlijn is vandaag gepubliceerd in de British Medical Journal.
Ongeveer 250 internationale experts werkten mee aan de PROBAST-AI richtlijn en checklist. De richtlijn kan worden gebruikt voor het beoordelen van de betrouwbaarheid, eerlijkheid, duurzaamheid en toepasbaarheid van algoritmes in de zorg.
“Het is een set vragen die je kunt doorlopen om erachter te komen of een algoritme een hoog, een laag of geen risico heeft op bias”, legt professor Carl Moons, hoofdonderzoeker en leider van het internationale PROBAST-AI consortium uit. Een groot gevaar is bijvoorbeeld dat niet de juiste data(sets) zijn gebruikt om het algoritme te trainen en te testen. “Dat kan leiden tot algoritmes die bepaalde groepen bevoordelen of benadelen, of gewoonweg niet toegepast zouden moeten worden. Met de razendsnelle ontwikkeling van AI in het afgelopen jaar is het belang van richtlijnen ter beoordeling van de kwaliteit, veiligheid en toepasbaarheid van AI-algoritmen enorm toegenomen.”
Risico’s van AI in de zorg
In de zorg worden al heel veel en al heel lang – al ver voor de algemene bekendheid van AI – voorspellende algoritmes gebruikt. “Denk bijvoorbeeld aan algoritmen die worden gebruikt bij het opsporen of voorspellen van het beloop van dementie, kanker, hart- en vaatziekten, Parkinson of infecties”, zegt Moons. Dit biedt grote kansen, maar brengt ook risico’s met zich mee. “En omdat er tot nu toe geen goede richtlijn specifiek voor AI-algoritmen in de zorg was, hadden we die risico’s ook niet altijd in beeld.”
Voorspellende modellen in de zorg worden gebaseerd op data uit het verleden van bestaande patiënten. Maar tot nu toe was vaak niet goed vastgelegd waar, bijvoorbeeld, zo’n dataset aan moet voldoen, zegt Moons. “Soms zijn de algoritmen niet afkomstig van data uit vooropgezette studies, of zijn ze zelfs gebaseerd op data die gewoon van het internet zijn gehaald zonder dat men de herkomst van de data en dus van het algoritme precies kent. We weten dan niet welke groepen patiënten, cliënten of burgers in de data zijn vertegenwoordigd en dus of het algoritme wel toepasbaar is op de groep patiënten waar we het voor willen gebruiken,” zegt Moons.
De richtlijn PROBAST+AI maakt de kwaliteit en toepasbaarheid van een AI-algoritme direct toetsbaar. De richtlijn biedt expliciete criteria om te beoordelen of een AI-model betrouwbaar, eerlijk en praktisch toepasbaar is, en voor wie en in welke situaties. De checklist is het resultaat van uitgebreid wetenschappelijk onderzoek door een groot internationaal consortium en geeft zorgprofessionals en beleidsmakers handvatten om verantwoord met AI in de zorg om te gaan. Moons: “Met behulp van PROBAST kan Nederland bovendien ten aanzien van de zorg voldoen aan de nieuwe AI Act van de Europese Unie, waar wij allen aan zullen moeten voldoen binnen nu en iets meer dan een jaar.”