‘It takes a village to raise a child’ en er is een heel team nodig om een patiënt te behandelen. Volgens Folkert Asselbergs, hoogleraar Precision Medicine, is het toevoegen van Artificial Intelligence (AI) aan dat team een logische volgende stap. Maar wie is in dat geval eigenaar van de resultaten uit AI? Asselbergs sprak 2 november jl. op een symposium van Amsterdam UMC over AI in de zorg, samen met John Halamka, president van het Mayo Clinic Platform. Hun antwoord op de vraag zou wel eens kunnen zijn: AI blijft in handen van de patiënten én van de medische professionals.

"Dit is de eerste keer in de medische geschiedenis dat we zowel genoeg gegevens als genoeg hulpmiddelen hebben om onze aanpak van de gezondheidszorg echt te veranderen", zegt Halamka, wiens Mayo Clinic Platform probeert om anonieme patiëntgegevens van over de hele wereld te combineren om de ontwikkeling van nauwkeurigere AI-modellen te vergemakkelijken. Tot nu toe heeft dit geresulteerd in meer dan “180 AI-modellen, waarvan er 18 zijn goedgekeurd door de FDA”, aldus Halamka.

De mogelijkheden van het platform zijn veelbelovend. Neem bijvoorbeeld een algoritme dat is ontwikkeld om de resultaten van een colonoscopie te analyseren, een procedure die elk jaar bij ongeveer 15 miljoen Amerikanen wordt uitgevoerd. "De beste endoscopist mist 15% van de kleine poliepen tijdens een colonoscopie, met ons model missen we 3%. Een arts die AI gebruikt komt dus tot een vijf keer beter resultaat," zegt Halamka.

Wiskunde, geen magie

Volgens Folkert Asselbergs moet verbetering door gebruik van kunstmatige intelligentie niet beperkt blijven tot degenen die in het ziekenhuis werken. Ook patiënten moeten ervan profiteren. "Patiënten zouden baat kunnen hebben van digitale ondersteuning waarmee ze meer te weten komen over hun ziekte en hun eigen symptomen kunnen volgen. Dit kan voordelig zijn voor zowel de arts als de patiënt," zegt hij. Dit betekent niet dat alle patiënten hun symptomen moeten gaan googelen of ChatGPT om een behandelplan moeten vragen. Sterker nog, Halamka raadt de laatste optie ten zeerste af. "AI moet transparant, betrouwbaar en consistent zijn. ChatGPT is geen van deze, we weten niet waar het informatie vandaan haalt. Het is wiskunde, geen magie", waarschuwt hij. De algoritmes waar ChatGPT ook gebruik van maakt, kunnen in de toekomst echter zeer nuttig zijn voor artsen. "Wat natuurlijke taalverwerking ons kan geven, is niet te onderschatten. Denk bijvoorbeeld aan een AI-programma dat via ambient listening een gesprek met een patiënt beluistert en een samenvatting geeft, of zelfs een programma dat eenvoudigweg de mailbox van een arts beheert en antwoordsuggesties geeft die de arts kan bewerken en versturen. Dit is een eenvoudige manier waarop digitalisering de eerstelijns zorgprofessionals iets kan teruggeven, nadat het ze door jarenlange administratielast is afgenomen," zegt Halamka.

Transparantie en geduld

Zowel Asselbergs als Halamka zijn het erover eens dat AI alleen een echte copiloot kan worden als zowel de ontwikkelaars, als degenen die er gebruik van maken dat op een transparante en eerlijke manier doen. "AI is waardeloos zonder gegevens van hoge kwaliteit, maar we moeten transparant zijn over waar we de gegevens voor gaan gebruiken", zegt Asselbergs. "AI kan echt een democratiserend effect hebben op zowel data als kennis. Patiënten kunnen meer leren over hun eigen ziekte. Echter, ik geloof dat wij als ziekenhuizen geen datacentra moeten worden, maar dat patiënten zélf datacentra moeten worden. Die hun eigen informatie beschikbaar stellen", voegt hij eraan toe.

Voor dit proces is echter geduld nodig. Iets wat alle ziekenhuizen volgens Asselbergs moeten uitoefenen. "Ik denk dat we moeten leren om het rustiger aan te doen. De mogelijkheden van AI zijn enorm, maar we moeten de drang weerstaan om alles zo snel mogelijk te doen. We schrijven toch ook geen medicijnen voor als we de volledige effecten niet kennen? Algoritmen moeten niet anders worden behandeld", aldus Asselbergs.

Afbeelding: Shutterstock