top of page
  • Foto van schrijverJasper de Vreede

Het lot van patiënten in handen van een algoritme


Algoritmes en kunstmatige intelligentie zijn niet meer te weg te denken in ons dagelijks leven. Nu lijken deze technologieën ook hun intrede te doen in de gezondheidszorg. Hoe betrouwbaar is gezondheidsinformatie die voortkomt uit algoritmes? Wegen de voordelen op tegen de gevaren die het gebruik van algoritmes en big data met zich meebrengt?



In twee Nederlandse ziekenhuizen wordt sinds kort gewerkt met een nieuw protocol waarin een algoritme gezondheidsdata van de patiënt verzamelt, vergelijkt en beoordeelt. De uitkomsten worden nu nog naar een controlekamer gestuurd. Hier wordt de informatie door wetenschappers geverifieerd, voordat er actie wordt ondernomen. Zo komt het lot van honderden patiënten in Nederland steeds meer in handen van data en algoritmes.


Meten is weten

Amsterdam UMC is een van deze ziekenhuizen. Patiënten op de intensive care worden gemonitord met een polskastje en diverse sensoren. De verzamelde data wordt continu geanalyseerd door een computer. Het doet denken aan een Fitbit: het sportarmbandje dat ons real time informatie biedt over onze gezondheid. De polskastjes in het ziekenhuis gaan nog een stap verder. Zij meten tweehonderd vitale functies in ons lijf zoals ademhaling, temperatuur en hartslag. Aan de hand van data afkomstig uit duizenden andere dossiers worden voorspellingen gedaan over potentiële gezondheidsrisico’s. Zo kan een hartaanval bijvoorbeeld vroegtijdig gesignaleerd worden. Een groen, geel of rood lampje is voldoende om de controlepost in te seinen welke zorg nodig is. Het algoritme vervangt de routinematige checks van een arts of verpleegkundige.


"Vorig jaar kwam aan het licht dat Google heimelijk gezondheidsdata van miljoenen Amerikanen verzamelde."

Agressie in 3, 2, 1

Niet alleen op de intensive care maken ze handig gebruik van datagedreven zorgverlening. Op de afdeling psychiatrie van het UMC in Utrecht is het inmiddels mogelijk om agressief gedrag bij patiënten te voorspellen. Hiervoor wordt data uit de elektronische patiëntendossiers (EPD) gebruikt. Iedere behandelaar schrijft rapportages van elk behandelcontact in het EPD. Het algoritme werkt op basis van text mining: een kansberekening wordt gemaakt aan de hand van het analyseren van woorden, zinnen en ander klinische data uit dossiers zoals diagnoses of behandelgeschiedenis. Bij een woord als ‘gooien’ in combinatie met een antisociale persoonlijkheidsstoornis is de kans groot dat er een rode lamp gaat branden.


Big data

Algoritmes en big data in de zorg hebben ook een keerzijde. Zo kwam vorig jaar aan het licht dat Google - in samenwerking met een grote zorgaanbieder - heimelijk gezondheidsdata van miljoenen Amerikanen verzamelde. Dokters noch patiënten werden hierover geïnformeerd. Met name patiënten maakten zich zorgen; het betreft immers data over hun gezondheid welke veel geld op kunnen leveren voor hackers. Zo werd begin dit jaar het Medisch Centrum Leeuwarden geconfronteerd met een hackpoging en zouden volgens onderzoek nog 240 systemen in Nederland kwetsbaar zijn voor hackaanvallen.


"Volgens voorstanders is het zelfs gevaarlijker wanneer men de data niet zou gebruiken."

Mens versus machine

Een andere zorg is het zogeheten ethische oordeel. Algoritmes produceren koude data (informatie zonder menselijke interpretatie) en zijn niet in staat emotionele afwegingen mee te nemen in hun oordeel. De oplossing zit volgens Floortje Scheepers, hoogleraar innovatie in de GGZ bij UMC Utrecht, in het overwegen van de verschillende perspectieven van zowel het algoritme, de betrokken hulpverlener en de patiënt zelf. Op deze manier wordt de rol van het algoritme ingeperkt tot adviesorgaan en zal een eindoordeel nog altijd in een gelijkwaardig gesprek met alle betrokken partijen plaatsvinden.


Beschermen

Algoritmes hebben de potentie om een zorgsysteem te verbeteren. Maar het gebruik ervan roept tegelijkertijd de nodige vragen op. Veel voorstanders - zoals ontwikkelaars - zien geen gevaar. Volgens hen is het is zelfs gevaarlijker wanneer men deze data niet zou gebruiken. Een arts kan immers nooit zoveel data opslaan als een computersysteem. De vraag lijkt dus niet zozeer of algoritmes van meerwaarde zijn in de gezondheidszorg, maar in hoeverre men gezondheidsdata - en de patiënt - kan beschermen tegen andere doeleinden.


bottom of page