Predictive Analytics in de zorg

Door: Laurens Schinkelshoek

Estimated Reading Time: 8 min

Inleiding

De afgelopen jaren heeft artificial intelligence (AI) de wereld verrast met de snelheid van ontwikkelingen. Na de mislukking van het realiseren van zelfrijdende auto’s hebben grote taalmodellen (large language models (LLM’s)) laten zien dat er daadwerkelijk een technische revolutie mogelijk is. Ook in de zorg wordt met grote verwachting uitgekeken naar de efficiëntie winst en verbetering die de inzet van AI zou kunnen brengen. Voorbeelden van toepassingen zijn klinische beslissingsondersteuning, personalized medicine en het verminderen van registratielast voor zorgprofessionals.

Maar de term AI is breed en deze voorbeelden gebruiken allerlei verschillende AI technieken om innovaties mogelijk te maken. Veel van die technieken lijken magisch, maar ze zijn allemaal gebaseerd op toegepaste wiskunde. Dus laten we in dit artikel de technieken langslopen en kijken naar wat er onder de motorkap gebeurd, om zo iets meer begrip te krijgen van de wondere wereld van AI.

AI methoden

Op het moment is het nuttig om als eerste een onderscheid te maken tussen generatieve en predictieve AI. Waar generatieve AI content genereert, denk aan chatbots, image generation en deep fakes, leert predictieve AI in historische data patronen herkennen om voorspellingen te doen, denk aan segmentatie van radiologische beelden, de kans op opname bij de spoedeisende hulp of, zoals we met PERISCOPE bij Healthplus.ai doen, het voorspellen van de kans op een infectie na een operatie. Daarnaast bestaat er een veld van AI dat nog nauwelijks gebruikt wordt in de gezondheidszorg, maar in brede context zich wel bewezen heeft, namelijk Reinforcement Learning. Bij Reinforcement Learning leert een model om opeenvolgende beslissingen te nemen om door een complexe omgeving te navigeren. Hierbij kun je denken aan AlhaGo en AlphaFold, maar ook aan het aansturen van robots zoals die van BostonDynamics of aan zelfrijdende auto’s. In dit artikel wil ik vooral de technieken onder predictive en generatieve AI uitleggen.

Voor predictieve AI worden allerlei verschillende technieken (algoritmes) gebruikt afhankelijk van het type data dat beschikbaar is en het soort voorspelling dat gemaakt moet worden. Voor beeldherkenning, bijvoorbeeld bij de radiologie, worden Convolutional Neural Networks gebruikt (CNN), voor tijdsafhankelijke data, zoals metingen op de IC, Recurrent Neural Networks (RRN) en voor gestructureerde data, zoals EPD verslaglegging, metingen van lichaamskenmerken of labuitslagen, zijn traditionele machine learning technieken beschikbaar zoals Decision Trees (DT), Linear Regression (LR) en de nieuwere Neural Networks (NN).

Al deze methoden gebruiken ‘supervised learning’, wat betekent dat de algoritmes historische data gebruiken voor de input van het algoritme en de gewenste uitkomst. In het geval van Healthplus.ai gebruiken we, om de kans op een infectie na een operatie te voorspellen, bestaande data in het elektronisch patienten dossier (EPD). We kijken naar de operaties van de afgelopen jaren en of de patiënten na die operaties als complicatie een infectie hebben opgelopen. Ons algoritme leert vervolgens om de patronen in de historische data te herkennen en om zo het risico voor toekomstige patiënten te kunnen berekenen.

Van lineaire regressie naar neurale netwerken

Alle varianten van neurale netwerken gebruiken in essentie lineaire regressie, een algoritme dat al sinds 1700 gebruikt wordt (het is voor het eerst toegepast door de natuurkundige Isaac Newton). Het algoritme gebruikt een wiskundige optimalisatie methode zoals bijvoorbeeld de least squares methode om het verband te vinden dat het dichtst bij de bekende datapunten in de historische data ligt. Afbeelding 1 laat zien hoe dit zou werken voor 1 input parameter (op de X-as) en de te voorspellen waarde (op de Y-as). De blauwe lijn wordt zo gekozen dat de groene lijnen (de fouten in elke schatting) zo klein mogelijk zijn. Dit is eenvoudig uit te breiden naar meerdere input parameters door voor elke parameter een dergelijke blauwe lijn te vinden. Elke lijn wordt beschreven door een richtingscoëfficiënt (de helling van de lijn), deze worden de gewichten van je model.

Article content
Figuur 1: Grafiek om lineaire regressie gebaseerd op least square fit uit te leggen.

Om vervolgens een voorspelling te maken voor nieuwe input data, vermenigvuldig je elke parameter met een gewicht en tel je het resultaat op. Veel modellen voorspellen niet een getal maar een klasse. Bijvoorbeeld: krijgt de patiënt een infectie: ja of nee. Om de uitkomst van het algoritme om te zetten in een kans op een bepaalde klasse passen we een schaling toe, ook wel een activatiefunctie genoemd. Deze functie beperkt de mogelijke uitkomsten tot bijvoorbeeld een getal tussen 0 en 1. Als dit gedaan wordt spreken heet het algoritme logistieke regressie in plaats van lineaire regressie.

Toen in de jaren 40 en 50 computers beschikbaar kwamen, kregen wetenschappers het idee om meerdere van deze logistieke regressie algoritmes te combineren tot een neuraal netwerk (Figuur 2). Op deze manier kunnen modellen complexere signalen leren uit grotere datasets. Vervolgens werd in de jaren 70 een nieuw optimalisatie methode uitgevonden: stochastic gradient descent. Met deze methode kunnen de gewichten in een netwerk in kleine stapjes verbeterd worden, elke keer dat een algoritme data te zien krijgt. Deze methode maakt het mogelijk om meerdere lagen van de neurale netwerken achter elkaar te zetten en dan toch nog de vele gewichten die het netwerk heeft te optimaliseren (te leren) met behulp van grote data sets.

Article content
Figuur 2: van lineaire regressie naar deep neural networks.

In de decennia die daarop volgden werden computers sneller, werden rekenkracht en data-opslag goedkoper en kwamen er meer en meer data beschikbaar dankzij een groeiend internet en toenemende digitalisering. In die jaren hebben wetenschappers meer en meer lagen van neurale netwerken gecombineerd in specifieke structuren. Hiermee kunnen steeds meer patronen geleerd worden door de netwerken. Zo worden er netwerken uitgevonden die afbeeldingen en video’s kunnen herkennen (CNN’s tot en met 25 miljoen gewichten) en uiteindelijk zelfs netwerken die taal leren formuleren (de LLM’s tot en met 1.7 triljoen gewichten).

Beslisbomen

Naast neurale netwerken zijn er ook andere algoritmen die gebruikt kunnen worden om patronen te leren herkennen. Een veel gebruikt alternatief zijn beslisbomen. Afbeelding 3 toont een zeer eenvoudig voorbeeld. Bij een beslisboom begin je bovenaan en maak je bij elke knoop een keuze uit één van de onderliggende takken, welke naar de volgende knoop leidt. Ook deze kunnen zeer groot worden en met automatische algoritmes afgeleid worden van historische data. Zo kunnen de knopen en de takken gebaseerd worden op populatie karakteristieken uit het verleden.

Article content
Figuur 3:  Diagram van een eenvoudige beslisboom.

Een veel gebruikt algoritme voor het trainen van krachtige beslisbomen is XGBoost. Deze methode leert niet 1 maar vele (bijvoorbeeld 100 of 500) beslisbomen, waarbij elke volgende boom verfijndere beslissingen maakt over groepen / patronen in de data waarop ze getraind worden. Een voordeel van beslisbomen is dat ze, in vergelijking met neurale netwerken, minder variaties kennen in de architectuur. Daarom is het eenvoudiger om de optimale configuratie te vinden voor een specifiek probleem. Daarnaast kan een beslisboom bij het maken van een voorspelling exact laten zien welke input parameters geleid hebben tot de voorspelling. Door de diepte van moderne neurale netwerken is dit daar niet altijd mogelijk.

Uitdagingen

Tot nog toe is de inzet van AI in de gezondheidszorg beperkt. Binnen de radiologie zijn al veel producten beschikbaar om het werk van radiologen en laboranten te ondersteunen. Maar buiten de radiologie komen maar weinig producten op de markt. Misschien komt daar verandering in nu Microsoft en Chipsoft gezamenlijk de digital scribe beschikbaar zullen maken binnen EPD HiX. Toch zijn er een aantal zaken die we met elkaar goed in de gaten moeten  houden. In het kort:

Data kwaliteit

Veel medische data is de afgelopen jaren, sinds de ingebruikname van EPD systemen, handmatig vastgelegd. En hoe secuur medici ook werken, hier worden registratiefouten bij gemaakt. Medische data staat daarom bekend om de uitdagende data kwaliteit. Bij ontwikkeling en ingebruikname van (automatische) AI systemen zal er rekening mee gehouden moeten worden dat registratiefouten herkend en ondervangen worden.

Privacy

Het is al vaak gezegd, maar het is en blijft belangrijk: zowel als ontwikkelaars en als zorgverleners zullen we heel goed moeten opletten wat we doen met de data die ons is toevertrouwd door patiënten. Qua privacy en security is er technisch zeer veel mogelijk. Data kan veilig in een cloud geladen en gebruikt worden. Data kan veilig verstuurd en beschikbaar gemaakt worden en data kan zelfs vaak geanonimiseerd worden. Maar niets gebeurd hierbij vanzelf. Wij zullen altijd goed op moeten letten, vragen moeten stellen, contracten moeten lezen en de inrichting van techniek aandachtig door moeten nemen om te blijven verifiëren dat we verstandig met de data om gaan.

AI Explainability

Ik stipte het eerder al kort aan. Ik denk dat het essentieel is dat een model (en een product dat AI gebruikt) kan uitleggen hoe het tot een voorspelling komt. Deze AI explainability (uitlegbaarheid) is voorlopig nog volop in ontwikkeling en is nog beperkt betrouwbaar voor deep neural networks. Dat geeft ons, als AI ontwikkelaars, de verantwoordelijkheid om goed na te denken hoe we ons product presenteren.

Applicatielandschap

Software in de zorg zijn vaak grote (ouderwetse) applicaties, waarbij API’s (Application Programming Interface) nog maar recent beschikbaar gekomen zijn. Dat bemoeilijkt data-uitwisseling, maar bovenal maakt het integreren van nieuwe applicaties lastig. En integratie is juist essentieel. Alleen als de informatie van AI modellen naadloos beschikbaar is op de plek waar deze het zorgproces kan beïnvloeden zal het gebruikt worden door de zorgverlener.

Gebruikers adoptie

Wat ons bij de laatste uitdaging brengt. Het beschikbaar maken van een AI applicatie is meer dan een technisch traject. Nadat alle bovenstaande hindernissen genomen zijn, moeten de beoogde gebruikers van de applicatie goed meegenomen worden in hoe de applicatie in de praktijk gebruikt kan worden. Een model met een uitstekende voorspelling veranderd in zich zelf niets, alleen als deze voorspelling gebruikt wordt bij (medische) handelingen hebben onze innovaties de kans om de werklast te verminderen, uitkomsten voor de patient te verbeteren en zorgkosten te verlagen.

Conclusie

In dit stuk heb ik geprobeerd uit te leggen dat AI modellen geen magie bevatten, maar knappe toegepaste wiskunde, ontwikkeld in de afgelopen 70 jaar. Inmiddels zijn de technieken klaar voor gebruik. Laten we samenwerken om deze producten te ontwikkelen, te certificeren en in gebruik te nemen!

Recent posts

Predictive Analytics in de zorg

Door: Laurens Schinkelshoek Estimated Reading Time: 8 min Inleiding De [...]

Read more
Postoperative Infections: A Bigger Problem Than Just SSIs

By Bart Geerts Estimated Reading Time: 2 min Every hospital [...]

Read more
AI in healthcare: Why a business case matters before you begin

By Bart Geerts Estimated Reading Time: 7 min Artificial Intelligence [...]

Read more