Digital Health Track: bedenkingen bij AI in de zorg

Met betrekking tot AI in de zorg dringt de vergelijking met de hedendaagse politiek zich op. Je bent voor of tegen. Een middenweg lijkt er niet te bestaan. Ruimte om een genuanceerd beeld te schetsen evenmin.

Tijdens de Digital Health Track op de CES was die ruimte er wel. Diverse sprekers namen die ook om uit te leggen waar de echte waarde van AI in schuilt, maar ook de echte complexiteit.

Een van de sprekers, Jeroen Tas, Chief Innovation & Strategy Officer bij Philips, vertelt dat de kwaliteit van data de kwaliteit van AI-uitkomsten bepaalt. “De kwaliteit van de data van onze monitoren op de IC is heel hoog, die kunnen we vertrouwen. Maar dat is met veel andere data niet zo. Zeker niet met data die patiënten zelf genereren. Je moet dus kritisch kijken: wat is de bron en kan ik die vertrouwen?”

Vastleggen

Daar komt bij dat verschillende bronnen en systemen dezelfde data vaak anders coderen of op afwijkende manieren vastleggen. Het ene systeem gebruikt voor een bepaalde meting bijvoorbeeld een zevenpuntsschaal terwijl het andere een vijfpuntschaal gebruikt. Daardoor is het lastig om data uit verschillende bronnen volledig geautomatiseerd te aggregeren.

“Daar komt nog heel veel voetenwerk bij kijken”, weet Tas.
Een derde aspect is de context. Stel dat iemands hartslag en temperatuur plotseling stijgen. Tas: “Als die persoon in een ziekenhuisbed ligt, dan is het waarschijnlijk foute boel. Maar als hij hard een trap op rent, is het logisch. Vaak ontbreekt data over de context.”

Dat wil niet zeggen dat die data daarmee op slag niets waard is, maar wel dat je die data niet kunt gebruiken als trainingsdata voor een algoritme.

Governance

Als je zeker wilt weten dat de datakwaliteit hoog genoeg om er algoritmen mee te trainen, is een goede governancestructuur onontkoombaar. Een tweede spreker, Scott Kim van Neofect, wijs op de hoge kosten daarvan. Lang niet iedereen is bereid die te betalen.

Zonder governance op de kwaliteit van data wordt het echter snel gevaarlijk, want voor je het weet train je je model met onbetrouwbare data of data die uit hun context zijn gehaald. En het is verdomd lastig om dat achteraf te reconstrueren. Je moet dus vooraf heel goed weten welke data je gebruikt.”

Er zijn voorbeelden genoeg van zelflerende algoritmen die worden getraind met de verkeerde data. Denk aan de chatbot Tay die Microsoft in 2016 lanceerde om te communiceren met generatie Y. Deze bot leerde van de conversaties op social media, met als gevolg dat hij net zo racistische en seksistisch ging praten als zijn klanten. Niet echt wat Microsoft voor ogen had, dus ze haalden de chatbot al een dag na de lancering offline.

In de zorg kun je je dergelijke experimenten niet veroorloven. Als de gezondheid van een patiënt verslechtert als gevolg van een verkeerde beslissing van een algoritme, kun je niet even zeggen: ‘Jammer dan. Dit werkt blijkbaar niet. Laten we opnieuw beginnen.’

Human touch

“Denk er ook aan dat AI niet de human touch levert”, zegt Kim. Zijn bedrijf heeft een oplossing ontwikkeld die een gamingtoepassing, een slimme handschoen die beweging waarneemt, inzet voor de revalidatie van hartpatiënten.

“We weten dat patiënten die na een operatie moeten revalideren de oefeningen die ze thuis zouden moeten doen vaak maar half-half uitvoeren. Onze oplossing maakt bewegen leuk. Het is een soort game die ze stimuleert. En door mee te kijken op afstand houden we in de gaten of patiënten niet teveel of te weinig doen. Dat werkt beter dan wanneer ze oefeningen van de revalidatietherapeut krijgen voorgeschreven. Maar de menselijke begeleiding van de revalidatietherapeut blijft wel degelijk belangrijk. Je kunt niet alles aan het algoritme en een bewegingsspel overlaten. Het is niet of-of, maar en-en.”

Uitlegbaarheid

Een ander aspect dat de toepassing van AI complex maakt, is de uitlegbaarheid van de uitkomsten. Een andere spreker is Ang Sun van Humana, een bedrijf waar Philips veel mee samenwerkt. “AI is meestal een black box”, vertelt hij. “Je kunt niet meer achterhalen hoe het algoritme tot zijn beslissingen komt. Helemaal wanneer je meerdere databronnen combineert waar je zelf niet de volledige controle op hebt. Dat houdt de adoptie ervan op dit moment tegen.”

Humana ontwikkelt veel oplossingen op basis van de IC-data die Philips genereert. Het wordt een heel ander verhaal wanneer je daar ook door patiënten gegenereerde data aan wilt toevoegen van activity trackers en wat dies meer zij. Maar zelfs als de data wordt gegenereerd door apparatuur van het ziekenhuis is het lastig.

“Want”, zegt Sun, “in dat geval zijn de data zelf wel heel betrouwbaar, maar je kent de context niet. Die mensen lopen immers rond en liggen, in tegenstelling tot IC-patiënten, niet op bed.” Hier voegt Kim aan toe: “In de normale wereld hanteer je de PDCA-cyclus. Je gaat pas verder naar de volgende stap als de voorgaande volledig en goed is afgerond. AI kan die cyclus afwerken zonder dat je nog weet wat het resultaat is van de P, D, C en A-fase. Er is geen feedback loop meer tussen de stappen. Op dat moment verlies je de controle over de analyse en is het niet meer uitlegbaar.”

Extreem complex grondwerk

Tas constateert dat mensen zich vaak snel laten meevoeren door de mogelijkheden van AI, zonder dat ze begrijpen welk grondwerk nodig is om zorg echt persoonlijk te maken. Hij noemt als voorbeeld de augmented oplossing voor diabetes type 1 patiënten, waar Philips al jarenlang aan werkt.

De eerste stap was een app, ontwikkeld in samenwerking met Salesforce en Radboudumc, die diabetes type 1 patiënten helpt bij het monitoren van hun lifestyle. Tas: “Mijn eigen dochter heeft diabetes type 1. Ze is hoogopgeleid en sterk gemotiveerd. Zij is in staat om inzichten te halen uit haar data en kan ook inschatten wat het effect is van een bepaalde interventie, insuline toedienen, iets eten, op haar bloedsuikerspiegel. Er zijn echter ook patiënten die niet zoveel kennis hebben en minder gemotiveerd zijn. Die wil je ook kunnen helpen met advies op maat. Zo ver zijn we nog lang niet, want het advies moet volledig worden gepersonaliseerd. Er zijn ontzettend veel factoren die van invloed zijn en iedere patiënt reageert weer anders op die factoren. Het is extreem complex. Maar we zetten wel stappen om daar te komen.”

De beloften van AI zijn mooi en zijn zeker een bruikbare stip op de horizon. Maar het vraagt nog veel werk op diverse fronten voor er daadwerkelijk sprake is van augmented health. De buddy die de patiënt op ieder moment en in iedere omstandigheid van advies op maat voorziet, is er nog lang niet.

Gerelateerde berichten...