Geneeskunde, AI en vooringenomenheid: zullen slechte gegevens goede technologie ondermijnen?

Kunstmatige intelligentie modellen kunnen helpen ziekten te voorspellen en te voorkomen. Maar recent onderzoek laat zien met welke uitdagingen ze te maken hebben bij het verschaffen van inzichten die voor iedereen werken.

Geneeskunde, AI en vooroordelen: zullen slechte gegevens goede technologie ondermijnen?

Door Natalie Sabin

18 mei 2022 C Stel je voor dat je de Library of Congress binnenloopt, met zijn miljoenen boeken, en het doel hebt om ze allemaal te lezen. Onmogelijk, toch? Zelfs als je elk woord van elk werk zou kunnen lezen, zou je niet alles kunnen onthouden of begrijpen, zelfs al zou je het een leven lang proberen.

Stel nu dat je een superkrachtig brein zou hebben dat al die informatie zou kunnen lezen en begrijpen. Dan zou je nog steeds een probleem hebben: je zou niet weten wat er niet in die boeken stond, welke vragen ze niet hadden beantwoord, wiens ervaringen ze hadden weggelaten.

Op dezelfde manier hebben onderzoekers van vandaag een duizelingwekkende hoeveelheid gegevens te doorzoeken. Alle collegiaal getoetste studies van de wereld bevatten meer dan 34 miljoen citaten. Miljoenen meer datasets onderzoeken hoe zaken als bloedonderzoek, medische en familiegeschiedenis, genetica, en sociale en economische kenmerken van invloed zijn op de resultaten van patiënten.

Kunstmatige intelligentie stelt ons in staat meer van dit materiaal dan ooit te gebruiken. Opkomende modellen kunnen enorme hoeveelheden gegevens snel en nauwkeurig ordenen, potentiële patiëntresultaten voorspellen en artsen helpen beslissingen te nemen over behandelingen of preventieve zorg.

Geavanceerde wiskunde is veelbelovend. Sommige algoritmen C instructies voor het oplossen van problemen C kunnen borstkanker diagnosticeren met een grotere nauwkeurigheid dan pathologen. Andere AI-instrumenten worden al gebruikt in medische settings, waardoor artsen sneller de medische voorgeschiedenis van een patiënt kunnen opzoeken of beter in staat zijn radiologiebeelden te analyseren.

Maar sommige deskundigen op het gebied van kunstmatige intelligentie in de geneeskunde suggereren dat hoewel de voordelen voor de hand lijken te liggen, minder opgemerkte vooroordelen deze technologieën kunnen ondermijnen. Zij waarschuwen zelfs dat vooroordelen kunnen leiden tot ineffectieve of zelfs schadelijke besluitvorming in de patiëntenzorg.

Nieuwe instrumenten, dezelfde vooroordelen?

Hoewel veel mensen vooroordelen associëren met persoonlijke, etnische of raciale vooroordelen, is vooringenomenheid in ruime zin een neiging om in een bepaalde richting te neigen, hetzij ten gunste van of ten nadele van iets.

In statistische zin is er sprake van vooringenomenheid wanneer gegevens niet volledig of accuraat representatief zijn voor de populatie die ze moeten modelleren. Dit kan het gevolg zijn van slechte gegevens in het begin, of het kan zich voordoen wanneer gegevens van de ene populatie per vergissing op een andere populatie worden toegepast.

Beide soorten vertekeningen - statistische en raciale/etnische - bestaan in de medische literatuur. Sommige bevolkingsgroepen zijn meer bestudeerd, terwijl andere ondervertegenwoordigd zijn. Dit doet de vraag rijzen: Als we AI-modellen bouwen op basis van de bestaande informatie, geven we dan oude problemen door aan nieuwe technologie?

Dat is zeker een punt van zorg, zegt David M. Kent, MD, directeur van het Predictive Analytics and Comparative Effectiveness Center van Tufts Medical Center.

In een nieuwe studie hebben Kent en een team van onderzoekers 104 modellen onderzocht die hartziekten voorspellen C modellen die zijn ontworpen om artsen te helpen beslissen hoe zij deze aandoening kunnen voorkomen. De onderzoekers wilden weten of de modellen, die eerder accuraat hadden gepresteerd, het even goed zouden doen wanneer ze op een nieuwe groep patiënten werden getest.

Hun bevindingen?

De modellen deden het slechter dan men zou verwachten, zegt Kent.

Ze waren niet altijd in staat om hoog- van laag-risicopatiënten te onderscheiden. Soms overschatten of onderschatten de modellen het ziekterisico van de patiënt. Alarmerend is dat de meeste modellen schadelijk kunnen zijn als ze in een echte klinische omgeving worden gebruikt.

Waarom was er zo'n verschil in de prestaties van de modellen bij hun oorspronkelijke tests, vergeleken met nu? Statistische vertekening.

Voorspellende modellen generaliseren niet zo goed als mensen denken, zegt Kent.

Wanneer je een model van de ene database naar de andere verplaatst, of wanneer dingen veranderen in de tijd (van het ene decennium naar het andere) of in de ruimte (van de ene stad naar de andere), slaagt het model er niet in die verschillen te vatten.

Daardoor ontstaat een statistische vertekening. Als gevolg daarvan vertegenwoordigt het model niet langer de nieuwe patiëntenpopulatie, en werkt het wellicht minder goed.

Dat betekent niet dat AI niet in de gezondheidszorg mag worden gebruikt, zegt Kent. Maar het laat wel zien waarom menselijk toezicht zo belangrijk is.

De studie toont niet aan dat deze modellen bijzonder slecht zijn, zegt hij. Het wijst op een algemene kwetsbaarheid van modellen die proberen absolute risico's te voorspellen. Het toont aan dat modellen beter moeten worden gecontroleerd en bijgewerkt.

Maar zelfs menselijk toezicht heeft zijn grenzen, zo waarschuwen de onderzoekers in een nieuw artikel waarin zij pleiten voor een gestandaardiseerd proces. Zonder een dergelijk kader, kunnen we alleen de vertekening vinden waar we denken naar te zoeken, merken zij op. Nogmaals, we weten niet wat we niet weten.

Vooringenomenheid in de Black Box

Ras is een mengsel van fysieke, gedragsmatige en culturele attributen. Het is een essentiële variabele in de gezondheidszorg. Maar ras is een ingewikkeld concept, en er kunnen problemen ontstaan bij het gebruik van ras in voorspellende algoritmen. Hoewel er gezondheidsverschillen bestaan tussen raciale groepen, kan er niet van worden uitgegaan dat alle mensen in een groep hetzelfde gezondheidsresultaat zullen hebben.

David S. Jones, MD, PhD, professor in cultuur en geneeskunde aan de Harvard University, en co-auteur van Hidden in Plain Sight C Reconsidering the Use of Race Correction in Algorithms, zegt dat veel van deze hulpmiddelen [analoge algoritmen] gezondheidszorgmiddelen lijken te sturen in de richting van blanke mensen.

Rond dezelfde tijd werden soortgelijke vooroordelen in AI-instrumenten vastgesteld door onderzoekers Ziad Obermeyer, MD, en Eric Topol, MD.

Het gebrek aan diversiteit in klinische studies die de patiëntenzorg beïnvloeden, is al lang een punt van zorg. Een punt van zorg is nu, aldus Jones, dat het gebruik van deze studies om voorspellende modellen op te stellen niet alleen deze vooroordelen doorgeeft, maar ze ook onduidelijker en moeilijker te detecteren maakt.

Vóór de opkomst van AI waren analoge algoritmen de enige klinische optie. Dit soort voorspellende modellen worden met de hand berekend in plaats van automatisch.

Bij gebruik van een analoog model, aldus Jones, kan een persoon gemakkelijk naar de informatie kijken en precies weten welke patiëntinformatie, zoals ras, al dan niet is opgenomen.

Nu, met hulpmiddelen voor machinaal leren, kan het algoritme gepatenteerd zijn C wat betekent dat de gegevens voor de gebruiker verborgen zijn en niet kunnen worden gewijzigd. Het is een zwarte doos. Dat is een probleem omdat de gebruiker, een zorgverlener, misschien niet weet welke informatie over de patiënt is opgenomen, of hoe die informatie de aanbevelingen van de AI zou kunnen beïnvloeden.

Als we rassen gebruiken in de geneeskunde, moet dat volledig transparant zijn, zodat we kunnen begrijpen en beredeneerd kunnen oordelen of het gebruik ervan gepast is, aldus Jones. De vragen die beantwoord moeten worden zijn: Hoe, en waar, rassenlabels zo te gebruiken dat ze goed zijn zonder schade aan te richten.

Moet je je zorgen maken over AI in de klinische zorg?

Ondanks de stroom van AI-onderzoek, moeten de meeste klinische modellen nog worden toegepast in de echte zorg. Maar als u zich zorgen maakt over het gebruik van technologie of ras door uw zorgverlener, stelt Jones voor proactief te zijn. U kunt de zorgverlener vragen: Zijn er manieren waarop uw behandeling van mij is gebaseerd op uw begrip van mijn ras of etniciteit? Dit kan een dialoog op gang brengen over de beslissingen die de zorgverlener neemt.

Intussen zijn de deskundigen het erover eens dat er wel degelijk problemen zijn met betrekking tot statistische en raciale vooroordelen binnen de kunstmatige intelligentie in de geneeskunde en dat die moeten worden aangepakt voordat de hulpmiddelen op grote schaal worden gebruikt.

Het echte gevaar is dat er tonnen geld worden gestoken in nieuwe bedrijven die voorspellende modellen maken en die onder druk staan om een goed [rendement op investering] te krijgen, zegt Kent. Dat zou tot conflicten kunnen leiden om modellen te verspreiden die misschien nog niet klaar of onvoldoende getest zijn, wat de kwaliteit van de zorg zou kunnen verslechteren in plaats van verbeteren.

Hot