close
close

Verzadigingsmeters zijn minder betrouwbaar bij een donkere huid – TIC&salud

Volgens de auteurs van het onafhankelijke onderzoek is onmiddellijke actie nodig om de invloed van etnische en andere vooroordelen op het gebruik van medische hulpmiddelen aan te pakken. Bias is synoniem met vooringenomenheid en verwijst naar ongerechtvaardigde vooringenomenheid in algoritmen of besluitvorming die leidt tot oneerlijke resultaten, discriminatie of voorkeur voor de ene groep boven de andere. Dit kan gebaseerd zijn op verschillende factoren, zoals ras, geslacht, leeftijd, maar ook sociaal-economische status. Een goed voorbeeld zijn de eerder genoemde saturatiemeters, die lichtgolven door de huid van de patiënt sturen om het zuurstofgehalte in het bloed te schatten.

In de praktijk blijken ze minder nauwkeurig te zijn voor mensen met een donkere huidskleur. Dit maakt het moeilijker om gevaarlijke dalingen in het zuurstofniveau te detecteren. Daarnaast waarschuwt het dat apparaten die AI gebruiken het risico op huidkanker bij mensen met een donkere huidskleur onderschatten.

Vooringenomen verzadigingsmeters

Een onderzoek uit 2022, ingegeven door zorgen over de toegenomen risico’s van COVID-19 voor etnische minderheden, en een recent onderzoek uit maart onderzochten de risico’s van optische medische hulpmiddelen, AI in de gezondheidszorg en polygenetische risicoscores voor het ‘substantieel’ veroorzaken van letsel. Pulsoximeters, die veel worden gebruikt tijdens de COVID-19-pandemie, kunnen het zuurstofniveau bij mensen met een donkere huidskleur overschatten, wat negatieve gevolgen voor de gezondheid kan hebben. De Britse regering heeft al actie ondernomen, zoals het bijwerken van de NHS-richtlijnen, maar er is meer actie nodig om vooroordelen in deze technologieën weg te nemen. Deze vooringenomenheid treft vooral vrouwen, etnische minderheden en sociaal-economisch achtergestelde groepen en kan onbewust worden opgenomen en versterkt in door AI aangedreven medische apparaten.

Voordelenschandaal

De adoptie van door AI aangedreven medische apparaten is nu wijdverbreid en ingebouwde vooroordelen kunnen leiden tot een slechtere gezondheidszorg voor de getroffen bevolkingsgroepen. Het varieert van gezichtsherkenningssoftware die moeite heeft om mensen met een donkere huidskleur correct te identificeren tot het inhuren van algoritmen die onbewust discrimineren op basis van geslacht of afkomst.

Een goed voorbeeld van dat laatste waren de bevooroordeelde algoritmen die in Nederland tot het gigantische uitkeringsschandaal leidden. Deze en vele andere kwesties wijzen op een dringende behoefte aan meer inclusieve ontwerpprocessen die de diversiteit van gebruikers weerspiegelen en vooroordelen in de ontwikkelingsfase minimaliseren. Uiteindelijk gaat deze uitdaging veel verder dan alleen de gezondheidszorg. Technologische bias heeft ook duidelijke gevolgen in sectoren als justitie, financiën en human resources. Ten slotte is het belangrijk om niet alleen raciale en gendervooroordelen aan te pakken, maar ook te zorgen voor de inclusie van mensen met lage digitale vaardigheden in de gezondheidszorg en alle andere sectoren.

Leave a Reply

Your email address will not be published. Required fields are marked *