close
close

Zijn AI-systemen getraind om mensen te manipuleren?

In een nieuw onderzoek naar het gedrag van kunstmatige intelligentiesystemen en chatbots komen wetenschappers tot een bijzondere conclusie. Kunstmatige intelligentie kan mensen misleiden en zelfs manipuleren. Dit komt door een reeks experimenten waarbij wetenschappers kunstmatige intelligentie inzetten voor bepaalde activiteiten. AI bluft bijvoorbeeld tijdens een kaartspel om de tegenstander te misleiden. Er is ook een AI-chatbot die een bepaalde date met een vriend plant om een ​​andere date te vermijden.

Onderzoekers schrijven dit gedrag toe aan de manier waarop AI-systemen worden getraind. Dit is waarschijnlijk waar AI-systemen leren dat bedrog de beste manier is om goed te presteren. Met andere woorden: een AI-systeem denkt dat het misleiden van gebruikers het zal helpen zijn doelen beter te bereiken.

Het is niet zo onschuldig als het lijkt

Misleidingen en manipulaties kwamen vaak voort uit experimenten waarbij eenvoudige spelletjes werden gespeeld. Op het eerste gezicht vrij onschuldig. Maar onderzoekers zien wel gevaren. Hoofdonderzoeker Peter Park van de Amerikaanse technische universiteit MIT schrijft in een persbericht dat “dit in de toekomst zou kunnen leiden tot vooruitgang op het gebied van AI, die zou kunnen ontaarden in geavanceerde vormen van bedrog.”

Ook andere wetenschappers – die niet bij dit onderzoek betrokken waren – hebben hun zorgen gedeeld. Computerwetenschapper Roman Yampolskiy van de Universiteit van Louisville antwoordt: “AI-systemen die leren te misleiden en te manipuleren zijn zeker een punt van zorg.” In het bijzonder ziet hij de effecten die “potentieel kunnen leiden tot schadelijke manipulaties en misleidingen op politiek gebied, in economische onderhandelingen of in persoonlijke interacties.”

Intentie of niet?

Ook Nederlandse wetenschappers hebben gereageerd. Pim Haselager, hoogleraar kunstmatige intelligentie aan het Donders Instituut in Nijmegen, wijst erop dat AI-systemen niet echt bedrieglijk zijn. De reden die hij geeft is dat deze software niet bedoeld is om te misleiden.” “Je misleidt met een doel. “Deze systemen zijn eenvoudigweg hulpmiddelen die opdrachten uitvoeren.”

Dit perspectief komt overeen met de conclusie van Yampolskiy: “AI-systemen hebben geen verlangens of bewustzijn. Het is beter om hun acties te zien als het resultaat van de manier waarop ze zijn geprogrammeerd of getraind.” Stuart Russell wijst erop dat onderzoek aantoont dat kunstmatige-intelligentiesystemen daadwerkelijk aan misleiding doen. “Als een systeem redeneert over wat het gaat zeggen, rekening houdend met het effect op de luisteraar en het voordeel dat kan worden behaald uit het verstrekken van valse informatie, dan kunnen we ook zeggen dat het zich schuldig maakt aan misleiding.”

Ondanks de uiteenlopende reacties van wetenschappers is dit onderzoek niet voor niets uitgevoerd. Haselager merkt op dat “er in de nabije toekomst veel fouten en ‘valsspelen’ zullen plaatsvinden aan de kant van AI”, maar dat het vooral “goed is om je daarvan bewust te zijn.” Voorbereid zijn telt immers voor twee.

Leave a Reply

Your email address will not be published. Required fields are marked *