Robots vergezellen ouderen en helpen rokers stoppen, hoe werkt dat?

Virtuele personen zouden binnenkort eenzame ouderen gezelschap kunnen houden. Foto: ANP/Thomas Kuhlenbeck

– Chatbots die je helpen stoppen met roken en virtuele personages die eenzame, dementerende ouderen gezelschap houden. Dit soort ontwikkelingen op het gebied van kunstmatige intelligentie, artificial intelligence (AI), kunnen binnenkort weleens vanuit de Radboud Universiteit komen. Toch moet het altijd bedoeld zijn als aanvulling op en geen vervanging van menselijk contact, waarschuwt hoogleraar Tibor Bosse.

Bosse doet onder meer onderzoek naar de ontwikkeling van sociale AI, zoals chatbots en sociale robots. Daarmee probeert hij ‘bruggen te slaan tussen de mens en de techniek’. “Het gaat eigenlijk om alle vormen van technologie waar mensen een sociale interactie mee kunnen hebben”, verduidelijkt Bosse. “Computers die zich op de een of andere manier menselijk voordoen.”

Robot in het ziekenhuis

Tegenwoordig denk je dan al snel aan chatbots of ChatGPT waarmee je met tekst kunt interacteren, ziet Bosse. “Je tikt een zin of spreekt tegen de computer die een antwoord in tekst teruggeeft. Maar een robot in het ziekenhuis die een vragenlijst bij patiënten afneemt, zie je ook steeds vaker.”

Soms voelt dat heel echt, ervaart Bosse. “Lijkt het bijna alsof je met een echt persoon aan het praten bent. Maar we weten allemaal dat het ding niets voelt. Dat het gewoon een koud stukje techniek is.”

Hoogleraar Tibor Bosse. – Foto: Omroep Gelderland

Daarbij zijn er voorgeprogrammeerde chatbots, maar ook moderne varianten die via AI echt teksten genereren die niemand van tevoren zo geschreven heeft, weet Bosse. “Natuurlijk zijn die wel geïnspireerd door heel veel bestaande teksten.”

Chatbot helpt bij stoppen met roken

Een concrete toepassing daarvan die op dit moment wordt ontwikkeld, is bijvoorbeeld een chatbot die mensen moet helpen om te stoppen met roken, schetst Bosse. “Daarbij proberen we AI dan in te zetten om een reflectie te geven op antwoorden van mensen over hun rookgedrag.”

Ook zijn er projecten om met behulp van een VR-bril in een virtuele wereld training te geven, vervolgt Bosse. “Bijvoorbeeld met personeel in het openbaar vervoer, zoals buschauffeurs en tramconducteurs. Om te oefenen hoe ze met reizigers om moeten gaan wanneer agressie gede-escaleerd moet worden. Het lukt steeds beter om virtuele personagers daarbij realistisch te laten reageren.”

Hulp bij dementie

Een andere ontwikkeling is het gebruik van AI bij patiënten met dementie, vertelt Bosse. “Die zijn vaak eenzaam en zitten veel thuis met te weinig aandacht. We zijn een soort visuele buddy aan het maken die zichtbaar wordt op een scherm op de muur wanneer die persoon daar om vraagt. Daar kun je dan bijvoorbeeld bepaalde vragen aan stellen. Of die kan helpen herinneren wat er in iemand zijn agenda staat of wanneer de medicijnen moeten worden genomen.”

Je moet natuurlijk oppassen dat er een situatie ontstaat waarbij de familie denkt niet meer op bezoek te hoeven komen omdat er al een robot is.

hoogleraar Tibor Bosse

Een beetje een triest beeld is het ook wel dat iemand maar tegen een robot aan moet praten omdat er te weinig aandacht voor diegene is, erkent Bosse. “Er zitten altijd twee kanten aan dat soort ontwikkelingen. Je moet natuurlijk oppassen dat er een situatie ontstaat waarbij de familie denkt niet meer op bezoek te hoeven komen omdat er al een robot is.”

Uiteindelijk is de mens ook altijd beter dan de robot als het gaat om toepassingen in de sociale AI, bevestigt Bosse. “Maar het wordt vaak als aanvulling gebruikt, omdat er simpelweg een tekort aan personeel is. Of om kosten te besparen.”

‘Meegenomen in illusie’

Er zitten wel een aantal pluspunten aan het gebruik van sociale AI, ziet Bosse. “Het is anoniem. Een computer oordeelt niet en veroordeelt jou dus niet. Daardoor vertellen mensen soms veel meer over hun persoonlijke situatie. Het voelt soms ook laagdrempeliger. Mensen kunnen een barrière ervaren om naar een arts of therapeut te stappen.”

Uit onderzoek blijkt ook dat mensen van nature heel erg de neiging hebben om gewoon sociaal om te gaan met machines, weet Bosse. “Als er een ding voor je staat en dat heeft menselijke kenmerken. Dat hoeft bijvoorbeeld maar een auto te zijn met ogen op zijn koplampen. Dan projecteren wij daar heel snel menselijke eigenschappen op. Je wordt meegenomen in een soort illusie. Alsof je in de bioscoop zit. Je weet wel dat het niet echt gebeurt, maar dat besef schakel je even uit.”

Seksistische of racistische uitspraken

Soms slaan chatbots de plank ook volledig mis, erkent Bosse. “Dat kan betekenen dat er soms zelfs seksistische of racistische uitspraken uit kunnen komen, omdat die toevallig in de data zaten. Ook is er wel eens geprobeerd om chatbots in de gezondheidszorg te laten ondersteunen. Dan kreeg iemand met suïcidale neigingen bijvoorbeeld als reactie: ‘Ja, dat zou je wel kunnen doen.’ Dat zijn natuurlijk vreselijke situaties waarin het helemaal misgaat.”

Bij kleine foutjes die een chatbot maakt, bijvoorbeeld wanneer die een vraag niet begrijpt, helpt het al als die daarvoor zijn excuses aanbiedt, merkt Bosse. “Dat verlicht de frustratie bij de gebruiker.”

‘Mensen goed opleiden’

Een spanningsveld is wel dat je ook weer geen wereld wilt creëren waarin mensen helemaal geen behoefte meer hebben aan sociaal contact omdat ze hun robots en chatbots al hebben, erkent Bosse. “Het moet dus nooit bedoeld zijn als vervanging van, maar altijd een aanvulling op menselijk contact”, benadrukt hij. “Het moet ook altijd transparant zijn dat je te maken hebt met een computer en niet met een mens. We moeten mensen goed opleiden in wat die AI wel en niet kan.”

De Rijksinspectie Digitale Infrastructuur (RDI), een van de organisaties die in Nederland een rol speelt in de controle op AI, laat weten dat chatbots niet onder een specifiek toezicht vallen. Op het moment dat chatbots discrimineren of van persoonsgegevens gebruikmaken, dan zijn bijvoorbeeld de Commissie voor de Rechten van de Mens of de Autoriteit Persoonsgegevens bevoegd om op het gebruik toe te zien, stelt een woordvoerder.

“Mocht het gebruik van sommige chatbots onder high risk AI-systemen vallen, dan zal er vanuit de AI Act toezicht op worden gehouden. Maar wie dat doet, is afhankelijk van het gebruik.”

Tot op heden zijn er nog geen misstanden geconstateerd in relatie tot het gebruik van AI in chatbots door het RDI. Mocht dat wel zo zijn dan hebben toezichthouders volgens de woordvoerder de mogelijkheid om te handhaven met boetes, een last onder dwangsom of verwijdering van de chatbot.