zomerblog

Zomerblog: Virtuele companions: altijd vriendschap binnen handbereik?

22.08.2023

Ah die zomervakanties ! Een periode in het jaar waar we collectief naar uitkijken. Het ideaal van onthaasten, niet met werk of school bezig zijn, terugplooien op onszelf, ons gezin en onze vrienden. Ik herinner me die lange zomervakanties als kind: 2 maanden vakantie, een eindeloze zee aan tijd. Als enig kind ook een tijd van veel gaan aanbellen bij de buren of de buurkinderen buiten mochten spelen. Veel dingen gaan doen om me niet al te veel te vervelen en andere mensen te ontmoeten. Mijn vader zijn hart brak altijd als ik het cassetje van Kinderen voor Kinderen in de auto speelde met als refrein “Kom je strakjes bij mij spelen, want ik ben alleen, tralalalala …”

Mocht ik nu kind zijn, zou ik nog mijn moed samen rapen om weer iemand aan te spreken in de speeltuin? Zou ik liever bezig zijn met een soort van vriendjes app, zoals bijvoorbeeld Replika? Waarschijnlijk wel, op hun webpagina zegt Replika :”The AI companion who cares” is, met als ondertitel “ Always here to listen and talk. Always on your side” Als onzekere tiener had me dat zeker aangesproken, maar ook op andere eenzame momenten in een mensenleven lijkt me dit een nuttige tool. Je moet officieel wel 18+ zijn om de app te gebruiken, maar we weten allemaal hoe dat gaat.

Een andere tool, Chai chat presenteert zich dan weer veel beknopter, maar maakt toch ook heel opvallende claims in zijn vision :”Our models will make you smile and laugh after a hard day 🤗 We believe that in two years' time 50% of people will have an AI best friend. AI friends are already changing the lives of our users.” Een getuigenis van een anonieme gebruiker verwijst vervolgens naar de hulp die ze heeft gekregen bij eetstoornissen, slapeloosheid, angstaanvallen. Ook voor ondersteuning in onze mentale gezondheid hebben deze toepassingen dus hun potentieel. Sociale verbondenheid, sociale steun en contact met anderen zijn belangrijke componenten om eenzaamheid tegen te gaan, en heeft zelfs aantoonbare impact op onze fysieke gezondheid, dus wie kan er tegen deze ontwikkeling zijn?

Je bot kan je helemaal personaliseren aan jouw behoeften, vriendschappelijk, romantisch of seksueel, een troostende schouder om op te huilen, als therapeut, of als iemand met dezelfde interesses voor muziek, boeken of sport. Je loopt minder kans op een slechte match of valse profielen die je met andere digitale vriendschap apps kan ervaren. Gebruiksgemak en efficiëntie allom dus. Maar draaien relaties en vriendschappen daarrond? Wat met de authenticiteit, de generositeit, de eerlijkheid, de wederkerigheid. De connectie met een ander levend wezen?

Niet dat ik denk dat elke vriendschap enkel waardevol is als ze aan het ideaal voldoen van wederzijdsheid en gelijkwaardigheid, wat een bot sowieso nooit kan geven. Ik zie dit soort apps zeker als een manier van diversifiëren in relaties, waarbij het advies van mijn moeder doorklinkt dat je best verschillende vrienden zoekt voor verschillende dingen die je belangrijk vindt, in plaats van alles van dezelfde persoon te verwachten. Het is sowieso een vorm van betaald gezelschap. Je betaalt op zijn minst met je data als het de gratis versie is, en anders is er een abonnementskost. Het betaald gezelschap is ook van alle tijden en hoeft niet louter seksueel of negatieve associaties op te roepen: denk maar aan de burgerlijke gezelschapsdames in de 19de eeuw.

Maar vriendschappen of relaties eindigen ook in ons dagelijks leven. Dat verwachten we dan misschien niet van een betaalde vriendschap, maar ook daarvan zijn er diverse recente voorbeelden. Replika zette een tijdje de erotische dienstverlening stop, tot groot ongenoegen van de gebruikers die hun virtuele partner niet meer konden verleiden tot een pikante conversatie. Woebot, een chatbot die als uitdrukkelijk doel heeft in mentale coaching, herfocust zijn business model op gezondheidszorg aanbieders in de VS en laat zijn gebruikers buiten dit grondgebied weten dat ze de diensten stopzetten en dat men lokaal hulp moet zoeken indien men nood heeft aan mentale ondersteuning. Gezien de wachtlijsten bij onze hulpverleners lijkt me dit nogal een gemakzuchtige oplossing voor een tool die zo hoge verwachting heeft gecreëerd bij zijn gebruikers gedurende jaren. Er moeten dus meer verplichtingen zijn qua nazorg voor dit type van dienstverlening.

We weten uit onderzoek dat we niet veel nodig hebben om een sociale relatie aan te gaan met dingen, technologie rondom ons – ja ook u gaf al wel eens een naam aan uw auto, stofzuigerrobot, … Het voelen van verbondenheid gebeurt zeker als de technologie ontworpen is om deze sociale nood in te vullen door te leren van wat we zeggen en daarop te kunnen inspelen. Dat leren en herkennen gebeurt via AI modellen, die getraind worden door mensen.

Een paar maanden geleden tijdens een panelgesprek georganiseerd door BOSA wees Mieke Deketelaere erop dat daar net het schoentje wringt: de manier waarop bedrijven zoals Chai Research dit onderdeel van hun proces organiseren. De ontwikkeling van de specifieke bots startende van bestaande pre-trained open source modellen wordt vooral uitbesteed via wedstrijden, waaraan buitenproportioneel veel mannelijke tieners deelnemen die een gepornificeerd beeld hebben over hoe een relatie liefst in elkaar zit. Er wordt niet gechecked of men optimaliseert voor universele mensenrechten, integendeel! Het basisprobleem voor vertrouwenswaardige AI komt dan frontstage: het snel repliceren en versterken van bestaande sociale vooroordelen en stereotypen door hergebruik van beschikbare data en modellen. Een bekend en moeilijk probleem om aan te pakken, met vandaag te weinig economische beloningen om er stevig en systematisch in te investeren.

In een reactie op ophef hierrond publiceerde Chai Research recent een paper om hun “safety framework” toe te lichten, waarbij in de conclusie benadrukt wordt dat continue “stewardship”, lees menselijke toezicht en ingrijpen nodig is. Wedstrijden worden nog steeds georganiseerd om de ontwikkeling op snelheid te houden. Het format is wel beetje aangepast en er wordt ook naar de interne “safety testen” verwezen vooraleer het model via A/B testing op de Chai community voor evaluatie wordt losgelaten. Replika geeft ook aan dat rond veiligheid niet één makkelijke oplossing bestaat en communiceert wel naar de eindgebruikers over hoe ze hieraan werken: creëren van een meer volledige en diverse dataset, schadelijke statements verwijderen en werken aan gepaste antwoorden in verband met gevoelige topics. Hun ontwikkelingsteam en aanpak blijft echter voor jou als consument te weinig transparant.

Virtual companionship apps kunnen zeker hun waarde hebben. Ik zie het als een uitbreiding; een aanvulling, mits ze zorgvuldig ontwikkeld en onderhouden worden met zoveel mogelijk aandacht voor het bevorderen van de voordelen voor zijn gebruikers en het beperken van de nadelen en negatieve impact op mens en maatschappij. Een veel grotere transparantie over commerciële doelen en ontwikkelingsaanpak is een noodzakelijke voorwaarde hierbij.

Auteur

Auteur

An Jacobs

imec-SMIT, VUB

email