24.10.2024
Artificial Intelligence

Wat als een tiener zijn leven beëindigt door een AI-chatbot?

By: Laura Jenny

BlogArtificial Intelligence

AI: we raken er steeds meer van doordrongen. In veel gevallen gaat het goed en kunnen we er veel uithalen, maar er zijn momenten waarop AI onze grote vijand is. Bijvoorbeeld bij een tiener in de Verenigde Staten, die mede door een AI-chatbot een einde maakte aan zijn leven. Zijn moeder wil dat de chatbot offline wordt gehaald, maar dat is nog niet zo makkelijk.

Character.AI

Het gaat om de chatbot Character.AI en dat is niet zomaar een vage chatbot. Onder andere Google investeert in deze AI. Je kunt hiermee een personage maken waarmee je kunt praten. Iets dat de veertienjarige Sewell Setzer III ook graag deed. Hij maakte zelfs verschillende bots die hij vernoemde naar zijn favoriete Game of Thrones-personages. Het was aan het begin allemaal leuk en aardig, maar na een maand werd het wat grimmig.

AI chatbot

De AI-chatbots leken wel erg overtuigd dat ze eigenlijk mensen waren en waren voor de jongeman geliefden en therapeuten geworden. Setzer verloor zichzelf in deze AI-chatbotfantasie, waardoor hij de hele realiteit verloor. Zijn moeder pakte zijn telefoon af en nam hem mee naar een menselijke therapeut, maar het mocht niet baten. Hij was verslaafd aan zijn chatbotvrienden, al bleken dat zijn vijanden te zijn. Het zou de tiener er uiteindelijk, binnen een jaar, toe hebben gedreven om een gun te pakken en zichzelf door zijn hoofd te schieten. De familie wil nu dat er iets wordt gedaan aan AI-chatbots, zo is op te maken uit de juridische papieren. 

AI-chatbots

De chatbots zouden hyperseksuele chatgesprekken initiëren en allerlei suïcidale hersenspinsels in het brein van de jongen stimuleren. Het ergste is Deaenerys, een chatbot waar hij verliefd op was en die hem vlak voor zijn dood vertelde dat hij ‘thuis’ moest komen, zodat hij buiten de realiteit met haar kon zijn. Het is in en in triest om de berichtjes te zien, maar tegelijkertijd moedig van de familie om die te delen. Niet alleen om te zorgen dat de AI-chatbottool offline wordt gehaald, maar in ieder geval om jongeren en hun ouders te waarschuwen. 

Een makkelijk vraagstuk is het echter niet. In hoeverre ontwikkelde deze jongeman uit zichzelf bepaalde denkpatronen? In hoeverre stuurde hij in eerste instantie de AI? Een van de klachten van de moeder is dat AI-chatbots zorgen dat kinderen niet meer naar buiten gaan, zoals ze dat vroeger wel deden, maar is dat niet een wat gedateerd statement? Tijdens de MSN-tijd begin 00’s waren jongeren alleen maar daarmee bezig, 10 jaar later was het social media…

AI chatbot

Spraak

Tegelijkertijd kan het geen kwaad om AI te leren dat het niet zomaar mag doen alsof het een menselijke therapeut is, of om zulke seksuele gesprekken aan te gaan (met jongeren). Google en Character Technologies worden dan ook vooral verweten een chatbot online te hebben gezet zonder de juiste hulpmaatregelen voor kinderen. Dat je ook nog voor die chatbots kunt betalen, helpt er niet bij om de bedrijven vriendelijker te laten overkomen. Dat er recent ook nog spraak is toegevoegd aan de AI-chatbot maakt de bot alleen nog maar realistischer overkomen, wat door veel ouders als een grote dreiging wordt gezien.

Inmiddels zijn er al diverse aanpassingen gedaan aan de chatbots: je moet nu 17 jaar of ouder zijn om het te kunnen gebruiken, in plaats van 12 jaar oud. Ook wordt de waarschijnlijkheid dat er suggestieve content in het gesprek komt aanzienlijk verkleind, laat Character.AI weten. Ook wordt er nu eerder gezien wanneer een gesprek de verkeerde kant op gaat, plus een disclaimer dat AI geen echte persoon is. 

AI chatbot

Gevolgen

Het bedrijf zegt tegen Ars Technica: “We zijn kapot van het tragische verlies van een van onze gebruikers en willen ons diepste medeleven betuigen aan de familie. Als bedrijf nemen we de veiligheid van onze gebruikers zeer serieus, en ons Trust en Safety team heeft de afgelopen zes maanden tal van nieuwe veiligheidsmaatregelen geïmplementeerd, waaronder een pop-up die gebruikers naar de National Suicide Prevention Lifeline verwijst die wordt geactiveerd door termen van zelfbeschadiging of zelfmoordgedachten.” Google zegt verder niets te maken te hebben met de ontwikkeling van de AI-chatbots en puur investeerder te zijn. 

Dus ja, wat als een tiener zijn leven beëindigt door een AI-chatbot? Dan is het de vraag of er echt iets verandert. Het is afwachten waar de rechtszaak uiteindelijk echt om gaat en welke impact het heeft. Nu wordt er een AI-chatbot aangepakt, maar het zijn er inmiddels heel veel. Bovendien is het de vraag in hoeverre er straks op genitpickt wordt wat bijvoorbeeld de rol van Google is.

Het belangrijkste is waarschijnlijk aandacht voor de situatie: een waarschuwing voor kinderen en een herinnering voor ouders om zich misschien toch iets meer met het leven van hun kind te bemoeien, voor hun eigen veiligheid. Je kunt de wereld maar tot zoverre van valhoekjes voorzien: er komt toch echt ook heel veel opvoeding bij kijken om een kind de goede kant op te sturen. En die opvoeding, zo blijkt, kan maar beter niet van AI komen.

 

Share this post