Met Valentijnsdag achter de rug kunnen we het veilig en wel bespreken: AI-chatbots die bedoeld zijn als een soort digitale geliefde zijn onbetrouwbaar. Volgens nieuw onderzoek van de Mozilla Foundation blijken AI-chatbots zoals Eva AI niet het beste met je voor te hebben.
Of althans, niet in de eerste plaats. Ook die schattige Eva AI is gemaakt om geld te verdienen en dat vindt de bot belangrijker dan jouw welzijn. Dat is spijtig, want ze worden juist in markt gezet als robots die er zijn voor jou om te zorgen dat jij je goed voelt. Maar je goed voelen komt dus met een prijs.
Mozilla Foundation is bekend van de internetbrowser Firefox maar buigt zich ook regelmatig over onderwerpen als privacy, inclusie en decentralisatie. Open source is bij Mozilla de basis en het houdt dan ook van open communicatie. Iets waar de AI-lovers wat minder van blijken te houden.
De mensen achter de AI-chatbot zijn niet open en duidelijk over hoe hun AI-modellen werken en daarnaast zouden ze de data van gebruikers niet beschermen. Dat eerste is nog niet eens zo heel erg voor de gebruiker: het is niet ideaal, maar dat tweede is cruciaal voor een gebruiker. Immers vertel je je geliefde zo’n beetje alles over jezelf en je wil niet dat die persoonlijke details ook bij andere mensen bekend worden.
Mozilla zegt dat het gevaarlijk is hoe de apps doen alsof ze je geestelijke gezondheid willen helpen, terwijl ze verder totaal geen transparantie of verantwoordelijkheid willen dragen. De beloftes over de veiligheid van je data zou zelfs een wassen neus zijn. En niet alleen bij Eva AI: Mozilla legde 11 romantische AI-chatbots langs de meetlat en de meeste zijn niet in staat om je persoonlijke data veilig op te bergen. Sterker nog: het ligt niet alleen voor het oprapen (de berichten zijn niet eens versleuteld), ze verkopen het ook gewoon zonder dat je dat weet of hiervoor toestemming hebt gegeven.
Er komen natuurlijk veel ethische vragen bij de AI-geliefdes kijken. Hoe ver kan zo’n bot met zijn ‘eigenaar’ gaan, wat mogen bedrijven zoal opslaan en wat niet, enzovoort. Nu komen daar dus nieuwe ethische vraagstukken bij en wat Mozilla betreft moet je het misschien toch maar uitmaken met je AI-liefje. Misha Rykov van Mozilla zegt: “Hoewel ze op de markt worden gebracht als iets dat je geestelijke gezondheid en welzijn verbetert, zijn ze gespecialiseerd in het leveren van afhankelijkheid, eenzaamheid en toxiciteit, en dat alles terwijl ze zoveel mogelijk gegevens van je loswrikken. Om het even hard te stellen: je AI-vriendinnetje is je vriendin niet.”
Wil je toch per se een AI-vriendinnetje of -vriendje hebben, dan kun je het beste kiezen voor Genesia AI: die kwam het minst slecht uit de test. Komt je vriendinnetje van Replika, dan kun je je relatie het beste meteen beëindigen als het om je dataveiligheid gaat. Maar voor alle AI-chatbots geldt (en dan niet alleen voor de romantische varianten): pas op met wat je deelt. Ga er in je achterhoofd vanuit dat dit ooit allemaal op straat kan komen te liggen, zodat je niets zegt dat ook daadwerkelijk op straat kan komen te liggen. Het is toch lullig als je moeder op de een of andere manier leest hoe jij na die verjaardag helemaal losging over hoe ze steeds maar achter je aanliep en wilde opruimen. Of je baas, die zal vast niet willen horen hoe jij hem of haar na een lange werkdag uitfoetert. Maar ook persoonlijke gegevens zoals medische zaken zijn gevaarlijk om te delen met AI van wie niet eens echt duidelijk is wat er allemaal achter schuilgaat. Jammer, want het is zo dat dit soort robotmaatjes mensen met psychische klachten echt kunnen helpen, of mensen die zich eenzaam voelen. Dat kan natuurlijk nog steeds wel, maar die mensen zetten dan blijkbaar veel meer op het spel: zonder dat ze het weten.