06.11.2023
Social Media

​WhatsApp-stickers bewijzen dat AI altijd moet worden gecheckt

By: Laura Jenny

BlogSocial Media

WhatsApp is tegen een beschamend probleem aangelopen: als je de WhatsApp-sticker-AI gebruikt om nieuwe stickers te laten genereren, dan voegt het als je op Palestijnse kinderen zoekt geweren toe aan de figuurtjes van kinderen.

Meta reageert

Het is problematisch en dat erkent Meta ook: het belooft aan The Guardian snel in actie te komen om dit euvel te verhelpen. Mocht je overigens op Israël en kinderen zoeken, dan gebeurt dit nooit. Nu kun je daarover vallen, maar wat hier eigenlijk speelt is dat kunstmatige intelligentie gewoon echt goed in de gaten moet worden gehouden: altijd. En hoewel het het beste zou zijn als er menselijkere moderators op zouden zitten, zijn er ook wel IT-toepassingen te bedenken om dit soort narigheid te voorkomen.

Je zou denken dat er immers wel een scriptje kan worden geschreven waarin er veelgebruikte zoekopdrachten of zoekopdrachten die controversieel of kwetsend kunnen zijn in een rap tempo worden gegenereerd. Die kun je dan aan de AI voeden om te kijken waarmee het komt, en daar kun je dan weer andere AI op loslaten die kan controleren wat er dan precies op de afbeelding te zien is, zoals guns.. Het vreemde is hierbij dat heel veel AI-toepassingen nooit een geweer zouden maken, dat is vaak allemaal al uitgeschakeld.

AI heeft controle nodig

De ene AI is de andere dus niet en dat is spannend. Dat zorgt ook dat je met de ene anders zal moeten omgaan dan met een andere. Maar dat er regels nodig zijn om te zorgen dat we het veilig en wel kunnen gebruiken, dat is duidelijk: zeker omdat het inmiddels overal binnensijpelt. Zelfs iets onschuldigs als stickertjes maken voor een chat-app kan al voor problemen zorgen.

Heb je nog nooit van de sticker-AI van WhatsApp gehoord, dan kan dat kloppen. Het is een nieuwe functie die nog ietwat in de kinderschoenen staat. Sinds een maand rolt het uit. Het probleem is dat Meta niet proactief genoeg lijkt te zijn. Het zegt namelijk dat het ‘de mogelijkheden beter maakt terwijl ze verder ontwikkelen en meer mensen hun feedback delen’: dat is toch niet genoeg?

Moet het altijd meteen?

Er moeten veel meer softwarezaken worden ingebouwd die dan kunnen zorgen dat mensen dingen zo min mogelijk hoeven te vlaggen. Nu is het kwaad geschiet, nu bestaan die vreselijke kindsoldaatstickers. Maar goed, dat Meta het soms niet zo nauw neemt met testen en checken versus snel uitbrengen en scoren is al duidelijk: Instagram automatische vertaalsysteem maakt van sommige arabische worden ‘terrorist’, terwijl ze dat niet betekenen…

Dat het allemaal kan, wil niet zeggen dat we het ook moeten doen. Natuurlijk willen we allemaal dat als we AI gebruiken, het ook nog zo snel mogelijk werkt, maar misschien moeten we onszelf tegen onszelf en de AI in bescherming nemen, en toch meer tijd moeten gunnen om zaken beter door te lichten. Zeker iets triviaals als een stickerfunctie, al is dit wel een goed voorbeeld van hoe het dus nog veel belangrijker is bij grotere, belangrijkere kunstmatige intelligentie.

Share this post