Er wordt veel geklaagd over X: het is sinds versoepelingen in moderatie door Elon Musk een bolwerk geworden van haatberichten en cyberpesten. Om over de grote hoeveelheid fake news maar te zwijgen. Een nieuw probleem dient zich nu ook aan: ‘Taylor Swift AI’.
Taylor Swift heeft het niet makkelijk. Als er niet een awardmoment wordt gestolen door Kanye West, dan wordt er wel geroddeld over met wie ze allemaal het bed deelt. Nu zijn er ook lichtpuntjes, zoals haar fans en natuurlijk het feit dat ze vorig jaar TIME Person of the Year is geworden. Maar hoe zit het met Taylor Swift AI? Wat is het en waarom is het zo’n probleem?
Het was een trending topic op meerdere plekken en één post kreeg zelfs 45 miljoen views. Een bizar aantal, dat waarschijnlijk nog veel hoger was geworden, ware het niet dat de post nu verwijderd is. Het gaat om een AI-afbeeldingen die zijn gemaakt van Taylor Swift in nogal seksuele posities. We weten natuurlijk al langer dat nep pornografie een ding is sinds AI meer in opkomst is, al werd er vroeger natuurlijk ook handmatig wel eens een ander hoofd op een seks hebbend lichaam geplakt. Maar door AI is het aanbod extreem.
De seksuele afbeeldingen zijn inmiddels veelal offline gehaald en als je erop zoekt op X zie je vooral het fanleger van Swift die roepen dat de zangeres moet worden beschermd. Op de foto’s is een Taylor Swift te zien die zich bij een football-wedstrijd nogal laat gaan met een paar mannen, terwijl ze zelf een soort bodypaint heeft. Het is niet heel extreem, maar het is niet iets wat bij deze artiest past. En wat sowieso niet zou mogen verspreid: het is nep, het is schadelijk en dat moet gestopt worden.
Wat echter blijkt is dat het lang niet allemaal offline is gehaald. En juist omdat er over gepraat wordt door zowel het kamp dat het verspreidt als het kamp dat er juist tegen is, wordt het trending en zien alleen maar meer mensen het. Het is beeld dat uit een Telegram-groep afkomstig is, waarbij gebruikers expliciete seksuele beelden van vrouwen delen die zijn gemaakt met Microsoft Designer, een AI-tool waarmee we laatst nog een leuke Funko-pop maakten.
Naaktfoto’s waarvan mensen niet akkoord zijn met de verspreiding ervan moeten worden geband, maar X bewijst nu dat het moeilijk blijkt om er vanaf te komen. Je zou denken dat je een soort reverse image search zou kunnen doen zoals op Google, maar in de realiteit blijkt dit dus niet te werken en verspreidt het zich zo snel, dat er blijkbaar niet tegenop te moderaten is. Maar er schuilt hierin ook nog een ander probleem, namelijk bij de tool die wordt gebruikt. Veel AI-tools staan zowel naakt als beroemdheden niet toe en dat is blijkbaar bij Microsoft Designer nog niet het geval, of in ieder geval onvoldoende.
Het is een probleem waar inmiddels door de Europese Unie ook naar wordt gekeken, al gaat het dan specifiek om X dat onder extra toezicht staat wegens het mogelijk maken van het delen van content over Israël die ook niet klopt. Social media hebben hierin een grote rol, maar er moet ook zeker worden gekeken naar de AI-tools die men gebruikt om zulke content te maken.