Meta gaat op zijn platforms Facebook, Instagram en Threads een label geven aan content die is gemaakt met behulp van kunstmatige intelligentie. Dit moet voor meer transparantie zorgen, en hopelijk minder social media-losbarstingen zoals we die vorige week nog zagen met Taylor Swift.
Vorig jaar was het jaar dat AI echt losging: de ene AI-chatbot na de andere deed zijn intrede en iedereen heeft zich wel eens afgevraagd wat dit eventueel voor zijn baan zou betekenen. Zowel in positieve als in negatieve zin. Echter zijn er ook bij techbedrijven en overheden veel vraagstukken komen te liggen, onder andere met het oog op het verspreiden van fake news. Of eigenlijk fake images: nepplaatjes die beelden op elkaar plakken. Laatst zagen we het nog gebeuren met Taylor Swift en het is vaak moeilijk om het van echt te onderscheiden.
Daarbij krijgen we nu hulp in de vorm van een label. Wanneer Facebook, Instagram en Threads zien dat een afbeelding door een AI-generator is gemaakt, dan krijgt het een label. Meta laat weten: “Nu het verschil tussen menselijke en synthetische content vervaagt, willen mensen weten waar de grens ligt. Mensen komen vaak voor het eerst in aanraking met door AI gegenereerde content en onze gebruikers hebben ons verteld dat ze transparantie rond deze nieuwe technologie op prijs stellen. Het is dus belangrijk dat we mensen laten weten wanneer fotorealistische content die ze zien is gemaakt met behulp van AI. Dat doen we door “Imagined with AI”-labels toe te passen op fotorealistische afbeeldingen die zijn gemaakt met onze Meta AI-functie, maar we willen dit ook kunnen doen met inhoud die is gemaakt met tools van andere bedrijven.”
Maak je dus een AI-afbeelding met Google Bard, Microsoft, Adobe, Shutterstock of Midjourney, dan blijft dat niet onopgemerkt door de software van Meta. Het gaat daarbij niet alleen om foto’s, maar ook video’s die met generatieve AI zijn gemaakt, iets wat we nog niet heel veel zien, maar wat waarschijnlijk ook een steeds grotere rol gaat spelen dit jaar. Wel verwacht Meta dat mensen ook zelf aangeven dat ze AI hebben gebruikt om de content te maken, want het is niet altijd eenvoudig om te herkennen. Gebruik je toch AI zonder het te melden, dan neemt Meta maatregelen. Ook wil het tegengaan dat mensen watermerken verwijderen, want dat is nu wel mogelijk, net als de metadata.
Het is overduidelijk dat Meta ook nog wat zoekende is in hoe het kan zorgen dat het echt duidelijk wordt wanneer er generatieve AI wordt gebruikt, omdat het simpelweg zo moeilijk te herkennen is. Maar terwijl het zelf met zijn Meta AI bezig is, leert het hier hopelijk steeds meer over om toch de meeste AI-creaties wel te kunnen ‘vangen’. AI gebruiken om content te maken is niet erg, maar het is wel goed om te labelen dat dit het geval is. En daarover gesproken: denk je dat de robot bovenaan dit artikel AI is, of is het een gewone afbeelding? Laten wij dan ook transparant zijn: in dit geval hebben we gekozen voor AI, dat past immers precies. Nu nog een label.