31.05.2024
Search

Google legt uit waarom de AI wilde dat je lijm op je pizza deed

By: Jeroen de Hooge

BlogSearch

Google heeft een zware week achter de rug, er was een groot schandaal over search engine optimisation (waarover later meer) en er was ook nog een akkefietje met de nieuwe AI Overview die met handige samenvattingen moest komen van zoekresultaten, maar mensen uiteindelijk aanraadde om lijm op een pizza te doen. Google deed het eerst af als een incident, maar nu blijkt het toch met wat meer uitleg te willen komen. 

Google AI Overview

Het vervelende aan AI is dat het vaak hallucineert en fouten maakt, waardoor het niet bepaald overkomt als een betrouwbare tool. Het was te hopen dat na het jaar 2023 vol chatbots, er nu een wat meer stabiele AI-tool zou komen: immers heeft AI Overview maar één taak: samenvatten wat er al in artikelen staat. Dat heeft echter een chatbot uiteindelijk op tot op zekere hoogte, en waarschijnlijk dat het daarom ook fouten maakt. Google zegt erover dat het incidenteel is, maar nu komt er meer uitleg.

 In een blog schrijft het: “In de afgelopen week hebben mensen op sociale media een aantal vreemde en onjuiste overzichten gedeeld (samen met een zeer groot aantal vervalste schermafbeeldingen). We weten dat mensen erop vertrouwen dat Google Search accurate informatie biedt en ze zijn nooit terughoudend geweest om vreemde zaken of fouten aan te geven als ze die tegenkwamen – in onze rankings of in andere zoekfuncties. We stellen hoge eisen aan onszelf en aan onze gebruikers, dus we verwachten en waarderen de feedback en nemen deze serieus.”

 Niet als andere LLM’s

Het legt uit dat AI Overviews er zijn om het mensen makkelijker te maken om snel de informatie te vinden die ze nodig hebben, zeker als het wat complexere vragen zijn. Waar wij hierboven nog de link met AI-chatbots leggen, wuift Google dat juist in de wind: “AI-overzichten werken heel anders dan chatbots en andere LLM-producten die mensen misschien al hebben uitgeprobeerd. Ze genereren niet simpelweg een output op basis van trainingsgegevens. Hoewel AI-overzichten worden aangestuurd door een aangepast taalmodel, is het model geïntegreerd met onze belangrijkste webranglijstsystemen en ontworpen om traditionele “zoek”-taken uit te voeren, zoals het identificeren van relevante resultaten van hoge kwaliteit uit onze index.”

 

Het is daarom dat AI-overzichten niet alleen tekstuitvoer bieden, maar ook relevante links bevatten zodat mensen verder kunnen zoeken. AI Overview toont alleen informatie die wordt ondersteund door de beste webresultaten, zegt Google. Dat is toch een beetje gek om te lezen als je ziet dat je van de AI lijm op je pizza moet doen of stenen moet eten. Toch stelt Google dat AI-overzichten dus niet hallucineren of dingen verzinnen, zoals Large Language Model-producten dat wel doen. Google zegt: “Als AI-overzichten het mis hebben, is dat meestal om andere redenen: het verkeerd interpreteren van zoekopdrachten, het verkeerd interpreteren van een nuance van taal op het web, of het niet beschikbaar hebben van veel goede informatie. (Dit zijn uitdagingen die ook voorkomen bij andere zoekfuncties).”

 Vervalste screenshots

Google heeft AI Overviews natuurlijk grondig getest voor het live ging, maar je kunt niet alles testen. Daarnaast is het ook niet te spreken over de neppe screenshots die zijn gemaakt: “Los daarvan zijn er een groot aantal vervalste schermafbeeldingen op grote schaal gedeeld. Sommige van deze vervalste resultaten waren duidelijk nep. Andere impliceerden dat we gevaarlijke resultaten teruggaven voor onderwerpen als honden achterlaten in auto’s, roken tijdens de zwangerschap en depressie. Deze AI-overzichten zijn nooit verschenen. Dus we raden iedereen die deze schermafbeeldingen tegenkomt aan om zelf een zoekopdracht uit te voeren om dit te controleren.”

 

Google zegt daarnaast dat iemand praktisch nooit aan Google vraagt hoeveel stenen hij of zij moet eten, waarmee het aangeeft dat satirische content en heel gekke vragen interpreteren nog wat werk kan gebruiken, maar tegelijkertijd zegt het: er is niet veel webcontent die deze vraag serieus beantwoordt. Logisch dus dat daar een gat in de informatie zit. Wat betreft de lijm op de pizza, dat kwam volgens Google door een forum. Je kunt je afvragen of Google fora niet zou moeten uitsluiten, maar het lijkt daar juist steeds meer voor te kiezen (zeker gezien zijn nieuwe, goede band met Reddit). 

 Technische verbeteringen

Verder schuift het techbedrijf niet alles af. Het heeft meer dan twaalf technische verbeteringen aangebracht, zoals betere detectiemechanismen voor onzinnige zoekopdrachten, en beperkingen voor zoekopdrachten waarbij AI Overview niet behulpzaam is. Maar uiteindelijk zegt het: “Op de schaal van het web, met miljarden query’s die elke dag binnenkomen, zijn er altijd wel wat eigenaardigheden en fouten. We hebben de afgelopen 25 jaar veel geleerd over het bouwen en onderhouden van een hoogwaardige zoekervaring, waaronder hoe we van deze fouten kunnen leren om Search voor iedereen beter te maken.” 

Tegelijkertijd moet je als persoon dus ook bij jezelf te rade gaan of wat de AI zegt wel klopt. Hierdoor is AI helaas wel wat minder bruikbaar, want wanneer kun je daar nu wel of niet vanuit gaan, maar in sommige gevallen is het zeker behulpzaam om er een AI Overview bij te hebben, al hebben we ze nog niet in Nederland. Momenteel zijn ze alleen in Noord-Amerika beschikbaar.

Share this post