Een van de grootste uitdagingen die mensen ervaren met kunstmatige intelligentie is dat het er nog wel eens een levendige fantasie op nahoudt. Als je iets feitelijks vraagt aan bijvoorbeeld ChatGPT of Google Gemini, dan moet je eigenlijk altijd nog een tweede check doen om zeker te weten dat het klopt. Maar daar is nu een oplossing voor: gewoon in je prompt meenemen dat je niet wil dat de AI hallucineert.
Het is nog niet helemaal officieel in Europa beschikbaar, al schijnt het op bepaalde Apple-laptops wel te werken: Apple Intelligence. Deze AI-hulp van Apple is gebruikt in een onderzoek over hallucinerende AI. Als AI hallucineert dan betekent dat dat het verkeerde antwoorden geeft. Oneerbiedig gezegd: het ijlt maar wat. Je weet totaal niet of je ervan op aankunt of het klopt en als je dan toch die dubbelcheck moet doen, sja, dan kun je het misschien net zo goed meteen zelf doen, toch?
Volgens onderzoekers is dat hallucineren blijkbaar toch kinderlijk eenvoudig te verhelpen: gewoon vragen of de AI bij zijn antwoord niet wil hallucineren. Ergens is dat heel logisch: de AI doet precies wat je vraagt -of tenminste, dat is de bedoeling-. Als je dus vraagt om iets niet te doen, dan moet hij zich daar aan houden. En dat doet hij dus ook, ontdekten de onderzoekers.
Er zit in de json-bestanden van Apple Intelligence al veel informatie om de AI een handje te helpen. Denk aan ‘Probeer te antwoorden in maximaal 50 woorden’ of ‘Je bent een behulpzame mail-assistent die helpt relevante vragen te identificeren uit een mail.’ Het klinkt misschien vreemd, maar dat is wel wat je de tech echt moet vertellen. Het is net een kind, dat je ook moet vertellen dat het geen modder moet eten: er staat bij ‘Schrijf een kort en natuurlijk antwoord’. En daar is dan de prompt waar het allemaal om gaat: “Verzin geen feitelijke informatie’. Dat klinkt heel gek, want een feit zou dus al waar moeten zijn, maar blijkbaar begrijpt de AI het pas als je het op deze manier omschrijft. Dat is ook wel voor te stellen: letterlijk zeggen dat het niet moet hallucineren kan hij anders opvatten (al staat ook die prompt erbij), maar dit is een stuk duidelijker.
Het is dus niet zozeer dat je als gebruiker AI moet vertellen in je prompt dat het niet mag hallucineren: dat werkt ook vaak niet, maar het helpt dus wel wanneer de makers van de AI-chatbots dat doen. Ze kunnen uit zichzelf al een heel duidelijke focus meegeven en dat zou dus wel moeten helpen. Het beteugelen van de AI om te voorkomen dat het straks alsnog een Terminator-achtig drama wordt, is nodig, dat wisten we, maar de code van Apple Intelligence legt dat wel op heel bijzondere wijze bloot.