By: Laura Jenny
Meta is natuurlijk bekend van het AI-model Llama, maar het maakt nog veel meer verschillende modellen. Nu is er bijvoorbeeld een nieuw model geïntroduceerd waarvan een self-taught evaluator deel uitmaakt. Hiermee krijgt AI een soort eindredacteur in de vorm van AI.
Minder menselijke inmenging, maar juist AI die AI checkt. Meta zegt dat het alles te maken heeft met de manier waarop OpenAI o1 heeft gemaakt. Hierbij heeft de kunstmatige intelligentie een ‘ketting’ aan gedachten die elkaar opvolgen. Zo schijnt AI betrouwbaarder te kunnen oordelen over hoe andere modellen reageren.
Het idee is dat een complex probleem dan in kleine snackable stukjes wordt afgebroken en het op die manier duidelijker te maken is welke stappen er zoal zijn gezet. De accuraatheid van antwoorden op uitdagende problemen zou hierdoor makkelijker te controleren zijn. Vooral het gebied van wiskunde, programmeren en wetenschap zouden hiervan profijt hebben.
Meta heeft AI-gegenereerde data gebruikt om het model te trainen, dus ook op dat gebied is er geen menselijke input bij komen kijken. Niet iedereen vindt het een even comfortabel idee: als AI zichzelf verbeterd zonder dat er mensen tussenkomen, dan zijn sommige mensen bang dat AI te veel op eigen houtje doet en te machtig wordt, zonder dat wij mensen daar enig idee van hebben.
Meta ziet het anders, dat zegt: “We hopen, naarmate AI steeds meer supermenselijk wordt, dat het steeds beter wordt in het controleren van zijn werk, zodat het eigenlijk beter zal zijn dan de gemiddelde mens. Het idee van autodidactisch zijn en in staat zijn tot zelfevaluatie is eigenlijk cruciaal voor het idee om dit soort supermenselijke niveaus van AI te bereiken.”
Tegelijkertijd is AI meteen een stuk duurder als er mensen bij komen kijken. Momenteel wordt er als er geen AI wordt gebruikt om AI te controleren, gebruik gemaakt van iets dat Reinforcement Learning from Human Feedback heet, en daarbij moeten gespecialiseerde, menselijke experts worden ingezet om het werk te doen. Je moet immers wel weten of het fout is wat AI doet, in plaats van dat je het erop gokt dat AI een wiskundig probleem goed heeft ‘beredeneerd’.
Andere grote bedrijven, waaronder Google, werken ook aan dit soort technologie, maar lijken dit minder aan de grote klok te hangen en beschikbaar te maken dan Meta.