We denken allemaal dat kunstmatige intelligentie blijft leren en ontwikkelen, maar het blijkt nu dat dat misschien tegenvalt. Zo zou de verandering van het huidige top-AI-model van OpenAI naar het volgende een vrij kleine sprong zijn.
Waar er voorheen altijd heel positief werd gekeken naar de innovaties binnen AI, daar wordt dat nu toch een stukje minder. Als zelfs het toonaangevende OpenAI een nieuw product wil uitbrengen dat eigenlijk weinig slimmer is dan het vorige, dan zien veel expert dat als een slecht teken voor de AI-markt. The Information schrijft dat de ‘wet van schaal’ toch niet helemaal altijd lijkt op te gaan.
Het is de vraag of dat zo werkt: is het niet N=1? Dat er nu bij een bedrijf iets niet helemaal lekker lijkt te gaan qua innovaties, of in ieder geval de innovatie elders in het product moet worden gezocht, betekent dat meteen dat de hele AI-business ‘op zijn gat’ is? Sommige mensen denken van wel, omdat het natuurlijk niet zomaar een AI-bedrijf is, maar het is het meest toonaangevende, wereldwijd bekende AI-bedrijf. Bovendien horen we het steeds vaker: bedrijven hebben geen data meer om hun AI te trainen.
Is daar geen oplossing voor? Zeker wel: onder andere OpenAI kijkt steeds meer naar kunstmatige data. Dit is data waarmee AI wordt getraind, die echter ook is gecreëerd door AI. Dat lijkt tegelijkertijd wat heftig: als AI AI traint, wat hebben wij als mensen er dan nog mee te maken? Wie controleert het? Het is zoveel data dat het op een gegeven niet meer menselijk is om dat te controleren. Laat je dat dat ook aan AI over? Kortom, daar zijn wel wat zorgen over. Vroeger gebruikten computers niet zoveel data, waardoor dat een minder groot probleem was, maar nu bereiken we qua ‘eigen’ data toch wel een plafond, zo lijkt het.
Het is de vraag wat er nu gaat gebeuren. Onderzoekers verwachten dat language models tussen 2026 en 2032 volledig de menselijke data hebben ‘opgebruikt’. Het gaat dan om textuele trainingsdata. Synthetische data, dat is die data die door AI is gemaakt, lijkt een oplossing, maar daarover is veel discussie: zowel ethisch als over de kwaliteit van deze data en de uitkomsten die de AI uiteindelijk zal hebben. Er zijn ook mensen die juist zweren bij kleinere AI-programma’s die wat meer gespecialiseerd zijn in een bepaald onderwerp. Dat is een manier om toch nog menselijke data te gebruiken, maar het betekent wel dat er mogelijk fragmentatie ontstaat. Toch lijken er niet veel andere mogelijkheden te zijn, als je echt synthetische data wil vermijden. OpenAI zal toch iets moeten doen, zeker als het ChatGPT zoveel duurder wil maken.