23.02.2022
Metaverse

Kun je straks in het Metaverse een praatje maken met een Peruaan?

By: Laura Jenny

BlogMetaverse

In een nieuwe update heeft Mark Zuckerberg van Meta meer verteld over kunstmatige intelligentie en wat zijn plannen hiermee zijn voor het metaverse. Die blijken vooral te draaien om vertalen. Dat taal belangrijk is in het Metaverse, blijkt wel uit de start van de presentatie. Er wordt bijvoorbeeld getest met kunstmatige intelligentie die het mogelijk maakt om een wereld te bouwen door slechts te beschrijven wat je erin wilt hebben.

Je zegt bijvoorbeeld: “We gaan naar het strand” en de Builder Bot waar je tegen praat maakt dan een zee en zand. Daarna kun je bijvoorbeeld wolkjes toevoegen en tropische muziek. De AI moet dus heel goed luisteren naar wat je zegt om aan je wensen te kunnen voldoen, naast dat het ook nog moet weten wat je bedoelt en hoe hij dit kan bewerkstelligen.

Self supervised learning

De grootste aankondiging is die van ‘self supervised learning’: leren onder eigen toezicht. Er is dan dus geen mens bij die de boel in de gaten houdt: de kunstmatige intelligentie moet leren van de data zelf. Mark Zuckerberg: “Je leert de kunstmatige intelligentie hiermee geen concept, maar je geeft het ruwe data en het moet zelf bedenken wat er mist. Dit is meer hoe het menselijk brein ook leert. Een kind hoeft ook geen 10.000 foto’s van een kat te zien voor hij er een kan herkennen.”

Meta meent zelfs dat self supervised learning beter is dan veel bestaande kunstmatige intelligentie-modellen. Toch lijkt Meta hier wel iets te vergeten, namelijk: wie selecteert de data die wordt gebruikt? Dat is uiteindelijk nog steeds door de mens ingebrachte informatie. Het is dus niet alsof de kunstmatige intelligentie helemaal vrij is: het moet het alsnog doen met de data die het ter beschikking heeft (en dus ‘gevoed’ krijgt).

Teleporten naar andere werelden

Daarnaast gaat Meta de strijd aan met Google, dat vorig jaar al veel mogelijkheden besprak voor vertalen. Zuckerberg: “De halve wereld heeft geen toegang tot het internet in hun eigen taal. Er zijn miljoenen Fula-sprekers, maar die taal bestaat bijna niet online. Zelfs de meest geavanceerde modellen voor vertaling zijn getraind in Engels.” Hierom bouwt Meta nu een model dat het Engels niet nodig heeft om andere talen te leren. Zuckerberg: “Als mensen in het Metaverse teleporten tussen virtuele werelden, dan is vertaling belangrijk. We hebben de kans om het internet te verbeteren en iets te creëren waarin mensen van over de hele wereld met elkaar kunnen communiceren.”

Hierop heeft het twee grootschalige AI-projecten gestart: No Language Left Behind en Universal Speech Translator. Het eerste is bedoeld als vertalingssysteem dat geen enkele taal vergeet. Zuckerberg: “Het kan nu al honderden talen vertalen. Vijf jaar geleden was dat twaalf, drie jaar geleden was dat dertig en nu zijn het er honderden.” Voor het Metaverse is vooral het project Universal Speech Translator belangrijk, want hiermee zou je met iedereen op de wereld kunnen communiceren door simpelweg te praten.

De taalbarrière doorbreken

De Universal Speech Translator moet wat je zegt vrijwel meteen vertalen naar de taal van de persoon waarmee je praat. Zo kun je terwijl jij met je VR-headset op in je woonkamer in Appingedam staat, een heel ‘normaal’ gesprek hebben met een Japanse die ergens in Nagasaki met haar headset op staat, zonder dat je elkaars taal spreekt. Daar is echter wel veel rekenkracht voor nodig en nog veel doorontwikkeling van de kunstmatige intelligentie achter deze plannen. Er wordt aan gewerkt en hiervan gaf Zuckerberg bij dezen dus een update.

Daarnaast is Meta volop bezig met het ontwikkelen van technologie voor -waarschijnlijk- zijn virtual reality-handschoen: zo doet het onderzoek naar belangrijke aanraakpunten door een soort klei te gebruiken, maar heeft het bijvoorbeeld ook een onderdeel ontwikkeld dat Digit heeft: dit is een soort hand die bestaat uit tactiele sensoren die helpen bij het stevig vastgrijpen van objecten (maar dus ook weer niet te stevig). Hoewel het werd gepresenteerd als eigenschappen voor robots en de handschoen niet meer voorbij is gekomen, is de verwachting wel dat deze technologie alles met die handschoen te maken heeft.

Meta versus Google

Het spreekt enorm tot de verbeelding: straks met headset op een gesprek voeren met iemand die je taal totaal niet machtig is (of andersom). Hoe Meta dit precies voor zich ziet, dat heeft het nog niet getoond. Het kan bijvoorbeeld zijn dat er enorme vertraging in zit, maar er wordt nu in ieder geval gewerkt aan de technologie. Google doet ongeveer hetzelfde, met onder andere het gebruik van Google’s Neural Machine Translation.

Beide bedrijven zetten hoog in op kunstmatige intelligentie, beiden op hun eigen manier. Het wordt interessant om te zien welk AI-model beter blijkt, maar vooral: hoe we straks zorgen dat we bijna direct met iemand kunnen praten waarbij we normaal handen en voeten nodig hadden. Zouden de personages in Meta’s Horizon Worlds daarom geen voeten hebben?

Share this post