Google’s nieuwe robot SayCan kan dingen doen of beantwoorden zonder dat een programmeur hem dat heeft voorgekauwd. Deze robot werkt op basis van ingetypte verzoekjes, die de robot kan uitvoeren puur op basis van wat hij heeft geleerd van het internet.
We weten inmiddels dat robots die leren van het internet best gevaarlijk kunnen zijn, omdat het nu eenmaal niet altijd de meest vrolijke, positieve plek is. Toch heeft Google het met SayCan voor elkaar gekregen om juist die dingen op te kunnen zoeken die nuttig zijn. Zo blijkt in ieder geval, wanneer je SayCan als een soort barman in de keuken zet. De robot, die bestaat uit een ‘gezicht’ met camera’s erin en verder een dun lijf met één arm, is onder andere in staat om een snack te pakken.
Robotmakers willen graag dat robots begrijpen wat je zegt als je tegen ze praat. Zo kun je ze roepen en kun je een gesprek met ze voeren. Bovendien is het ook veel meer zoals mensen met elkaar communiceren: via spraak. Echter zijn er ook mensen die dat om wat voor reden dan ook niet kunnen, of die in situaties zitten waarbij spreken niet netjes is. Daarom is Google teruggegaan naar zijn zoekmachineroots en heeft het de robot SayCan ontwikkeld. Die werkt op basis van iets dat Google PaLm heeft genoemd: het Pathways Language Model.
Wired schrijft dat de robot niet per se hoeft te worden verteld dat je een snack wil, of bijvoorbeeld specifiek chips, je hoeft hem alleen te vertellen dat je trek hebt. Je typt op de gekoppelde laptop ‘ik heb trek’ en de robot zal vanzelf naar het gedeelte van de keuken gaan waar snacks liggen en met zijn pincet-arm voorzichtig een zakje chips pakken. Dat weet hij door het internet slim te gebruiken en een aantal fysieke acties aan een bepaalde zin te koppelen. Dat werkt ook bij zinnen als ‘ik heb dorst’ of ‘ik heb drinken geknoeid’. De robot weet wanneer hij met een drankje of een spons moet aankomen.
Het is indrukwekkend, want juist dat stukje begrijpend lezen is voor veel robots een struikelblok. Als mensen begrijpen we een context eerder, mede omdat we van allerlei andere clues kunnen uitgaan. Voor een robot is dat minder makkelijk en juist om ze wat menselijker te laten zijn, wordt er volop geëxperimenteerd met hoe zo’n gesprek en actie zo natuurlijk mogelijk kunnen verlopen. Het is echter ook gevaarlijk. Zo heeft Google recentelijk een medewerker ontslagen die meende dat een andere robot die het in ontwikkeling heeft gevoel zou hebben ontwikkeld. Een ‘slippery slope’, want in hoeverre mogen wij robots blijven vertellen wat ze moeten doen als ze zelf gevoel hebben? En sterker: in hoeverre staan robots dat dan nog toe?
SayCan lijkt in ieder geval nu al een goede butler te zijn. Hij ondersteunt je in wat je nodig hebt, zonder dat je verder (behalve het typen) een vinger hoeft uit te steken. Overigens heeft de robot wel van mensen ingeprogrammeerd gekregen hoe hij bepaalde dingen moet aanpakken. Denk aan hoe hij dat zakje chips moet oppakken. Dat is ook logisch, want zoiets kun je niet echt van het internet halen. Immers is deze robot uniek in zijn soort en dienen dit soort instructies ook specifiek op deze robot te worden gemaakt. Bovendien voorkomt het ook dat de robot gedrag zal vertonen dat niet wenselijk is: nogmaals, de rest van wat hij weet komt van het internet, dus de kans dat hij gedrag zou aanleren dat niet door de beugel kan is groot.
Een robot heeft om veilig te blijven dus altijd wel wat van de mens nodig. Tegelijkertijd kunnen ze ook steeds meer zelf. Dat zien we ook bij andere bedrijven, zoals de robots van Xiaomi, Amazon en Tesla. Die zijn volop in ontwikkeling, maar het duurt vaak lang voordat we dit soort robots in het openbaar zien. Het kost immers veel aanpaswerk om te zorgen dat de robot het positieve, goede deel van het internet gebruikt, in plaats van dat deel dat het internet (en de mensheid) wat minder mooi maakt. SayCan staat immers in de keuken, waar ook de messen liggen…