We weten inmiddels dat robots snel informatie kunnen verwerken en dus snel beslissingen kunnen nemen. Maar wat daarbij wel eens vergeten wordt, dat is dat wij niet alleen beslissingen nemen op basis van feiten. We hebben emoties en ethiek. Precies twee dingen die je moeilijk kunt toevoegen aan een robot. Dit is hoe een robot toch een gevoel van ethiek kan hebben.
Stel dat een robot een piloot is. Hij weet hoe hard hij mag vliegen, welke kant op, misschien ook nog wel wat hij moet doen om botsingen met andere vliegtuigen te voorkomen. Maar wat als het misgaat? Wat als de robot voor een moreel dilemma komt te staan? Je kunt daarop niet alleen acteren door je op de feiten te richten. Een ander dilemma dat vaak ter sprake komt is dat van de zelfrijdende auto. Misschien wijkt de auto uit voor een kind, maar botst hij daardoor met een bejaarde. Welke keuze maak je dan?
Wanneer het gaat om robotethiek, dan wordt er vaak verwezen naar Isaac Asimov. Hij is de man die al in 1942 in een kort verhaal drie ‘wetten’ voor robots voorstelde. Het zijn:
Nu stelde Asimov dat zich zo voor voor het jaar 2015, maar nog steeds zijn ze in zekere mate wel van toepassing. Alleen moeten ze verder worden doorontwikkeld, zeker op het moment dat we robots steeds meer inzetten voor defensie of in de zorg. Het feit dat mensen soms bang zijn voor robots zit hem niet in of de robot wel het werk doet waarvoor hij is opgeleid: mensen zijn bang voor de ‘gedachten’ van robots, denkende aan een soort iRobot. Pas als mensen begrijpen dat robots succesvol zullen zijn bij ethische kwesties, zal de maatschappij ze accepteren.
Er wordt vandaag de dag veel onderzoek gedaan naar wat er precies voor intelligentie nodig is voor een robot om ethische beslissingen te nemen en hoe je dat het apparaat vertelt of voorprogrammeerd. Zo is er bijvoorbeeld een medicatierobot genaamd Nao die ouderen helpt hun medicijnen te geven. Wat doet zo’n robot als iemand weigert zijn medicatie te nemen? Het kan niet goed voor iemand zijn om een dosis te skippen, maar het komt tegelijkertijd enorm dreigend over als de robot wat strenger optreed en iemand toch dringend verzoekt de medicatie wel te nemen.
Via machine learning wordt Nao geleerd met meerdere van dit soort situaties om te gaan. Dat kan vooral door de robot zoveel mogelijk situaties voor te schotelen. De vraag is alleen: is het verstandig om een robot allemaal bestaande situaties voor te kauwen en hem dus eigenlijk oude beslissingen te laten herhalen, of moet je hem ruimte geven zelf een beslissing te laten nemen? Ook daarover zijn onderzoekers het nog niet eens. Vooral veel mensen in juridische zaken zijn voorstander van het laten baseren van de beslissingen op eerdere beslissingen, omdat je dan altijd kunt herleiden waarom een besluit is genomen.
Uiteindelijk is het dus niet zozeer de vraag of een robot een gevoel van ethiek kan hebben: het is de vraag in hoeverre wij robots überhaupt ruimte geven om zelf iets te bedenken. Zolang we het daar met zijn allen niet over eens zijn, zal de ontwikkeling van robots waarschijnlijk toch iets minder snel gaan dan we zouden willen.