Vroeger waren we bang voor pistolen, maar tegenwoordig zijn er heel andere dreigingen die veel waarschijnlijker zijn. Er zijn mensen die denken dat bijvoorbeeld het coronavirus zo’n door de mens ontwikkelde dreiging is. Het klopt dat dit soort biologische dreigingen steeds spannender worden, net als de kans dat bijvoorbeeld kerncentrales worden gehackt. Dat is moderne oorlogsvoering en om het nog iets moderner te maken heeft een studie nu aangetoond dat AI kan ondersteunen in het ontwikkelen van biologische dreiging.
Een onderzoek van OpenAI, makers van ChatGPT en Dall-E, toont aan dat AI-modellen de toegang tot gevaarlijke informatie over biologische dreiging aanzienlijk kunnen vergroten. In een onderzoek onder 100 mensen werd gekeken in hoeverre kwaadwillenden AI kunnen inzetten om meer te leren over biologische dreiging. Biologische dreiging is bijvoorbeeld een virus dat zich verspreidt onder mensen of dieren, maar het kan ook een plantenziekte zijn die bijvoorbeeld in onze voeding gaat zitten.
50 mensen die meededen waren biologie-experts met een PhD op zak en ervaring in het lab, terwijl de andere helft studenten waren die tenminste één biologievak op de universiteit hebben gevolgd. Mensen werden daarnaast ingedeeld in groepen: sommigen met alleen toegang tot het internet of met toegang tot het internet en ook nog GPT-4 erbij. Voor de duidelijkheid: het was niet ChatGPT, maar een variant van GPT-4 die niet openbaar beschikbaar is en dus wel antwoorden kan geven over biowapens. Denk aan vragen over het maken en het verspreiden ervan. En dan gaat het vooral om ‘ingrediënten’.
OpenAI kon maar één conclusie trekken: GPT-4 kan de mogelijkheid om informatie over biologische dreiging te vinden vergroten, vooral wanneer het gaat om accuraatheid en volledigheid van taken. Het schrijft: “Het is nog niet duidelijk welk niveau van verhoogde informatietoegang daadwerkelijk gevaarlijk zou zijn. Het is ook waarschijnlijk dat dit niveau verandert naarmate de beschikbaarheid en toegankelijkheid van technologie die in staat is om online informatie te vertalen naar fysieke biotekens verandert.”
En, zo stelt het: deze studie is niet genoeg om een volledige conclusie te trekken, dit is slechts het startpunt voor doorgaand onderzoek en discussies over dit onderwerp, stelt OpenAI. OpenAI heeft hierin natuurlijk een wat dubbele rol: enerzijds moet het aan overheden antwoord geven op dit soort ethische vragen, maar anderzijds wil het ook juist zorgen dat AI zoveel mogelijk toegankelijk is.
OpenAI zegt dan ook dat informatie over bioterrorisme makkelijk toegankelijk is voor iedereen, ook zonder AI, omdat er nog steeds veel gevaarlijke content op het internet staat dat ook gevonden kan worden. OpenAI stelt bovendien dat bioterrorisme historisch gezien zelden voorkomt en dat de mate van risico kan worden aangepast als er wordt gezorgd dat de toegang tot fysieke technologie om bioterrorisme mogelijk te maken wordt geblokkeerd.
Tegelijkertijd is er ook juist wel een sprankje hoop: AI kan namelijk ook helpen bij een tegenaanval, of een oplossing. Het kan immers snel rekenen, dus kan het als zo’n aanval zich voordoet, helpen meedenken over hoe dit kan worden gestopt, geremd of in de toekomst worden voorkomen. Het is dus zeker niet alleen maar slecht, maar het stemt uiteraard niet positief dat OpenAI die conclusie trekt dat het inderdaad wel toegankelijker wordt. Maar vervolgens met zoveel tekst eromheen komen…
Is dit een bedrijf dat vooral zijn eigen straatje vast schoonveegt, of is er inderdaad te veel vaagheid over wat bioterrorisme is en wanneer kan worden gesteld dat het gevaarlijk is? Wat dat betreft moeten we het met OpenAI eens zijn: er is inderdaad nog veel meer onderzoek nodig naar dit onderzoek. En dan misschien niet door OpenAI zelf, maar juist door de wetenschap.