Categorieën
Publicaties

AI en existentieel risico

Tien procent kans op uitsterven door AI de komende 100 jaar!

“Er is een kans van tien procent dat in de komende honderd jaar de toekomst van de mensheid in gevaar komt door toedoen van kunstmatige intelligentie”. Dat is het bericht van Otto Barten op onze Triple-E sessie over Data Science en AI. Otto is oprichter van het Existential Risk Observatory. Een Observatory dat actief is om het bewustzijn van existentiële risico’s te vergroten.

Otto, met een achtergrond als natuurkundige in duurzame energie en de energietransitie, leert ons over de belangrijkste existentiële risico’s die Toby Ord in een grafiek heeft gezet.  Toby Ord is een filosoof en informaticus van de werkgroep in existentiële risico’s van Oxford University. Zij hebben geprobeerd de risico’s voor de komende honderd jaar in te schatten en daar percentages aan te koppelen. De zaal is stil. Op één persoon na die een protesterend geluid laat horen: ‘een risico van 10% is best veel’. ‘Ja’, zegt Otto, ‘dat is best veel. Maar los van de absolute percentages stelt deze aanpak je wel in staat om minder erge risico’s, tenminste op het existentieel vlak, te scheiden’.

Otto gaat langs de risico’s. AI springt er met kop en schouders bovenuit. Verder zijn er meer risico’s die met technologie te maken hebben. Een mens-gemaakte pandemie voortkomend uit bio-technologie is met ruim 2,5% de meest concrete op de tweede plaats. Herkenbaar voor iedereen met de corona ervaring van de afgelopen twee jaar. En verder scoort ‘other risks’ met 5% hoog. Dit is het risico voor al hetgeen de mensheid de komende honderd jaar nog zou kunnen uitvinden dat we nu nog niet kennen maar wel levensbedreigend zou kunnen worden. Klimaatverandering, nucleaire oorlog, vulkaan uitbarstingen en meteoorinslagen zijn slechts schilfertjes in de bar chart. De kans dat klimaatverandering optreedt is 100%, legt Otto uit, maar het gaat hier om de kans dat de mensheid ook daadwerkelijk uitsterft. Dat risico is niet zo heel groot. Kortom, aldus Otto, als we als mensheid willen overleven, moeten we AI beteugelen. Op dit moment is er alleen nog ‘narrow AI’. Die AI kan meestal maar één taak goed doen. Bijvoorbeeld een betere Go speler, of beter autorijden, maar niet heel veel taken tegelijk en zeker niet alle taken beter doen dan ons. Het gevaar komt van een Artificial General Intelligence (AGI). Dat is een, nu nog  hypothetische AI, die alles beter zou kunnen doen dan de mens.

Er zijn nu al AI’s met een grotere neuronencapaciteit dan een mens want de groei van het aantal neuronen in AI is exponentieel. Vijftien jaar geleden hadden de modellen ongeveer 1000 neuronen, maar ieder jaar stijgt dit met ongeveer een factor 10. Inmiddels zit AI al boven het niveau van de mens. Maar het is niet zeker of bij het opschalen van het aantal neuronen de AI ook altijd slimmer wordt. Tot nu toe geldt dat wel, maar er zou ook een einde kunnen komen aan die hypothese.

Otto vertelt dat er vorig jaar een doorbraak is geweest op dat gebied in de deepmind Gato. Voor het eerst is men daar in staat geweest om op een breed spectrum van zeshonderd menselijke taken de performance van de mensen te evenaren. Dat lijkt een stap op weg naar een AGI. Deepmind heeft genoeg investering opgehaald om hier 1.300 man fulltime op te zetten. En wereldwijd zijn er nog zo’n 72 andere projecten die hiermee aan het werk zijn.

Stel nou dat je een AGI krijgt. Wat betekent dat dan? Dan zitten we in een situatie dat AGI beter zou zijn dan de mens in elke cognitieve taak. En dat betekent dat ze dan per definitie ook beter zijn in de cognitieve taak van betere AI en betere hardware maken. Het maken van betere AI leidt weer tot AI die nog betere AI kan maken. Deze recursieve cirkel van continu verbetering is een positieve feedback loop die zou leiden tot een super intelligentie die vele malen beter is in alles wat wij kunnen. Maar het kan ook zijn dat er een bovengrens ontstaat, bijvoorbeeld mens-maal-twee.

Een andere interessante vraag is: stel dat je de AGI hebt, gaat de AGI dan doen wat wij willen? Het zou kunnen dat de AGI op een gegeven moment andere doelen krijgt dan ons. Wij willen ook niet allemaal hetzelfde. Mensen wilden vijftig jaar geleden ook andere dingen dan nu. Het is al moeilijk om te bedenken wat we zelf willen, laat staan wat een super intelligentie wil doen. Maar het is ook lastig om eventueel veranderende doelen in die AGI te destilleren. Het kan ook zijn dat een AGI wordt ingezet op het realiseren van korte termijn doelen die uiteindelijk een negatief effect hebben op langere termijn. Bijvoorbeeld, maak voor mijn bedrijf zoveel mogelijk winst, maar dat dit dan een klimatologisch impact heeft.

Om te voorkomen dat een AGI de mensheid overneemt zijn er grofweg twee aanpakken: ofwel we maken geen AGI, ofwel we maken het veilig. Het veilig maken is op dit moment de hoofdonderzoekstroom. Wereldwijd zijn nu naar schatting circa tweehonderd man bezig om te onderzoeken hoe je AI veilig kan ontwikkelen zodat die blijft doen wat wij willen. De vraag is of dat probleem oplosbaar is, want hierin is men de afgelopen twintig jaar niet verder gekomen. Hoe kunnen minder intelligente dingen een beveiliging bedenken die meer intelligente dingen niet kunnen omzeilen? Oplossingen hiervoor hebben een slechte trackrecord.

‘The Existial Risk Observatory is gericht op bewustzijn vergroting omdat de prioriteiten wereldwijd niet goed gesteld zijn’, geeft Otto aan. ‘Het is natuurlijk heel goed dat er zo veel mensen werken aan het klimaatprobleem. Maar existentiële risico’s zijn een vergelijkbaar probleem en daar werkt bijna niemand aan. De aanpak is om informatie van academici naar het publieke debat te brengen dat dan zorgt voor meer funding en talent die weer voor meer informatie kan zorgen. We denken dat het goed is als er meer mensen over zouden praten dus op de website van de Existial Risk Observatory kan je meer informatie vinden. Ook over wat je zelf zou kunnen doen’.

Een bijzondere opening van ons Triple-E debat over wat we allemaal wel niet kunnen met Data Science en AI. Met een gevoel van “Caution! Don’t try this at home” gaan we verder.

www.existentialriskobservatory.org

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *