Kunstmatige intelligentie (AI) uit het lab deel 4: gevaren

Fred Teunissen

Het ene na het andere boegbeeld van technologie en innovatie slaat de laatste tijd alarm, uit vrees voor onethische toepassingen van kunstmatige intelligentie, alias Artificial Intelligence (AI). Wat heeft deze prominenten, die zelf aan de wieg stonden van de ontwikkelingen waarvoor ze nu zo indringend waarschuwen, nerveus gemaakt? Waar komt hun bezorgdheid vandaan?

Eind juli 2015 werd in Buenos Aires tijdens de internationale IJCAI-conferentie over kunstmatige intelligentie een open brief gepubliceerd, die was ondertekend door honderden prominenten uit de wereld van wetenschap en technologie, waaronder Steve Wozniak, mede-oprichter van Apple, Elon Musk, CEO van Tesla Cars, en theoretisch natuurkundige Stephen Hawking(*).

De opstellers van de brief signaleren dat de ontwikkeling van kunstmatige intelligentie zo ver is gevorderd, dat de inzet van volledig autonome systemen – dat wil zeggen systemen die zelflerend en zelfsturend zijn – binnen handbereik ligt. Ze zijn vooral bezorgd over de militaire toepassingen van deze nieuwe technologie. Daarbij gaat het om wapensystemen, die zonder menselijke tussenkomst op het slagveld kunnen opereren, ook wel ‘killer robots‘ genoemd. Deze brengen een revolutie teweeg in het militaire bedrijf.

Positief aan deze ontwikkeling, nog steeds volgens de opstellers van de brief, is dat door de inzet van zulke wapensystemen het aantal slachtoffers aan de eigen zijde kan worden beperkt. Groot nadeel ervan is echter dat de drempel om militaire actie te ondernemen er drastisch door wordt verlaagd. En een nog veel groter nadeel is dat AI-technologie geen hoge investeringen vereist, zoals met kernwapens het geval is. Autonome wapensystemen zouden zich dan ook razendsnel over de planeet kunnen verspreiden.

Legers van robots

Een beetje merkwaardig aan de brief is dat de gevaren in de toekomst worden geprojecteerd, terwijl autonome wapensystemen volop in ontwikkeling zijn en in sommige gevallen zelfs al operationeel zijn. Denk aan de drones die de VS inzetten en aan de ontwikkeling van militaire robots bij het onlangs door Google overgenomen Boston Dynamics.

Naar het masterplan achter deze research moeten we gissen, want deze plannen zijn militair geheim in de VS. In Rusland doen ze daar een stuk minder besmuikt over. Zo maakte Uralvagonzavod, het bedrijf dat de Russische Armata T-14 tank produceert, in oktober 2015 bekend dat het werkt aan ‘een leger van AI-robots‘. Denk maar niet dat de VS en China dit dan niet doen. De wapenwedloop, die door de prominenten zo gevreesd wordt, is dan ook allang gaande.

 

Boks met robotahand (rv)

 

 

De goede vragen
Naast angst voor de opkomst van killer robots is er angst voor verlies van controle over AI. Het is vooral theoretisch natuurkundige Stephen Hawking die hier
aan uitdrukking geeft. Volgens hem zullen autonome systemen dusdanig slim worden, dat ze zichzelf gaan herontwerpen en optimaliseren. Daardoor zullen ze ons in no time te slim af worden en ons vervolgens onderwerpen. Steve Wozniak onderschrijft deze analyse en ziet een toekomst voor zich waarin AI-systemen ons als hun huisdieren houden.

Hawkings kernargument is dat de humane biologische evolutiewijze de exponentiële technologische groei van de kunstmatige intelligentie niet kan bijbenen. Het zijn inderdaad twee radicaal andere ontwikkelingspaden. Dus Hawking heeft hier beslist een punt.
Je kunt je vervol
gens afvragen of het wel zo erg is dat AI-systemen slimmer worden dan wij. Deze vraag zal ons nog jaren bezighouden.

Een goede vervolgvraag is: stel dat systemen met en van AI slimmer en ‘machtiger’ zijn dan wij. Zullen zij ons daarmee dan gaan domineren? Of zullen zij dat juist niet doen omdát zij zoveel slimmer en machtiger zijn dan wij? Met andere woorden: misschien projecteren wij onze eigen dirty mind wel op die arme intelligente en dienende robots. Geen haar op hun hoofd die erover denkt ons te krenken en te doen wat wij mensen elkaar onderling aandoen…
Is mogelijk toch?

Een transhumane uitweg

Ray Kurzweil – of liever: het Fenomeen Kurzweil, die immers al zo ongekend vaak voorspellingen over technologie deed die nog uitkwamen ook, en dat is werkelijk zonder precedent – sluit aan bij Hawking, maar geeft er vervolgens een laconieke draai aan. We moeten gewoon zorgen dat we een goede, biologische (!) interface hebben met die slimme AI, vindt hij, en dan hebben we een geüpgraded mensenras. Humans powered by AI. Transhumanisme wordt deze denkrichting ook wel genoemd. Volgens Kurzweil is zo’n biologische interface mogelijk als we nanobots in onze hersenen aanbrengen. Daardoor wordt ons brein een soort wifi-antenne, een modem dat draadloos in contact staat met ‘het web’, dan wel het Grote Brein, dan wel een serie Grote Breinen(***). Technisch is dit inbrengen van nanobots vandaag de dag al mogelijk. Er zijn zelfs onderzoekers die beweren dat hiermee al druk geëxperimenteerd wordt.

Hier is overigens weer dezelfde vraag van toepassing: is het eigenlijk wel zo erg, zo’n samenvloeiing van mens en AI-machine? Zo op het eerste gezicht kunnen we daarmee toch alleen maar ons voordeel doen? We worden immers even slim als die supercomputers. Stel je eens voor wat er dan allemaal mogelijk wordt!
Maar er is ook een groot risico. Stel dat IETS dat nog weer veel slimmer is dan al onze Aardse Grote Breinen dit transhumane systeem hackt… Dan kan heel dat planetaire bio-technologische AI-netwerk, dat Kurzweil voor ogen heeft, een interface zijn om ons ‘van buitenaf’ te domineren. Zou kunnen toch? Of is deze angst ook weer uitdrukking van onze eigen dirty mind?

De kern van alle angst rondom AI is onze angst om de controle te verliezen. Dat is niet de schuld van de technologie. AI is in zichzelf neutraal. Ongevaarlijk. De toepassing is dat niet. Die is niet neutraal. Die dient de mensheid of zij dient haar niet. Dat de eerste grootschalige toepassingen van AI in het militaire domein plaatsvinden, geeft dan ook te denken.
Wij projecteren onze eigen schaduw op de tec
hnologie. Daaruit blijkt de actuele staat van onze psyche en moraal. AI staat klaar om te dienen, maar wij zijn het gevaar. Wij hebben de komende jaren tot de tanden bewapende legers van psychologen nodig om alle AI naar veilig vaarwater te loodsen.

Vier wake-up calls

Stephen Hawking: “Autonome technologie kan zichzelf steeds sneller herontwerpen en zal ons het nakijken geven.

Elon Musk: “Binnen vijf tot maximaal tien jaar zou er al iets zeer gevaarlijks kunnen gebeuren.

Steve Wozniak: “Robots zullen de wereld veroveren en ons als huisdieren gaan houden.

Ray Kurzweil:”In 2030 zal ons brein via nanobots verbonden zijn met het web.

 Dit is het vierde deel van een serie over de business impact van kunstmatige intelligentie. Lees ook deel 1  deel 2  en deel 3 van de serie.

 

Gerelateerde berichten...