Mördarrobotar – Killer robots och framtidens krigsföring

0

Vad händer när robotar börjar kriga? På toppmötet World Economic Forum i Davos är handlar en av sessionerna om just detta ämne och de har experter på AI (artificiell intelligens) som föreläser vad som kommer hända om robotar skulle börja kriga.

Artificiell inteligens och självgående vapen

Artificiell intelligens är inte längre någon sci-fiction från någon Terminator film utan håller snabbt på att bli en realitet. Allt fler experter varnar för mördarrobotarna…

Utvecklingen med artificiell intelligens har gått fort och accelererat och den leder till ett mörkt och skrämmande framtidsscenario  idag räknar man med att det finns 40 länder som utvecklar dödsrobotar och självgående vapen. De kortsiktiga vinsterna är stora eftersom man får effektivare krigsenheter och dessutom slipper egna soldater som dödas i krigszoner, men vad händer ifall utvecklingen sker okontrollerat?

Smarta maskiner kommer bli allt mer intelligenta och avancerade och det är en utveckling som kommer fortskrida. Självgående vapen har potentialen att hitta och slå ut mål utan att människor är inblandade i situationen. Det här skiljer sig mycket från vanlig drönarteknik där människor är inblandade och det finns en pilot som kan avbryta ett uppdrag men det är troligt att vi kommer se drönare som drivs av artificiell intelligens framöver.

Utvecklingen går mot avancerade algoritmer som använder artificiell intelligens (AI) i flera av de största företagen som Apple, Google mfl. Vi kommer med stor sannolikhet ha AI-system i stridsledningssystem och dessa kommer lära sig själva och agera utifrån sina erfarenhet. Systemen kommer bli ännu farligare med autonoma vapen som kommer agera  helt självständigt. Ett självgående vapen gör det i princip möjligt att slå ut en hel befolkning ifall roboten sätts igång – vilket innebär att riskerna för mänskligheten som helhet blir enorma.

Bild: Om du tror teknikutvecklingen ligger långt ifrån vi har AI-robotar så se världens snabbaste Rubiks kub robot in action.

AI robotar

Anmärkningsvärda framsteg har gjorts inom artificiell intelligens vilket kommer få konsekvenser för framtidens krigföring. På kort sikt är det säkert många som skulle föredra att det var AI-robotar istället för soldater som skickades ut i krig, men vilka risker finns det på sikt med vapen som inte kontrolleras av människor och som inte följer avtal och regler som finns vid krigföring. Vad händer när autonoma vapensystem ersätter både soldater och generaler?

Video: den senaste generationen Atlas Humanoid robot från Google ägda Boston Dynamics som kan plocka upp lådor och traska runt i snön.

Ryssarnas humanoida AI robot heter FEDOR (Final Experimental Demonstration Object Research) och den har lärt sig att skjuta med bägge händerna. Den har utvecklats av Android Technics och en forskningsfond.

Svärmar drönare

F-18 Super Hornet som släpper ut 103 perdix drönare vid China Lake.

 

Nya vapensystem och skräckvapen

Nya vapen lanseras 2018 som kallas Long Range sjömålsrobot eller L.R.A.S.M. som uvecklas ursprungligen av Defense Advanced Research Projects Agency (DARPA) och planeras att tillverkas av Lockheed Martin som kommersialiserar många av DARPA-projektet.

https://www.youtube.com/watch?v=xQc8VeC4b9E

Enligt en artikel i New York Times säger Mark A. Gubrud som är fysiker och medlem av Internationella kommittén för Robot vapenkontroll ”Jag skulle vilja påstå att L.R.A.S.M. är i första hand avsedd att hota Kina och Ryssland och endast sannolikt används i de inledande skotten av ett kärnvapenkrig. Den skulle ganska troligt förstöra vår civilisation och döda en stor del eller de flesta eller nästan alla människor .”

Samtidigt så utvecklas nya skräckvapen som GXV-T (Ground X-Vehicle Techology) med lägre vikt och färre besättning och markstridsvapen som har god pricksäkerhet på 1,5 km avstånd. Läs mer på SvD artikel ”Tänkande robotsoldater oroar tunga experter”.

I en artikel i tidningen TheWired menar den förra försvarsministern Ashton Carter att det är svårt att hitta något system som är effektivare än kärnvapen men pekar på att biovapen kan vara ett område som kan konkurrera i destruktivitet. Ashton tycker att militären bör investera att biotech bolag i Silicon Valley och bygga broar som man gjort inom techindustrin.

Kritiken mot de nya vapensystem

Organisationer som är kritiska till utvecklingen och skrivit en rapport till FN om att begränsa autonoma vapen är Human Right Watch och Harvard Law School International Human Rights Clinic.

AI-samhället har gjort ett upprop eftersom de ser att man måste ha ett förbud av autonoma vapen. Stewen Hawkin och Elon Musk är några framstående visionärer som har skrivit ett upprop där de vill ha ett förbud för ”Killer robots”.

Se föredraget här från World Economic Forum.

Om författaren

Daniel Larsson jobbar med Cybersecurity och datasäkerhet. Under åren har han marknadsfört säkerhetsbolag inom områden som PKI, certifikat, digital signering, mobil säkerhet och kryptering. Han har tung erfarenhet av digital marknadsföring, webbutveckling och e-handel från några av världens största varumärken.

Share via