Autonomiset asejärjestelmät tai “robottiaseet” ovat tekoälyä hyödyntäviä asejärjestelmiä, jotka pystyvät tunnistamaan kohteen ja hyökkäämään itsenäisesti ilman merkityksellistä ihmiskontrollia. Tällaisten järjestelmien käyttöönottoa kuvataan usein sodankäynnin kolmantena vallankumouksena ruudin ja ydinaseiden jälkeen.
Sekä YK:n, kansalaisjärjestöjen, että teknologiasektorin keskuudessa mietitään, miten autonomisten asejärjestelmien kehitystä ja käyttöä voitaisiin rajoittaa tai kieltää kokonaan. Koska täysin autonomiset asejärjestelmät ovat vielä kehitysvaiheessa, on ennakoivan kiellon aikaansaaminen merkityksellistä ennen niiden hallitsematonta käyttöönottoa. Kiellon kannalla on kansainvälinen verkosto Campaign to Stop Killer Robots, johon kuuluu 142 kansalaisjärjestöä 62 maassa, muun muassa Amnesty International ja Human Rights Watch. Suomalaisia jäsenjärjestöjä ovat Rauhanliitto, Sadankomitea, Suomen Rauhanpuolustajat, Tekniikka elämää palvelemaan sekä Naiset Rauhan Puolesta. Aseistakieltäytyjäliitto kannattaa kampanjan pyrkimyksiä. Tavoitteena on lisätä tietoisuutta autonomisista asejärjestelmistä ja saada aikaan niiden käytön ja kehityksen kieltävä sopimus. On kuitenkin hyvä huomata, ettei tarkoituksena ole luoda stigmaa tekoälyn ja robotiikan ympärille, ainoastaan autonomisten asejärjestelmien.
Kansainväliset robottiaseiden asiantuntijat Otaniemessä
Antimilitaristi oli mukana seuraamassa robottiaseiden vastaisen verkoston järjestämää keskustelutilaisuutta “Are Killer Robots Coming? And how can we stop them” Aalto -yliopiston yrityshautomo A Gridissä Espoon Otaniemessä. Tilaisuus oli suunnattu teknologiasektorin opiskelijoille, toimijoille sekä muille tekoälyn etiikasta, teknologiasektorin vastuusta ja asevalvonnasta kiinnostuneille. Eettisen tietoisuuden lisääminen teknologiasektorilla toimiville on tärkeää, sillä yksilö tai yritys voi epäsuorasti edistää robottiaseiden käyttöönottoa kehittämällä ohjelmistoja tai komponentteja, joita voitaisiin hyödyntää autonomisissa asejärjestelmissä. Tilaisuudessa olivat puhumassa kansainväliset asiantuntijat Laura Nolan ja Frank Slijper, keskustelun avasi tietojenkäsittelytieteen professori Pekka Orponen ja juonsi vapaa toimittaja sekä ilmastoaktivisti Teemu Vaarakallio. Mielenkiintoiset puhujat sekä aiheen ajankohtaisuus toivat paikalle runsaasti aktiivista yleisöä, jolla oli ytimeen pureutuvia kysymyksiä.
“Emme kampanjoi terminaattoria vastaan”
Laura Nolan on ohjelmistoinsinööri, joka irtisanoutui Googlelta vastalauseena “projekti Mavenille”, jossa yritys teki yhteistyötä USA:n puolustushallinnon Pentagonin kanssa tavoitteenaan hyödyntää koneoppimista ja tekoälyä kerätyn videomateriaalin analysoinnissa ja tunnistamaan siitä esimerkiksi sopivia iskukohteita. Aluksi Nolan työskenteli projektissa, mutta sittemmin hän huomioi eettisen ristiriidan ja lopulta irtisanoutui Googlelta. Yli 3000 yrityksen työntekijää allekirjoitti vetoomuksen Googlen Maven-osallisuutta vastaan, Nolan mukaan lukien. Nykyään hän toimii kieltosopimuksen puolesta Campaign to Stop Killer Robots -verkostossa sekä ICRAC:issa (International Committee for Robot Arms Control). Hän myös perusti TechWontBuildIt Dublinin teknologia-alan etiikasta huolestuneille työntekijöille.
Nolan nosti esille erityisesti autonomisten asejärjestelmien teknisiä ongelmakohtia sekä selosti tekniikan nykytilaa. Hän korosti, että projekti Mavenissa tekoäly ainoastaan analysoi kerättyä tietoa, mutta otti esille analysoinnin olevan harmaata aluetta ja kuuluvan niin sanottuun “tappoketjuun”, jonka vaiheet ovat tiedon kerääminen, analysointi, päätöksenteko ja isku. Tämä on eettisesti kyseenalaista ja voi johtaa tekoälyn leviämiseen muihinkin ketjun vaiheisiin. Mikäli tekoälyn annetaan itsenäisesti tehdä päätös iskusta ja toteuttaa se, ei merkityksellistä ihmiskontrollia enää ole. Nolanin mukaan tekoäly on vahvimmillaan tiedon luokittelussa, mutta se ei kykene ymmärtämään kontekstia kuten ihminen. Voiko se koskaan luotettavasti tunnistaa antautuvan sotilaan, metsästäjän tai asetta kantavan lapsen? Osaako se ottaa huomioon kulttuuritekijät, erilaiset käyttäytymismallit? Hänen mukaansa tekoäly tavallisimmin epäonnistuu yllättävissä tilanteissa, ja sota nimenomaisesti on ketju yllättäviä tapahtumia. Nolanin mukaan ihminen ei riittävästi ymmärrä tekoälyn kompleksisuutta ja arvaamattomuutta. Sodan säännöt ovat monimutkaiset ja on epätodennäköistä, että tekoäly oppisi ymmärtämään inhimillisen kontekstin. Nolanin sanoin: “Emme kampanjoi Terminaattoria vastaan, vaan paljon alkeellisempaa teknologiaa”.
Sodankäynnin säännöt uhattuina
Puheenvuorossaan Frank Slijper keskittyi robottiaseiden eettisiin sekä juridisiin ongelmakohtiin, selvensi miten kiellon aikaansaannissa edistytään ja antoi esimerkkejä kehitteillä ja jopa käytössä olevista autonomisista asejärjestelmistä. Slijper on taustaltaan taloustieteilijä ja toimii projektinjohtajana alankomaalaisessa PAX-järjestössä. Hänellä on asiantuntijuutta erityisesti asekauppaan, -vientiin ja aseteollisuuteen liittyen. Aiheesta kiinnostuneen kannattaa tutustua PAX:in tuottamiin vapaasti saatavilla oleviin raportteihin: State of AI, Don’t be Evil?, Slippery Slope ja Convergence?
Slijperin mukaan robottiaseiden käyttöönotto saattaisi mahdollistaa kansainvälisen humanitaarisen oikeuden rikkomisen, rapauttaa sodankäynnin sääntöjä. Kun autonominen ase vie hengen siviililtä, kuka on vastuussa sotarikoksesta? Onko vastuussa tekoäly, ohjelmoija, valmistaja, omistaja vai komentaja? Mikäli vastuu on järjestelmällä itsellään tai epäselvä, laskee kynnys rikokseen ja sen tuomittavuus häivyttyy. Robottiaseiden ihmistä nopeampi päätöksentekokyky saattaisi tehdä mahdottomaksi konfliktien syventymiseen puuttumisen. Mitä jos koneeseen tulee häiriö tai se hakkeroidaan? Kun taisteluun ei tarvitse lähettää ihmissotilaita, saattaa myöskin kynnys sodankäynnille madaltua. Robottiaseet saattaisivat olla muita asejärjestelmiä halvempia tuottaa ja helpommin saatavilla, mikä ennestään helpottaisi sodankäyntiin ryhtymistä. Helppo saatavuus myös lisäisi riskiä teknologian päätymisestä terroristisiin tarkoituksiin tai autoritäärisessä valtiossa joukkohallinnan välineeksi. Mikä on ihmiselämän arvo, jos päätös sen viemisestä luovutetaan algoritmille, joka ei tiedä tappavansa? Tällöin sota on peliä, jossa eniten menettävät konfliktialueen ihmiset, eivät ne, jotka tekevät päätöksen sotaan ryhtymisestä.
Autonomisia asejärjestelmiä kehitetään parhaillaan useissa eri valtioissa kuten Venäjällä, Turkissa, Yhdysvalloissa ja Israelissa. Slijper nosti esiin esimerkkeinä turkkilaisen STM-yhtiön kehittämän KARGU-nelikopterin, joka on varustettu räjähtein ja pystyy kasvojentunnistuksen ja sijaintitietojen perusteella etsimään ja tuhoamaan kohteen. Kopteri voi kulkea 30 laitteen parvessa ja tuhota esimerkiksi sotilasyksikön. Ihmisoikeusloukkauksia tehtaileva Turkki on tiettävästi ottanut KARGUN käyttöön Syyrian vastaisella rajalla, mikä tekisi siitä ensimmäisen käytössä olevan asejärjestelmän vailla merkityksellistä ihmiskontrollia.
Toinen esimerkki tämäntyyppisestä järjestelmästä on Etelä-Korean rajavalvonnassa käytössä oleva Samsung Techwinin valmistama SGR-A1 sentryrobotti. Järjestelmä on kiinteästi sijoitettu ja se kykenee valvomaan, seuraamaan ja tulittamaan kohdetta itsenäisesti. Slijperin mukaan järjestelmä kykenisi teknisesti tekemään tulituspäätöksen itsenäisesti, mutta ihmiskontrolli on haluttu säilyttää tietoisena päätöksenä. Ilmeisesti on ymmärretty, ettei tekoäly hahmota kontekstia.
Eurooppalaiset kannattavat kieltoa
Enemmistö, 73% eurooppalaisista tukee autonomisten aseiden kieltoa, ilmenee 10 EU-maassa lokakuussa 2019 toteutetusta kyselystä, jonka tilasi PAX-järjestö. Vain 13% vastusti kieltoa. Suomessa kieltoa kannatti 60% ja 12% vastusti. Kannatus oli alin kyselyssä mukana olleista maista, mikä kenties johtuu siitä, ettei aiheesta ole ollut paljon julkista keskustelua. Kannastaan epävarmojen osuus oli korkea.
Robottiaseista on keskusteltu YK:n eräitä tavanomaisia aseita koskevan yleissopimuksen (CCW) puitteissa vuodesta 2013 lähtien, mutta sitovaa kansainvälistä sopimusta ei ole saatu aikaiseksi. Tähän mennessä 30 valtiota on ilmoittanut halusta kieltää asejärjestelmät ja Euroopan parlamentti on hyväksynyt julkilausuman kieltosopimukseen tähtäävien neuvotteluiden aloittamiseksi. Suomi ei ole kannattanut sitovaa sopimusta autonomisten asejärjestelmien kieltämiseksi, mutta tavoite säännellä niitä on kirjattu Sanna Marinin hallituksen hallitusohjelmaan.
Ongelmallista on, että kieltoa vastustavat useat valtiot, joissa aktiivisesti kehitetään autonomisia aseita, esimerkiksi Yhdysvallat, Venäjä, Iso-Britannia, Turkki ja Israel. Teknologiaa kehittäviin yrityksiin lukeutuvat muun muassa suurimmat asevalmistajat Boeing, Lockheed Martin ja Raytheon.
Lisätuloja asevalmistajille
Robottiaseiden vallankumous ei edistä kestävää rauhaa, vaikka autonomisten asejärjestelmien käyttöönottoa perustellaankin sillä, ettei taistelukentälle tarvitse lähettää ihmissotilaita. Robottiaseet eivät kuitenkaan taistelisi toisiaan vastaan, vaan kohteina olisivat viime kädessä siviilit sekä muiden osapuolten taistelijat. Tällaisten järjestelmien käyttöönotossa kohdataan lukuisia eettisiä ongelmakohtia ja luodaan uudenlainen asevarustelukierre, joka hyödyttää lähinnä aseteollisuutta, ei inhimillistä kehitystä. Henkilömiinat sekä rypäle- ja kemialliset aseet on onnistuttu kieltämään. Tämä on mahdollista autonomisten asejärjestelmienkin kohdalla, kunhan riittävä poliittinen tahto saavutetaan.
Lähteet: stopkillerrobots.org, Rauhanliitto.
TEKSTI: SAMUEL METSÄNEN
KUVA: CAMPAIGN TO STOP KILLER ROBOTS