Uudet sotarobotit huolestuttavat – entäs kun tulee bugi

Täysin itsenäisiin asejärjestelmiin liittyy merkittäviä ongelmia, amerikkalaisraportti varoittaa.

  • Yhdysvaltojen uusi LRASM-ohjus toimii lähes autonomisesti.

    ()

Itsenäisiä asejärjestelmiä, kuten esimerkiksi ohjuksia, lennokkeja tai erilaisia taistelukäyttöön tarkoitettuja robotteja voi olla vaikea kontrolloida todellisessa toimintaympäristössä, varoittaa tuore amerikkalaisraportti.

Raportin on laatinut entinen ammattisotilas ja autonomisten asejärjestelmien asiantuntija Paul Scharre. Siitä uutisoi tässä New York Times.

Scharre johtaa Center for a New American Security -ajatushautomon tulevaisuuden sodankäynnin ohjelmaa. Hän on työskennellyt aiemmin Yhdysvaltojen puolustusministeriössä ja ollut suuressa roolissa Yhdysvaltojen nykyisen itsenäisten asejärjestelmien doktriinin kehittämisessä.

New York Times huomauttaa, että täysin itsenäisesti ilman ihmisen väliintuloa “tappopäätöksiä” tekevien järjestelmien valmistamisesta on tullut viime vuosina entistä helpompaa.

Esimerkiksi Etelä-Korealla on jo kenttäkäytössä täysin automatisoituja konekiväärejä Pohjois-Korean vastaisella rajallaan. Yhdysvallat kehittää puolestaan laukaisun jälkeen käytännössä itsenäisesti toimivaa pitkän matkan merimaaliohjusta (video alla).

Autonomisten aseiden yleistyminen on kasvattanut myös niiden vastustusta. Muun muassa YK:ssa on keskusteltu, tulisiko niiden kehittämistä ja käyttöä säännellä.

Eettisten seikkojen lisäksi myös mahdolliset ohjelmistohäiriöt eli bugit huolestuttavat asiantuntijoita.

Paul Scharren mukaan itsenäiset asejärjestelmät ovat alttiita suunnitteluvirheille, hakkeroinnille ja vihollisen manipulaatiolle.

Hän nostaa raportissaan esiin modernin sotilasteknologian kanssa sattuneita yllättäviä virheitä. Yhtenä esimerkkinä Scharre mainitsee kenties maailman kehittyneimmästä hävittäjäkoneesta, Yhdysvaltojen F-22 Raptorista, paljastuneen nolon häiriön.

”Kahdeksaa F-22-hävittäjää kohtasi totaalinen Y2K-tyylinen tietokonehäiriö koneen ensimmäisellä Tyynenmeren komennuksella, kun ne ylittivät päivämäärärajan”, raportissa kerrotaan.

Kaikki koneiden tietokoneet sammuivat ja ne olivat vähällä syöksyä maahan. Koneen ohjelmistojen suunnittelijat eivät olleet osanneet arvioida, kuinka rajan ylittäminen vaikuttaisi sen tietokonejärjestelmiin.

Scharre korostaa, että kaikkiin tietokonejärjestelmiin liittyy tiettyä heikkoutta. Hänen mukaansa itsenäiset asejärjestelmät eivät viime kädessä kykene sopeutumaan monimutkaisiin ja uusiin tilanteisiin taistelukentällä ja tulevat tekemään sellaisia virheitä, jotka ihminen kykenisi välttämään.

Raportissa Scharre ehdottaa vaihtoehtoa täysin autonomisille aseille. Scharren mukaan parasta olisi luoda järjestelmiä, joissa yhdistetään tiiviisti ihmisiä ja koneita. Esimerkiksi shakissa ihmisten ja koneiden yhteistiimit peittoavat tavallisesti pelkän tekoälyn.

Scharre ei näe ihmistä kuitenkaan pelkässä liipaisimen vetäjän roolissa.

”Se, että ihminen on vain mukana, ei vielä riitä. Ihminen ei voi vain olla yksi ratas koneistossa. Ihmisen on oltava aktiivisesti mukana”, Scharre sanoo.

Arvoisa kommentoija, kunnioitathan hyviä tapoja. Terävä kritiikki on sallittua. Henkilökohtaiset tai kansanryhmien solvaukset ja ihmisarvon loukkaukset poistamme. Voimasanojen käyttöä tai alatyyliä kohtaan meillä on nollatoleranssi. Emme voi myöskään julkaista ulkopuolisia linkkejä. Pysy asiassa.