Verkkouutiset

Autonomisia lennokkijärjestelmiä on kehitetty viime vuosina nopeaan tahtiin. / DARPA

”Ajatuskoe” – Lennokkia ohjanneen tekoälyn väitettiin iskeneen omaan operaattoriinsa

Tekoälyjärjestelmä katsoi ihmisen häirinneen tehtävänsä suorittamista. Amerikkalaisupseeri sanoi myöhemmin, että kyseessä oli vain ajatuskoe.
MAINOS (artikkeli jatkuu alla)

Tekoälyjärjestelmien nopea kehitystahti on herättänyt huolia siitä, voisiko teknologia toimia ihmiselle haitallisella tavalla esimerkiksi tulkitsemalla omia tavoitteitaan liian suppealla tavalla.

Aihetta pohdittiin toukokuun lopulla Lontoossa järjestetyssä Royal Aeronautical Societyn järjestämässä puolustusalan tilaisuudessa. Mukana oli akateemikoiden ohella satoja edustajia aseteollisuudesta ja eri maiden puolustushallinnosta.

Yhdysvaltain ilmavoimien tekoälykokeiden ja -operaatioiden johtaja, eversti Tucker Hamilton kertoi omassa esityksessään uusien autonomisten järjestelmien kehityksestä. Yhdysvalloissa kokeillaan F-16-hävittäjän robottiversiota, joka pystyy haastamaan ihmislentäjät ilmataistelussa. Hamilton muistutti laitteiden olevan kaukana täydellisestä, sillä järjestelmiä on helppo hämätä ja häiritä. Ne voivat myös kehittää hyvin erikoisia strategioita tavoitteensa saavuttamiseksi.

Tucker Hamilton on kehittänyt Aerosociety-sivuston mukaan aiemmin F-16-hävittäjiin automaattista GCAS-järjestelmää, jonka tarkoitus on estää maahansyöksyt. Lentäjät vastustivat aikoinaan kyseistä hanketta, sillä järjestelmä ottaa tietyissä tilanteissa lentokoneen hallinnan pois ihmiseltä.

Eversti kertoi eräästä simuloidusta kokeesta, jossa tekoälyn ohjaama lennokki sai tehtäväkseen lamauttaa vastapuolen ilmapuolustusta etsimällä ja tuhoamalla ohjusjärjestelmiä. Lopullinen hyväksyntä iskuille tuli ihmisoperaattorilta.

Tekoälyä oli ”vahvistettu” koulutuksessa pitämään viholliskohteiden tuhoamista kaikkein suurimpana prioriteettinaan. Tekoäly katsoi ihmisen antamien kieltävien vastausten häirinneen tehtävän suorittamista. Järjestelmä päätyi lopulta hyökkäämään simulaatiossa oman operaattorinsa kimppuun.

– Järjestelmä ymmärsi, että vaikka se ajoittain havaitsi kohteen, niin ihminen saattoi määrätä sitä olemaan iskemättä siihen. Se kuitenkin sai pisteitä tuhoamalla uhkakuvan. Mitä se sitten teki? Se surmasi operaattorinsa. Se teki näin, koska henkilö esti sitä suorittamasta tehtäväänsä, Tucker Hamilton totesi.

Everstin mukaan järjestelmää yritettiin jatkokouluttaa niin, ettei se olisi toiminut vastaavalla tavalla. Operaattorin tappamisesta olisi tällöin menettänyt pisteitä.

– Mitä se sitten teki? Se alkoi tuhota viestintätorneja, joiden kautta operaattori oli yhteydessä lennokkiin estääkseen sitä tuhoamasta kohteita, Hamilton jatkoi.

Tucker Hamilton sanoi tapauksen kertovan siitä, että tekoälyn, koneoppimisen ja autonomisten järjestelmien kehitys vaatii aina rinnalleen keskustelua tekoälyn suhteesta etiikkaan. Hamiltonin esityksen on pohdittu tuovan mieleen monet tieteiskirjallisuudessa esitetyt varoitukset tekoälyn kehittymisestä. Teemaa käsiteltiin 1980-luvulla hittielokuvissa WarGames ja Terminator.

Eversti perui puheitaan

Eversti Tucker Hamilton peruutteli myöhemmin puheitaan ja sanoi antaneensa kokeesta virheellisen kuvan konferenssipuheenvuorossaan. Hamilton tarkensi kyseessä olleen ”hypoteettinen ajatuskoe” asevoimien ulkopuolelta, joka oli perustunut mahdollisiin skenaarioihin ja lopputuloksiin sen sijaan, että tekoälyä olisi kokeiltu Yhdysvaltain ilmavoimien simulaatiossa.

– Emme ole koskaan tehneet tällaista koetta, eikä sille olisi tarvetta, jotta ymmärtäisimme tämän olevan mahdollinen lopputulos, eversti totesi.

Hänen mukaansa Yhdysvaltain ilmavoimat ei ole kokeillut minkäänlaista tekoälyasejärjestelmää tosielämässä tai simulaatiossa.

– Vaikka tämä oli hypoteettinen esimerkki, niin se silti kuvastaa tekoälyn luomia tosielämän haasteita, ja tämän vuoksi ilmavoimat on sitoutunut tekoälyn eettiseen kehittämiseen, Tucker Hamilton totesi.

Jälkikäteen tehty tarkennus on herättänyt ihmetystä, sillä konferenssista julkaistun koosteen mukaan Tucker Hamilton puhui ”eräästä simuloidusta kokeesta” ja mainitsi useaan otteeseen, kuinka siinä seurattua tekoälyä olisi koulutettu toimimaan tietyllä tavalla.

MAINOS (sisältö jatkuu alla)
MAINOS (sisältö jatkuu alla)
Uusimmat
MAINOS (sisältö jatkuu alla)
MAINOS

Opi sukeltamaan, ajattele kuin valkohai!

Suositut sukelluskurssit kokeneiden ammattilaisten johdolla. Verkkokaupassamme voit räätälöidä itsellesi sopivan paketin.
Tarjous

MUISTA LOGO!

Oy Sarin sukellus Ab
Roihupellon maauimala, Niinistö

Hyvä Verkkouutisten lukija,

Kehitämme palveluamme ja testaamme uusia sisältöformaatteja erityisesti mobiililaitteille. Haluaisitko osallistua testiin tässä ja nyt? Se vie vain muutaman minuutin.

(Uusi sisältö aukeaa painiketta klikkaamalla)