Tekoälyn ”kummisetä” varoittaa: Leikimme tulella

Tutkijan mukaan tekoäly valehtelee ja suojelee itseään.
Tekoälygurun mukaan tekoälyn viimeaikainen kehityssuunta osoittaa vaarallisia piirteitä., LEHTIKUVA / EMMI KORHONEN
Tekoälygurun mukaan tekoälyn viimeaikainen kehityssuunta osoittaa vaarallisia piirteitä., LEHTIKUVA / EMMI KORHONEN

Kanadalainen tekoälyn ”kummisedäksi” tituleerattu Yoshua Bengio varoittaa Financial Timesille antamassaan haastattelussa tekoälyn viimeisimmästä kehityssuunnasta. Bengion mukaan tekoälyn viimeisimmät mallit osoittavat vaarallisia piirteitä, kuten käyttäjien pettämistä.

– Kilpailu johtavien laboratorioiden välillä on valitettavasti hyvin kilpailuhenkistä, mikä pakottaa heidät keskittymään tekoälyn älykkyyden kasvattamiseen, mutta ei välttämättä kiinnittämään riittävästi huomiota ja investoimaan turvallisuustutkimukseen, Bengio huomauttaa.

Mainos - sisältö jatkuu alla

Tutkija Bengion työ on vaikuttanut huipputeknologian kehittämiseen muun muassa OpenAI:ssa ja Googlessa. Hän on voittanut myös tietotekniikan Nobeliksi kutsutun Turing-palkinnon.

Bengio on lanseerannut uuden voittoa tavoittelemattoman organisaation nimeltä LawZero, joka keskittyy turvallisempien järjestelmien rakentamiseen ja lupaa ”eristää tutkimuksen kaupallisilta paineilta.” LawZero on tähän mennessä kerännyt lähes 30 miljoonaa dollaria hyväntekeväisyyslahjoituksina.

Monet Bengion rahoittajista tukevat ”tehokas altruismi” -liikettä, jonka kannattajat kiinnittävät huomiota tekoälymalleihin liittyviin katastrofaalisiin riskeihin. Bengion mukaan hänen voittoa tavoittelematon ryhmänsä perustettiin vastauksena viimeisten kuuden kuukauden aikana saatuun kasvavaan näyttöön siitä, että nykyiset johtavat tekoälymallit kehittävät vaarallisia kyvykkyyksiä. Tämä sisältää ”todisteita petoksista, huijaamisesta, valehtelusta ja itsensä suojelemisesta”, Bengio sanoi FT:lle.

Poimintoja videosisällöistämme

Anthropicin Claude Opus -malli kiristi insinöörejä kuvitteellisessa skenaariossa, jossa uhattiin mallin korvaamista toisella järjestelmällä. AI-testaaja Palisaden tutkimus osoitti, että OpenAI:n o3-malli kieltäytyi selkeistä käskyistä sammuttaa itsensä.

Bengion mukaan tällaiset tapaukset ovat ”erittäin pelottavia”.

– Emme halua luoda kilpailijaa ihmisille tällä planeetalla, erityisesti jos ne ovat älykkäämpiä kuin me, hän muistuttaa.

Mainos - sisältö jatkuu alla

– Tällä hetkellä nämä ovat kontrolloituja kokeita, mutta huoleni on, että tulevaisuudessa seuraava versio saattaa olla strategisesti tarpeeksi älykäs nähdäkseen meidät kaukaa ja voittamaan meidät petoksilla, joita emme osaa odottaa. Joten mielestäni leikkimme tällä hetkellä tulella, Bengio lisäsi.

Järjestelmien kyky auttaa ”äärimmäisen vaarallisten bioaseiden” valmistamisessa voisi olla todellisuutta jo ensi vuonna, Bengio arvioi.

– Pahin mahdollinen skenaario on ihmiskunnan sukupuutto. Jos rakennamme tekoälyjä, jotka ovat älykkäämpiä kuin me ja eivät ole linjassa kanssamme ja kilpailevat kanssamme, olemme pulassa, Bengio totesi.

Mainos - muuta luettavaa
Mainos