Tekoälyyn luodaan valtavasti odotuksia. LEHTIKUVA / HEIKKI SAUKKOMAA

Tekoäly on satunnainen papukaija

BLOGI

Tekoälyssä on hyvin vähän älyä missään vakavassa mielessä, Matti Wiberg muistuttaa.
Picture of Matti Wiberg
Matti Wiberg
Matti Wiberg on valtio-opin emeritusprofessori ja Senior Fellow Zentrum für Europäische Integrationsforschung’issa Saksan Bonnissa.
MAINOS (artikkeli jatkuu alla)

Harvoja asioita hypetetään niin paljon kuin tekoälyä. Siitä annetaan liian myönteinen kuva. Siihen luodaan valtavasti odotuksia. Asiasta innostuneita on laajeneva joukko. Teknologiaa mainostetaan ratkaisuna liki kaikkiin yhteiskunnallisiin ongelmiin – yksinäisyyteen, ilmastokriisiin, terveydenhuoltoon – mikä tekee tekoälystä liki uskonnollisen pelastajasankarin.

Tekoälyyn sijoitetaan maailmanlaajuisesti satoja miljardeja dollareita.

Tekoäly on aikamme megatrendi, joka vaikuttaa syvällisesti yhteiskuntien kehitykseen. Jo tästä syystä myös sen heikkouksista ja kielteisistä seurauksista on syytä olla vähintään tietoinen. Julkinen valvonta ja toimialan sääntelytarve sekä datan eettisen käytön rajat ovat keskustelussa jääneet liian vähälle huomiolle. Liian vähän huomiota on suunnattu myös tekoälyn ympäristövaikutuksiin: valtava energiankulutus lisää ympäristökuormaa.

Tekoälyllä on valtavat yhteiskunnalliset vaikutukset, ei vähiten työmarkkinoilla. Vaikutukset luovien alojen työllisyyteen ovat vahvasti kielteisiä. Kokonaisia ammattikuntia uhkaa työttömyys, varsinkin kuljetusalalla, asiakaspalvelussa ja tuotannossa. Kirjailijat ja kääntäjät menettävät tekoälyn myötä työtään. Tuloerot voivat kasvaa, kun teknologian omistajat hyötyvät, mutta osa työvoimasta menettää elinkeinonsa. Tekoäly mahdollistaa ennennäkemättömän tehokkaan valvonnan ja käyttäjäseurannan. Kasvojentunnistus ja datankeruu ilman suostumusta johtavat yksityisyyden heikentymiseen. Tekoäly oppii historiallisesta datasta. Seurauksena voi olla vähemmistöjen syrjintää esimerkiksi rekrytoinneissa ja luottopäätöksissä sekä rikosseuraamusjärjestelmissä. Puolueellisuus ei välttämättä näy. Tekoälyyn liittyy joukko turvallisuusriskejä. Tekoälyä voidaan käyttää myös haitallisiin tarkoituksiin. Autonomiset asejärjestelmät voivat aiheuttaa sotilaallista tuhoa. Kyberhyökkäykset ja disinformaation levittäminen sekä huijaaminen ja identiteettivarkaudet tekoälyn avulla ovat jo antaneet esimakua tulevasta. Tekoälyyn liittyy myös eksistentiaalisia riskejä, joita ei vielä edes tunneta saati hallita. Pitkällä aikavälillä erittäin kehittynyt tekoäly voi uhata ihmiskunnan olemassaoloa, jos se toimii tavoilla, joita emme osaa ennustaa.

Niitäkin on, jotka, osa vankin perustein, kutsuvat tekoälyä tekoääliöksi. Skeptikot muistuttavat, että tekoälyssä ei ole älykkyyttä sanan missään vakavassa mielessä.

Ihmiset voi jakaa kolmeen luokkaan sen mukaan, millainen käsitys heillä on tekoälystä: niihin, joilla ei ole mitään käsitystä tekoälystä, niihin, joilla on epärealistinen käsitys tekoälystä ja niihin, joilla on realistinen käsitys tekoälystä.

Ensimmäinen ryhmä lienee suurin ja viimeinen pienin.

Keskimmäisessä ryhmässä on niitä, joilla on epärealistisen toiveikas (hype-optimistiset boosterit, ”AI pelastaa kaiken”) ja niitä, joilla on epärealistisen pessimistinen (apokalyptiset doomerit, robottidysutopia ”AI tuhoaa kaiken” –fanaatikot) käsitys tekoälystä. Toiveikkaita lienee pessimistejä enemmän.

Tekoälyn nyt ajankohtaiset sovellukset perustuvat laajoihin kielimalleihin (LLM, sanoista Large Language Model). Ne on laadittu syöttämällä koneelle, melko satunnaisesti, joukko lähinnä internetistä kopioituja tekstejä.

Eri kielimallit kopioivat toisiaan. Tämä luo tahatonta komiikkaa, kun omat aineistonsa muilta varastanut yritys syyttää toisia yrityksiä datojensa varastamisesta.

Varastamiselle on keksitty kauniita kiertoilmaisuja: aineistot on erimerkiksi ”peilattu”, ”kaavittu”, ne on kerätty ”julkisista lähteistä”, ne on koottu ”laajasta otannasta internetin sisällöstä”, mallia on ”opetettu ihmisten tuottamilla teksteillä”.

Eurooppalaisessa katsannossa kyse on varsin vapaamielisestä suhtautumisesta tekijänoikeuksiin. Oikeastaan niistä ei juuri välitetä.

Amerikkalainen asenne on erilainen, sillä siellä avainkäsite on ”fair use”. Se venyttää käyttöoikeudet tekijänoikeuksia häivyttävästi.

Euroopassa vain laissa erikseen määritellyt poikkeukset rajoittavat tekijänoikeuksia, esimerkiksi sitaattioikeus tai yksityiskäyttö. USA:ssa arviointi on tapauskohtaista.

Siellä tekijänoikeuslaissa (Copyright Act, § 107) määritelty fair use –oppi perustuu neljään kriteeriin, joita tuomioistuimet arvioivat tapauskohtaisesti: käyttötarkoitus, teoksen luonne, käytön sisällön määrä ja olennaisuus, käytön vaikutus alkuperäisen teoksen markkinaan ja teoksen arvoon. Tuomioistuin punnitsee näitä kokonaisuutena.

Euroopassa korostetaan tekijän moraalisia ja taloudellisia oikeuksia, USA:ssa painotetaan sananvapautta ja innovaatioita. Meillä ei muuntavaa käyttöä (transformaatio) tunnisteta erillisenä oikeutuksena, mutta USA:ssa juuri transformatiivisuus, esimerkiksi uutta merkitystä tai asiayhteyttä luova käyttö on olennainen tekijä fair use –arvioinnissa.

Kielimallit eivät kuvaa ihmiskunnan historian saatossa kertynyttä kumulatiivista viisautta neutraalisti ja objektiivisesti, vaan sitä, mitä dataa kielimalliin on syötetty. GIGO-periaate pätee: Garbage In, Garbage Out. Mikään malli ei ole parempi kuin siihen syötetyt asiat.

Tekoäly olennaisesti ennustaa seuraavaa sanaa. Kielimalli aloittaa ennustamisen siitä asiayhteydestä, jonka käyttäjä sille antaa. Se ei päätä aloitussanaa itse.

Kielimalli on optimoitu tehtävään: annettuna asiayhteys, ennusta seuraava sana (token). Se ei pohdi tai järkeile aihetta, vaan toimii todennäköisyyksien perusteella annetun alkusyötteen jatkamiseksi.

Kielimallit tunnistavat semanttisia suhteita eli merkityksiä vain tilastollisesti, mutta eivät ymmärrä merkityksiä, kuten ihmiset.

Mallit eivät ymmärrä merkityksiä kokemuksellisesti tai intentionaalisesti. Ne eivät tiedä, mitä sanat viittaavat reaalimaailmassa. Niillä ei ole tietoisuutta eikä aistihavaintoja, mutta niihin on voitu ujuttaa tavoitteita.

Kielimallit koulutetaan teksteistä, jotka on pääosin kerätty internetistä. Tämä aineisto ei suinkaan ole neutraalia.

Kielimallit ovat monilla tavoilla vinoutuneita, koska ne heijastavat lähdeaineistojen maantieteellisiä (länsimaisia ja englanninkielisiä) ja kulttuurisia vinoumia (kulttuurien suullinen perinne, ei-digitaaliset tietomuodot ja vähemmistökielet loistavat poissaolollaan), sosioekonomisia vinoumia (internetin käyttäjät eivät ole edustava otos ihmiskunnasta, vaan koulutetut, varakkaat ja teknologisesti orientoituneet ovat yliedustettuja), historiallisia ja kulttuurisia valtarakenteita, kielellisten ilmausten tilastollista todennäköisyyttä, ei käsitteellistä syvyyttä sekä teknologisia ja kaupallisia rajoitteita.

Poimintoja videosisällöistämme

Kielimallit ovat epäluotettavia.

Kielimallit hallusinoivat eli tarjoavat epätosia vastauksia. Malli ei tiedä, se vain ennustaa todennäköisimmän reaktion saamaansa syötteeseen. Malli keksii myös harhaanjohtavia väitteitä. Se voi väittää, tosiasioiden vastaisesti, että jotakin on tapahtunut, vaikka sitä ei ole tapahtunut tai että jotakin tapahtunutta ei ole tapahtunut. Malli voi keksiä henkilöitä, lähteitä, tutkimuksia, lainauksia tai linkkejä, joita ei ole.

Hallusinaatiot johtuvat monista tekijöistä. Mallit eivät ymmärrä maailmaa tai faktoja kuten ihmiset. Ne vain ennustavat, mikä sana tulee seuraavaksi annettuun syötteeseen perustuen suureen määrään opittua tekstiä. Ne ovat tilastollisia ennustajia, eivät tietopohjaisia järjestelmiä. Kun mallilta kysytään asioita, joista sillä ei ole riittävästi dataa, se saattaa täyttää aukot keksityllä sisällöllä, joka vaikuttaa sopivalta, mutta ei ole totta.

Mallit voivat myös ymmärtää kysymyksen väärin tai tulkita sen epätarkoituksenmukaisesti ja vastata siihen harhaanjohtavasti. Malleilla ei ole reaaliaikaista pääsyä ulkoisiin lähteisiin, kuten verkkohakuun. Niiden reaktiot perustuvat koulutusdataan, joka voi olla vajavaista tai vanhentunutta – ja aina vinoutunutta.

Joukko humanistisesti suuntautuneita kielitieteilijöitä on esittänyt painavaa kritiikkiä laajojen kielimallien luomisen ja käytön hypetystä kohtaan. Yksi nimekkäimmistä on professori Emily Bender (Washingtonin yliopisto), jonka klassikoksi muodostuneessa artikkelissaan (On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?, 2021) kutsuu tekoälyä stokastiseksi eli satunnaiseksi papukaijaksi. Hänestä tekoäly on plagiointikone, joka syntyi paskana (born shitty).

Bender yhdessä Alex Hannan kanssa julkaisemassaan kirjassa The AI Con (Harper 2025) kiteyttää AI-hypetyksen kritiikin vakuuttavasti: Kyse on ensisijaisesti Big Techin eli suurten teknologiayritysten voitonhankinnasta, ei edes toissijaisesti kuluttajien palvelemisesta. Kirjassa algoritmien yliherrat saavat ansaitsemansa älyllisen, vankkaan tutkimustietoon perustuvan korvatillikan.

MAINOS (sisältö jatkuu alla)
Uusimmat
MAINOS (sisältö jatkuu alla)
MAINOS

Hyvä Verkkouutisten lukija,

Kehitämme palveluamme ja testaamme uusia sisältöformaatteja erityisesti mobiililaitteille. Haluaisitko osallistua testiin tässä ja nyt? Se vie vain muutaman minuutin.

(Uusi sisältö aukeaa painiketta klikkaamalla)