ChatGPT:stä on löytynyt vakava haavoittuvuus, kertoo tietoturvayhtiö Check Point. Haavoittuvuuden takia käyttäjien luottamuksellisia tietoja on ollut mahdollista siirtää ulos palvelusta. Tietojen siirto on voitu tehdä ilman käyttäjän lupaa tai tietoisuutta.
Hyökkäys hyödynsi tekoälyalustan infrastruktuurin niin sanottua sokeaa pistettä, joka ohitti palvelun omat turvarajoitukset ja kiersi hiekkalaatikon (sandbox) eristyksen.
ChatGPT:n kehittänyt Open Ai -yritys korjasi haavoittuvuuden 20. helmikuuta 2026. Tutkimustiedon mukaan haavoittuvuutta ei ehditty hyödyntää laajasti ennen sen paikkaamista.
Haavoittuvuus on mahdollistanut kaiken tiedon siirtämisen ulkoiseen osoitteeseen. Niitä ovat niin viestit, liitetiedostot kuin tekoälyn tekemät yhteenvedot.
Hyökkäys hyödynsi piilotettua DNS-pohjaista (Domain Name System) tietoliikenneyhteyttä, jota järjestelmä ei tunnistanut ulkoiseksi tiedonsiirroksi. Siksi se ei laukaissut varoituksia tai lupakyselyitä.
Check Pointin mukaan haavoittuvuutta voitiin hyödyntää kustomoiduissa GPT-sovelluksissa. Testitilanteessa ”lääkärinä” toiminut GPT-sovellus vakuutti käyttäjälle, ettei tietoja jaeta, vaikka se samalla lähetti potilastiedot hyökkääjän palvelimelle.
Sama reitti mahdollisti komentojen etäsuorituksen (Remote Command Execution) ChatGPT:n Linux-pohjaisessa suoritusympäristössä, mikä nosti riskin yksityisyyden suojasta koko alustan tietoturvaan.
Tekoälyalustat ovat uusi haaste tietoturvalle
Check Pointin tekemä tutkimus kyseenalaistaa riskialttiin oletuksen tekoälytyökalujen oletusturvallisuudesta. Tietoturvayhtiö muistuttaa, että organisaatioiden on suhtauduttava tekoälyalustoihin samalla vakavuudella kuin pilvi- ja konesali-infrastruktuuriin. Tämä on erittäin tärkeää siksi, että käyttäjät syöttävät palveluihin päivittäin arkaluontoisia tietoja luottaen palveluntarjoajan omiin suojauksiin.
– Tämä tutkimus vahvistaa tekoälyajan karun totuuden: tekoälytyökalujen ei pidä olettaa olevan lähtökohtaisesti turvallisia. Kun tekoälyalustat kehittyvät kokonaisiksi suoritusympäristöiksi, jotka käsittelevät arkaluonteisinta tietoamme, palvelun omat suojaukset eivät enää yksin riitä. Organisaatiot tarvitsevat riippumatonta näkyvyyttä ja kerroksellista suojausta itsensä ja tekoälytoimittajien välille. Vain siten voimme edetä turvallisesti – uudistamalla tekoälyn turva-arkkitehtuuria sen sijaan, että vain reagoimme seuraavaan tietoturvapoikkeamaan, sanoo Check Point Researchin tutkimusjohtaja Eli Smadja tiedotteessa.
Säännellyillä toimialoilla, kuten terveydenhuollossa ja finanssisektorilla, tekoälypalvelun tietoturvapoikkeama voi johtaa suoraan GDPR-tietosuojaloukkauksiin tai viranomaisvaatimusten laiminlyöntiin. Check Pointin tutkimus korostaa, että organisaatioiden on päivitettävä tietoturvastrategiansa vastaamaan tekoälyajan vaatimuksia, joissa jatkuva valvonta ja riippumaton validointi ovat välttämättömiä.