Verkkouutiset

Vihapuhetta tunnistavat työkalut helposti huijattavissa

Tutkijat osoittivat, että sosiaalisessa mediassa ja verkkopalveluissa käytettävät vihapuheentunnistimet ovat helposti ihmisten huijattavissa.
MAINOS (artikkeli jatkuu alla)

Vihapuheen ja loukkaavan kommentoinnin määrä verkossa vain kasvaa. Sen hillitsemiseksi tarvitaan automaattisia työkaluja, jotka tunnistavat verkkopalvelujen sääntöjen vastaisen tai jopa laittoman sisällön.

Aalto-yliopiston Secure Systems -tutkimusryhmä on kuitenkin löytänyt parhaistakin koneoppimiseen perustuvista vihapuheentunnistimista merkittäviä heikkouksia. Käyttäjien on yllättävän helppo kiertää vihapuheen suitsemiseen kehitettyjä tekoälytyökaluja.

Tarkoituksellinen tai tahaton huono kielioppi ja kirjoitusvirheet voivat tehdä vihanlietsonnasta ja loukkauksista tekoälylle vaikeita tunnistaa.

Ryhmä kokeili seitsemän uuden tunnistamistyökalun tarkkuutta. Kaikki reputtivat testit.

Nykyaikaiset luonnollisen kielen prosessointiin käytetyt mallit pystyvät luokittelemaan tekstiä merkkien, sanojen ja lauseiden piirteiden perusteella. Kun mallit joutuvat analysoimaan tekstidataa, jollaista ei ole käytetty niiden opettamiseen, tulosten laatu alkaa kärsiä.

– Lisäsimme vihapuheeksi tai loukkaavaksi määriteltyjen kommenttien sekaan kirjoitusvirheitä, muokkasimme sanojen rajoja tai lisäsimme joukkoon neutraaleja sanoja. Välilyöntien poistaminen sanojen välistä osoittautui englanninkielisen sisällön manipuloinnissa tehokkaimmaksi. Kaikkia keinoja yhdistelemällä saimme jopa Googlen kommenttien arvottamiseen käyttämän Perspective-työkalun sekaisin, kertoo Tommi Gröndahl, Aalto-yliopiston tohtorikoulutettava.

Google Perspective luokittelee kommenttien loukkaavuutta tai ”toksisuutta” eri tekstianalyysin menetelmien avulla. Viime vuonna Washingtonin yliopiston tutkijat osoittivat, että Perspectiveä voi kuitenkin huijata lisäämällä tekstiin pieniä kirjoitusvirheitä.

Gröndahl havaitsi kollegoineen, että Perspective on sittemmin oppinut tunnistamaan myös kirjoitusvirheet, mutta se on edelleen huijattavissa muunlaisella manipuloinnilla, esimerkiksi poistamalla välilyöntejä ja lisäämällä harmittomia sanoja, kuten love, ’rakkaus’.

Tutkijat huomauttavat, että asiayhteys määrittää pitkälti sen, tulkitaanko yksittäinen kommentti vihaksi vai vain asiattomaksi tai mauttomaksi. Vihapuhe on subjektiivista ja kontekstisidonnaista, ja tutkijoiden mukaan pelkät koneelliset tekstianalyysimenetelmät eivät riitä sen tarkkaan tunnistamiseen.

– Ihmiset muuttavat toimintaansa ja alkavat kokeilla eri tapoja kirjoittaa, koska he haluavat välttää kiinnijäämistä. Ollakseen tehokas tekoäly tarvitsee avukseen ihmisen tekemää tulkintaa, uskoo tutkimusryhmän johtaja, Aalto-yliopiston professori N. Asokan.

Tekstiä analysoivien koneoppimismallien kehittämisessä tulisi tutkijoiden mukaan kiinnittää huomiota mallien opettamiseen käytettävän datan laatuun ja monipuolisuuteen, eikä niinkään mallien rakenteiden hiomiseen.

Tutkimus tehtiin yhteistyössä Aalto-yliopiston Secure Systems -ryhmän ja Padovan yliopiston tutkijoiden kanssa. Tulokset esitellään lokakuussa ACM AISec -konferenssissa Torontossa.

MAINOS (sisältö jatkuu alla)
MAINOS (sisältö jatkuu alla)
Uusimmat
MAINOS (sisältö jatkuu alla)
MAINOS

Hyvä Verkkouutisten lukija,

Kehitämme palveluamme ja testaamme uusia sisältöformaatteja erityisesti mobiililaitteille. Haluaisitko osallistua testiin tässä ja nyt? Se vie vain muutaman minuutin.

(Uusi sisältö aukeaa painiketta klikkaamalla)