Palkittu politiikan aikakauslehti
72€/6kk

Politiikka

”Jos sisältö näyttää uskomattomalta, pitäisi hälytyskellojen soida” – deepfake-valevideot valjastettiin Ukrainan sodan propaganda-aseeksi

Handout / UKRAINIAN PRESIDENTIAL PRESS SERVICE / AFP) / - LEHTIKUVA / AFP
Ukrainan presidentti Volodymyr Zelenskyistä on kiertänyt sosiaalisessa mediassa väärennetty video.

Ukrainan sota on monessa mielessä hyvin vanhanaikainen hyökkäyssota, jossa isompi maa on rynnännyt pienemmän naapurinsa rajojen yli tankeilla ja sotilailla sekä pommittanut tämän kaupunkeja ilmavoimin ja tykistöiskuin. Etukäteen pelätyt Venäjän kyvyt kybersodankäyntiin ovat tosiasiassa jääneet vähäiseen rooliin.

DEMOKRAATTI/STT

Demokraatti

Taisteluiden ympärillä vellovassa informaatiosodassa käytetään kuitenkin myös uusimpia välineitä. Tästä nähtiin esimerkki tällä viikolla ukrainalaisessa sosiaalisessa mediassa levitetyssä väärennetyssä videossa, joka on esittävinään maan presidentti Volodymyr Zelenskyin antautumiskäskyä sotilailleen.

Valeuutinen antautumisesta esiintyi hakkeroidussa Ukraine 24 -televisiokanavan lähetyksessä ja video julkaistiin hakkeroidulla uutissivustolla. Ukraine 24 -kanava julkaisi Facebook-sivuillaan varoituksen valeuutisesta. Video levisi myös sosiaalisessa mediassa, kertoi uutissivusto Vice.

Ukrainan viranomaiset ampuivat välittömästi videon alas väärennöksenä, ja presidentti Zelenskyi itse julkaisi heti videovastineen, jossa vakuutti, ettei Ukraina ole antautumassa Venäjälle. Videolla ei näytä olleen vaikutuksia sodan kulkuun.

Kuka vain voi tehdä valevideoita ilman teknistä osaamista

Video on niin kutsuttu deepfake eli syväoppimista käyttävillä algoritmeilla luotu väärennös, jossa oppiva koneäly on luonut keinotekoisen version Ukrainan presidentistä jo olemassa olevasta videomateriaalista. Käytännössä tämä tehdään useimmiten vaihtamalla näyttelijän kasvot koneälyn luomaan digitaaliseen naamioon. Vale-Zelenskyi on sitten pantu lausumaan väärentäjän käsikirjoittamaa puhetta, joka vaikuttaa niin ikään koneellisesti luodulta.

Nyt nähty väärennös ei edusta tekniikan terävintä kärkeä, sanoo alan suomalaistutkijoihin kuuluva Aalto-yliopiston professori Jaakko Lehtinen STT:lle.

-  Näyttää mielestäni aika perustasoiselta deepfakelta, joiden tekeminen on ollut mahdollista avoimesti saatavilla olevilla koodeilla jo useita vuosia. Ei missään tapauksessa parasta, mihin nykyteknologialla pystyttäisiin, kertoo Lehtinen STT:lle.

Netistä löytyy valmiita koodipaketteja, jotka lataamalla kuka tahansa tietokoneen käyttäjä voi luoda deepfake-videon ilman erityistä ohjelmointiosaamista tai tietämystä koneoppimisesta, Lehtinen sanoo. Valmiin koodin lisäksi tarvitaan vain tarpeeksi olemassa olevaa kuvamateriaalia kohteeksi valitusta ihmisestä. Näiden perusteella koneäly oppii jäljentämään kasvot.

Deepfake-tekniikoita on nähty huvikäytössä sosiaalisen median videosovelluksissa. Tekniikan nurjaa puolta on nähty luvatta tehdyissä pornovideoissa, joissa julkisuudesta tunnetun naisen kasvot on yhdistetty aikuisviihdenäyttelijän vartaloon.

“Tällä ei ehkä ollut sitä vaikutusta, jota ehkä ajateltiin”

Zelenskyi-video on viime aikojen näkyvin esimerkki deepfake-videoista valtiollisen sotapropagandan työkaluna. Helsingin yliopiston ja Aalto-yliopiston tutkija Matti Nelimarkan mukaan tämäntyyppinen toiminta tulee varmasti lisääntymään tulevaisuudessa, mutta mikään mullistava työkalu se ei ole propagandatehtailijoille.

-  Käyttö riippuu hyödyllisyydestä. Tällä ei ehkä ollut sitä vaikutusta, jota ehkä ajateltiin tai toivottiin, Nelimarkka kertoo STT:lle.

Nelimarkan mukaan deepfake-videot ovat vain yksi työkalu muiden joukossa sodanajan disinformaation tehtailijoille. Valekuvastoa on tehtailtu esittämällä fiktiivistä kuvastoa esimerkiksi videopeleistä aitoina sotatapahtumina. Myös oikeita tapahtumia esittäviä videoita tai kuvia voidaan muokata tai irrottaa alkuperäisestä asiayhteydestään.

-  Siihen verrattuna tämä on toki sofistikoituneempaa, eikä varmasti jää ainoaksi kerraksi, kun tätä käytetään, Nelimarkka sanoo.

Tutkijan mukaan deepfake-videot ovat havaittavissa väärennöksiksi teknisistä yksityiskohdista, mutta tämä vaatii usein harjaantunutta silmää. Tavalliselle katsojalle tärkeämpää olisi pitää mielessä lähdekritiikki ja kontekstin taju.

-  Se mitä (väärennetty) Zelenskyi tuossa sanoo, on ristiriidassa hänen muun viestintänsä kanssa. Ehkä sen takia viesti jäi sellaiseksi, ettei sillä ollut sitä vaikuttavuutta, jota tekijät ehkä ajattelivat, pohtii Nelimarkka.

Perinteiseen kriittiseen suhtautumiseen lähteisiin ja sisältöön kehottaa myös professori Lehtinen. Riippumattomat vahvistukset ovat hänen mukaansa paras keino disinformaation torjuntaan.

-  Jos sisältö näyttää uskomattomalta, pitäisi hälytyskellojen soida ihan perusmedialukutaidon mukaan.

Kohdistuuko jatkossa myös Suomeen?

Nelimarkan mukaan todisteiden väärentäminen on ollut aina osa sodankäyntiä, eikä deepfake tuo tähän mullistavaa uutta. Toisaalta deepfake-videoiden tehtailu ei nykytekniikalla ole vaikeata, joten kynnys niiden käytölle jatkossa ei ole korkea.

Myös Suomen on pelätty joutuvan lisääntyvän informaatiovaikuttamisen kohteeksi Nato-suhteen tiivistyessä. Se voi näkyä myös suomalaisista tehtailtuina deepfake-videoina.

-  Ei se mahdotonta yhtään ole. Suomeenhan kohdistuu jatkuvasti valtavasti informaatiovaikutusta. Pysyn aika etäällä Twitteristä itse, mutta on selvää, että siellä on valtiosponsoroituja feikkitilejä, jotka levittävät kaikenlaista, Jaakko Lehtinen sanoo.

Lehtinen pitää kuitenkin yksinkertaisempaa tekstimuotoista valesisältöä tehokkaampana työkaluna propagandalle kuin videoväärennöksiä.

Matti Nelimarkka ei pidä todennäköisenä, että deepfake-videoilla saavutettaisiin tuloksia Suomessa, jossa väärennökset paljastuisivat nopeasti vapaassa mediassa.

-  Jos Suomessa nähtäisiin, että joku kulttuurivaikuttaja deepfeikattaisiin sanomaan, että en usko että kannattaa liittyä Natoon, iso ongelma (väärentäjälle) on se, että meillä on Suomessa eurooppalaisittainkin poikkeuksellisen korkea luottamus perinteiseen mediatoimintaan. Tällaisessa tilanteessa Yle tai vastaava voi hyvin nopeasti korjata tämän. En usko, että tätä yritettäisiin meillä, sanoo tutkija.

Nelimarkan mukaan alalla käydään jatkuvaa eettistä keskustelua kehitettävien menetelmien pahantahtoisista käyttötarkoituksista. Usein teknologiakehityksessä ajatellaan edelleen, että teknologia itsessään on neutraalia.

-  Meillä tutkijoilla on oma verinen historiamme atomipommien kehityksestä lähtien. Ainahan teknologiaa on käytetty pahaan, mutta taustalla on yleensä ollut ajatus jostain hyvästä. Nyt on herätty tähän keskusteluun informaatioteknologian osalta, mutta se ei ole vielä mielestäni laajalti vaikuttanut siihen, mitä tutkijat ja kehittäjät tekevät.

STT – Lassi Lapintie

Jaa tämä artikkeli

Kommentit

Artikkeleita voi kommentoida yhden vuorokauden ajan julkaisuhetkestä. Kirjoita asiallisesti ja muita kunnioittaen. Ylläpito pidättää oikeuden poistaa sopimattomat viestit ja estää kirjoittajaa kommentoimasta.

Sähköpostiosoitteesi

Toimituksen valinnat

Toimituksen valinnat

Demokraatti

päätoimittaja: Petri Korhonen
Lähetä juttuvinkki →

Toimitus: PL 338, 00531 Helsinki, puh. 09 701 041

Arbetarbladet

chefredaktör: Topi Lappalainen
Kontakt →

Redaktion: Broholmsgatan 18-20 C, 00531 Helsingfors

Tietosuoja-asetukset

2018 DEMOKRAATTI
TIETOSUOJA- ja REKISTERISELOSTE