Palkittu politiikan aikakauslehti
72€/6kk

Ulkomaat

Kuka on vastuussa, jos kone tappaa? Itsenäiset asejärjestelmät halutaan kieltää ajoissa

LEHTIKUVA / VESA MOILANEN

Tekniikan ja tekoälyn kehitys ovat tuoneet itsenäisesti toimivat asejärjestelmät jo käden ulottuville, mutta toistaiseksi tappajarobotit eivät ole tehneet näyttävää esiinmarssia taistelukentille. YK:ssa puuhataan parhaillaan uutta kansainvälistä sopimusta varmistamaan, ettei näin koskaan kävisi.

DEMOKRAATTI/STT

Demokraatti

Uuden sopimuksen puolesta toimii myös kansainvälinen Stop Killer Robots –kampanja, jonka irlantilaisen tutkimuspäällikön Catherine Connollyn (kuvassa) mukaan YK:ssa syntynee jo tänä syksynä uusi päätöslauselma pohjustamaan tulevaa, laillisesti sitovaa sopimusta. Hankkeeseen myötämielisesti suhtautuvia valtioita on satakunta.

Myös puolustusteollisuudessa yritykset ovat kaivanneet selkeämpiä pelisääntöjä sallitusta ja kielletystä.

-  Emme siis välttämättä ole tässä vastakkaisilla puolilla, kansainvälisen oikeuden ja turvallisuuden tutkimuksen tohtori Connolly sanoo STT:n haastattelussa.

Sama koskee asevoimia. “Tappajarobotteja” vastustavan kampanjan mukaan sallittujen asejärjestelmien pitäisi olla sellaisia, että ne toimivat ennustettavasti, ihminen kykenee ymmärtämään niiden toimintaa ja aseiden toiminta-aika ja -alue on jotenkin rajattu.

-  Kyllä sotilaatkin toivovat asejärjestelmiensä toimivan siten kuin niiden on ajateltu toimivan, Connolly sanoo.

CONNOLLYN mukaan kieltolistalle kuuluisivat aseet, jotka on suunnattu nimenomaan ihmisiä vastaan, mutta jotka toimivat ilman “merkityksellistä ihmisen valvontaa”.

-  Eli emme siis tietäisi, missä, milloin ja ketä vastaan voimaa käytetään, hän tiivistää.

Toistaiseksi tällainen tulevaisuuden näkymä ei tunnu miellyttävän monia valtioita ja asevoimia. Connollyn mukaan erään suuren aseyhtiön johtaja oli todennut, että teknologiset edellytykset itsenäiseen päätöksentekoon ovat olemassa, mutta ne on rajattu pois “asiakkaan pyynnöstä”.

-  Eli jos asiakkaat niin haluaisivat, rajoitukset voitaisiin poistaa, Connolly perustelee sääntelyn kiireellisyyttä.

TEKNOLOGIAN kehitys saattaa hämärtää ihmisen ja koneen tekemän päätöksen rajaa. Esimerkiksi nykyaikaisen hävittäjän sensorit keräävät sellaisen määrän tietoa, ettei lentäjä kykenisi käsittelemään sitä itse. Siksi tietokoneet yhdistelevät ja käsittelevät tietomassan ja tarjoavat sitten päätelmänsä ihmiselle.

Connollyn mukaan tutkimusten perusteella ihminen ei hevin kyseenalaista koneen hänelle tarjoamaa vaihtoehtoa.

-  Ajatellaan, että koska tietokone neuvoi toimimaan näin, niin todennäköisesti se sitten on oikein, hän tiivistää.

Connollyn mukaan voi hyvin kysyä, kuinka valistuneena inhimillisenä päätöksenä voi pitää aseen laukaisemista tällaisessa tilanteessa.

-  Toisaalta tärkeää on myös se, että ihmisellä kuitenkin on kyky kyseenalaistaa tai haastaa koneen tekemä ehdotus, Connolly sanoo.

Inhimillinen epäröinti voi olla sodankäynnissä päätöksentekoa hidastava haitta, mutta tässä sillä on oma arvonsa.

Toinen tärkeä kysymys on vastuu.

-  Sodan oikeussääntöjen mukaan vastuu kuuluu ihmiselle. Sitä ei voi delegoida koneelle, Connolly sanoo.

Hän myötää, että tietoa väsymättä analysoiva kone ei ehkä tee sodassa inhimillisiä virheitä.

-  Erehdyksen mahdollisuuden vähentäminen voi olla hyvä asia, mutta sen pitää rajoittua kohteen valintaan. Päätöksen iskeä kohteeseen täytyy pysyä aina ihmisellä, Connolly sanoo.

Niilo Simojoki / STT

Jaa tämä artikkeli

Kommentit

Artikkeleita voi kommentoida yhden vuorokauden ajan julkaisuhetkestä. Kirjoita asiallisesti ja muita kunnioittaen. Ylläpito pidättää oikeuden poistaa sopimattomat viestit ja estää kirjoittajaa kommentoimasta.

Sähköpostiosoitteesi

Toimituksen valinnat

Toimituksen valinnat

Demokraatti

päätoimittaja: Petri Korhonen
Lähetä juttuvinkki →

Toimitus: PL 338, 00531 Helsinki, puh. 09 701 041

Arbetarbladet

chefredaktör: Topi Lappalainen
Kontakt →

Redaktion: Broholmsgatan 18-20 C, 00531 Helsingfors

Tietosuoja-asetukset

2018 DEMOKRAATTI
TIETOSUOJA- ja REKISTERISELOSTE