Surana vasemmalla ja Awais oikealla

Ihmisiä ei voi pelkistää dataksi

Identity 2.0 -studion Arda Awaista ja Savena Suranaa kiehtoo teknologia ja sen valtava voima muuttaa maailmaa ja yhteiskuntia. Digitaalisilla työkaluilla voi tehdä paljon hyvää mutta samalla myös haitat voivat levitä laajalle. Ne yhdessä tekoälyn kanssa voivat pelkistää ihmiset dataksi ja kärjistää konflikteja. Tekoälyn kehittymisen myötä myös autonomisten asejärjestelmien kehitys kiihtyy.  Tappajarobotit voivat päättää kuka elää ja kuka kuolee. Ne ovat digitaalisen dehumanisaation äärimmäinen muoto.

Julkaistu 31.10.2025

Jokaisen pitää uskaltaa Awaisin ja Suranan mielestään kysyä nopeassa digi- ja tekoälykehityksessä sitä, onko olemassa riittävästi yhteisiä sovittuja linjauksia, miten ja mihin teknologiaa käytetään. Teknojäteillä on paljon valtaa ja ne luovat kukin kovaa kyytiä omia sääntöjään, kun taas globaaleja ja yhteisten sääntöjen infrastruktuuria ei vielä ole.

Suranan mielestä kehitys on demokratia takaperin. Ongelma hänen mielestään on myös siinä, että yritysten mielikuvitus on rajoittunutta. ”Mahdollisuuksia kehittelevät läntiset ja etuoikeutetut omassa kuplassaan, jotka eivät näe koko globaalia kuvaa.”

Sitten on myös valtioiden haluttomuus puuttua omin keinoin teknojättien toimintaan. Esimerkkinä hän mainitsee Irlannin, jossa kipuillaan verotuksen ja muunkin säätelyn suhteen. Maa on tavallaan joutunut nurkkaan.  Jos kansallista säätelyä yritetään, pelkona on, että jätit lähtevät muualle. Ne tuovat kuitenkin maahan paljon rahaa.

***

Autonomisten aseidenkin säätelyssä ollaan vielä takamatkalla. YK:ssa kuitenkin otettiin 2.12.2024 suuri harppaus eteenpäin, kun sen yleiskokous hyväksyi päätöslauselman etenemisestä tappavien autonomisten aseiden säätelystä kansainvälisellä lainsäädännöllä osana tavanomaisten aseiden säätelyä.

Awais kertoo, että kaksikon kuratoimaa aiheeseen liittyvää näyttelyä tehtäessä kuuli usein väitteen siitä, että tarvitaan parempia ja tehokkaampia aseita ja että ellemme me kehitä niitä, joku toinen kehittää joka tapauksessa.  Surana näkee väitteellä yhteyden kansallisvaltioajatteluun: on suojeltava rajoja, on suojeltava valtiota.

Kummatkin korostavat jälleen kansalaisten tietoisuuden herättämistä, jotta ymmärtäisimme millaisia vaikutuksia digitaalisella kehitystyöllä ja tekoälyllä voi olla meihin, oikeuksiimme ihmisinä ja ylipäätään kansainväliseen oikeuteen. Kummankin mielestä on selvää, ettei sotilaallista voimankäyttöä voi uskoa tietokoneelle.  Mukana on aina oltava ihmisten harkinta ja kokonaisuuden arviointi.

”Tekoäly ei pysty tekemään harkittuja päätöksiä.” Esimerkkinä lapsi, joka on sotilaan sylissä ja sieppaa tämän hatun omaan päähänsä. Tätä kone ei pysty identifioimaan, se identifioi vain sotilaan ja sotilaan varustuksen. Virheet ja harhaanjohtamiset ovat jo ja tulevat olemaan yleisiä. Kone ei voi olla niistä vastuussa koska se toimii vain ohjelmoidulla tavalla. Kuka silloin istuu sotarikostuomioistuimessa? Insinööri, ohjelmoija, yritys – ei ainakaan kone, kenties ei kukaan?

Ongelma on myös asevarainen suurvaltakilpailu, johon myös Eurooppa osallistuu. Kiinnostavaa niille on vain kuka voittaa kilpailun eikä sen hinta. Kaksikon mielestä äärimmäinen esimerkki on Gazaa moukaroiva Israel, joka testaa ja käyttää uutta teknologiaa päämääränään ottaa alue omaan hallintaansa. Tappamisen kohteita ei erotella mitenkään koska teknologia ei sitä tee. Siksi uhreissa on paljon lapsia ja ruokaa hakevia nälkäisiä ihmisiä.

”Meillä oli mahdollisuus haastatella Länsirannalla asuvaa nuorta journalistia, joka kertoi Israelin alinomaisesta droonien testaamisesta ja käytöstä. Koko hänen lapsuutensa ajan hänen perhettään ja heidän tekemisiään on valvottu. Drooneja on käytetty ihmisten tunnistamiseen.”

***

Surana mainitsee kiinnostavana asiana, että teknojäteissä, esimerkkinä Google, työntekijät ovat virittäneet yhtiön sisäistä keskustelua kehitystyöstä. He sanovat: ”Haluamme tehdä kiinnostavaa teknologiaa mutta emme kaikkiin tarkoituksiin. Emme halua kehittää juuri tätä teknologiaa, koska sitä käytetään aseistamiseen.” Hänellä riittääkin paljon uskoa ammattiliittoihin, osuuskuntiin, paikallisyhteisöihin sekä ylipäätään tiedonsaannin edistämiseen ja tietoisuuden kasvattamiseen.

Awais katsoo lisäksi, että hallitusten pitäisi tehdä paljon enemmän selvitystä ennen kuin tukevat suuria investointeja. ”Pitää ymmärtää isojen toimijoiden motiiveja.” Ylipäätään tarvittaisiin rauhallisempaa tahtia nopean kehityksen ja nopeiden päätösten sijaan, jotta saataisiin kuultua enemmän ääniä, myös kriittisiä.

Kun he kiertävät puhumassa ihmisoikeuksista digi- ja tekoälyhuumassa, ilmastomuutos ja asevarustelu uhkaavat kummatkin ruohonjuuritasolla elävien ihmisten elämää. Tekoälyllä voisi olla paljon hyvää annettava terveydenhuollolle, koulutukselle ja pienille paikallisille yhteisöille samoin kuin asevarustelun ja ilmastomuutoksen hallinnalle. Aiwas kysyy: ”Mikä idea on nyt taistella vallasta maailmassa, jota ei ehkä kohta ole. Sota ja varustelu vaikuttaa myös ilmastoon. Eri kansalaisryhmien pitäisi toimia siksi yhdessä koska tekoäly tuottaa paljon risteytyvää hyötyä – ja myös haittaa.”

Suomelta, pohjoismailta ja yleensäkin pieniltä mailta he odottavat johtajuutta teknologian moraali- ja etiikkakeskustelussa. Maailmaherruudesta kamppailevien suhteen he ovat lähes menettäneet toivonsa. Surana muistuttaa mielikuvituksen päästämisestä valloilleen, jotta voidaan aikaansaada radikaaleja muutoksia niin ihmisten kuin luonnonkin hyväksi. ”Jos yritysten motiivi investointeihin on raha, pitää aina olla kriittinen. Se rajoittaa mielikuvitusta.”

 

Identity 2.0 on palkittujen digiasiantuntija Arda Awaisin ja taiteilija Savena Suranan perustama luova studio.  Studio työskentelee Lontoossa digitaalisten oikeuksien, teknologian ja identiteetin risteävässä kentässä ja on kiinnostunut kehittämään ihmiskuntaa palvelevaa digitaalista tulevaisuutta.

Studio on tehnyt yhteistyötä muun muassa Stop Killer Robots -kampanjan kanssa, jota Suomessa koordinoi Kaisu Kinnunen.  Kaksikko esiintyi Maailma kylässä -festivaalissa 24.5. ja kuratoi Automated by Design -näyttelyä, jonka takana ovat Stop Killer Robots, Amnesty International ja Soka Gakkai International.

Teksti ja kuva: Arja Alho