torstai 1. maaliskuuta 2018

Soturi, huora ja puolalainen putkimies

Satunnainen lukija saattaa ihmetellä otsikkoa. Tämä kirjoitus käsittelee tekoälyä. Ja otsikolle saadaan myöhemmin aivan ymmärrettävä selitys.

Tekoälystä kirjoittelu on kiihtynyt viime aikoina arvoituksellisesti. Itse olen välttänyt osallistumista kirjoitteluun, koska olen parhaillaan kirjoittamassa kirjaa tekoälystä. Olen siis varsin syvällä aiheessa, ja yleisen keskustelun teemat eivät mielestäni juurikaan käsittele olennaista asioita. En ole viitsinyt hajauttaa energiaani niihin suuntiin. Mutta ehkä nyt olisi jo aika. Julkinen tekoälykeskustelu on ollut jäsentymätöntä kauhistelua – enimmäkseen. Onhan toki myös esitetty asiallinen ja varsin vakava puheenvuoro, jonka yhteyttä tekoälykeskusteluun ei jostain syystä ole aina haluttu nähdä. (Cathy O'Neil: Matikkatuhoaseet. Terra Cognita 2017).

Tekoäly on eräs nimi tiedevetoiselle teknologiselle innovaatiolle, joka on ollut käynnissä pitkään. Sen synnytti sähköisten tietokoneiden kehittäminen 1950-luvulla. "Tekoäly”-sana otettiin käyttöön vuonna 1957, ja se on tuonut oman dramaattisen ja tunteisiin vetoavan sävyn teknologiaa koskevaan keskusteluun. Alussa tietokoneilla todella yritettiin jäljitellä ”inhimillisen älyn piirteitä”, kuten loogisten päätelmien tekemistä ja kielen ymmärtämistä. Aritmetiikkaa ja shakkipeliä lukuun ottamatta tietokoneiden saavutukset tällä saralla olivat kuitenkin vaatimattomia. Tekoälykeskustelu on viime aikoina virinnyt uudelleen. Tekoälyn käsite on samalla laajentunut koskemaan tietokoneiden käyttöä ihmisten apuna hyvinkin erilaisilla tavoilla. Tällä tavalla laajennettu tekoäly on monimuotoinen ja pitkään jatkunut teknologiatrendi. Sillä on tietenkin aikojen kuluessa ollut sekä erilaisia nimiä että erilaisia teknisiä tunnusmerkkejä. Olemme oppineet tuntemaan ilmiön nimillä kybernetiikka, automaatio, tietokoneistuminen, digitalisaatio.

Tekoäly on totta ja tietokoneet ovat totta. Ne ovat ja tulevat olemaan ympärillämme, seurassamme ja osana yhteiskunnan infrastruktuuria. Ajattelin tarkastella tekoälyä hieman poikkeavasta näkökulmasta. Miten meidän tulisi suhtautua toimijaan, jolla saattaa olla merkittäviä ja jopa omat kykymme ylittäviä taitoja, tai joka sekaantuu elämäämme ehkä enemmän ja kavalammin kuin oikeastaan edes haluaisimme. Eli kysymys on siitä, miten tekoälyyn pitäisi suhtautua? Tämän kysymyksen takana on olettamus, joka ei ehkä ole aivan ilmeinen. Ei ole mitään yhtä tyypillistä tekoälyä, vaan on olemassa vahvistuva teknologinen trendi, joka tuottaa erilaisia fyysisiä hahmoja, käyttäytymisen piirteitä ja hyödyllisiä tai haitallisia vaikutuksia. Voisimmeko ehkä tunnistaa erilaisia tekoälyn tyyppejä ja miettiä suhtautumistamme niihin?

Ehkä yllättävin tekoälyn laji on näkymätön. Tällainen tekoäly ei puutu asioihimme – tai jos se sen tekee, emme huomaa sitä. Se ei myöskään tyrkytä palveluksiaan, vaan mieluummin se vaikenee. Tämä tekoäly on ollut seuranamme vuosikymmeniä, ja se tekee elämästämme sujuvampaa. Asian havainnollistamiseen tarvitaan muutama esimerkki. Tekoälyn ohjaamat liikennevalot lisäävät liikenteen sujuvuutta. Voimme turhautua yksittäisen risteyksen liikennevalon toimitaan, jos emme muista, että tekoälyn vastuulla on kokonaisen kaupunginosan liikenne. Yksilö joutuu joskus odottamaan, jotta yleinen hyvä toteutuisi paremmin. Tällainen tekoäly näyttäisi siis jopa tuottavan jonkinlaista moraalista hyvää yhteisöllisyyden muodossa.

Samanlaista hyvää tuottaa tekoälyn ohjaama hissi. Emme taaskaan ymmärrä, miten hyvin meitä palvellaan. Joskus ulkomailla olen asunut korkeassa hotellissa, jonka hissejä ei ohjaa tekoäly, vaan yksinkertainen relelogiikka. Älyn puute näkyy ruuhka-ajan huonona palveluna ainakin kahdella erilaisella tavalla, riippuen releiden johdotuksesta. Ensimmäisessä tapauksessa hotellin keskikerroksissa asuvat eivät pääse hissiin. Hissit ajavat ensin yläkerroksiin, ja palaavat sitten täytenä alas ohittaen keskikerrokset. Toisessa variaatiossa hissit pyrkivät minimoimaan ajomatkaa. Ylös tulevat hissit täyttyvät jo keskikerroksiin mennessä, eivätkä koskaan pääse ylös asti. Tekoälyn ohjaamat hissit palvelevat kaikkia kerroksia tasapuolisesti. Ne varmistavat, että kukaan ei joudu odottamaan liian kauaa. Tapaamme erilaisia näkymättömiä tekoälyjä matkustaessamme ja tapaamme niitä sairaaloissa ja tehtaissa. Tai emme tapaa, sillä ne eivät halua tehdä numeroa itsestään.

Huolestunut kansalainen voisi kysyä, eikö tällainen tekoäly ole vaarallinen? Entä, jos tekoäly tekee virheen sytyttämällä risteyksessä molemmille risteäville kaduille vihreän valon? Tai entä jos tekoälyn ohjaama hissi yrittää ajaa kellarin lattian läpi? Tai entä jos se avaa kerroksen oven, vaikka hissi ei ole paikalla? Huolestunut kansalainen voi rauhoittua. Näkymättömiä tekoälyjä alettiin rakentaa vuosikymmeniä sitten. Silloin ei puhuttu ”koneiden moraalista” ja tietokoneet olivat varsin epäluotettavia. Suunnittelijat omaksuivat lähes vaistomaisesti erään robotiikan perussäännön: robotti ei saa aiheuttaa vahinkoa (ks. Koneiden moraali. Käytännössä tämä ominaisuus on saatu aikaan kerrostetun rakenteen avulla. Turvallisuuteen liittyvät toiminnat perustuvat luotettavaan teknologiaan. Tekoäly ei voi vaikuttaa turvallisuuden takaaviin laitteisiin eikä ohittaa niitä. Esimerkiksi hissikuiluun vievä ovi varmistetaan mekaanisen lukituslaitteen avulla. Tekoäly saattaa tietää, onko ovi auki vai kiinni, mutta se ei voi vaikuttaa itse lukitukseen. Aivan vastaava järjestelmä takaa ydinvoimaloiden turvallisuuden, tai ainakin estää tekoälyn sekaantumisen turvallisuuteen vaikuttaviin toimintoihin.

Seuraavana tekoälyn lajina voisimme pohtia tekoälyjen toimintaa työkaluna, avustajana tai jopa työtoverina. Nyt tekoäly on ihmisen kumppani, ja ihminen on tietoinen sen toiminnasta. Tämäkin tekoälyn laji on varsin vanha. Nyt ihminen on mukana aktiivisena toimijana, ja ainakin periaatteessa hän tekee päätöksen, uskooko tekoälyn toimivan luotettavasti ja ilman virheitä. Tämä tekoälyn laji on monen asiantuntijan mielestä huolestuttava. Onko ihmisellä perusteita arvioida tekoälyn kykyä tehdä hyödyllisiä asioita – ja onko häntä edes ohjeistettu suhtautumaan apulaiseensa kriittisesti? Taas tarvitaan esimerkkejä. Lääkärit ja insinöörit käyttävät monimutkaisia mittaus- ja analyysilaitteita. Mutta osaavatko he arvioida niiden luotettavuutta. Analysaattorit, kuvankäsittelyohjelmat ja potilasaineistot auttavat lääkäreitä tekemään diagnooseja ja suunnittelemaan hoitoja. Mutta millä perusteella koneiden tuottamaan dataan voi luottaa?

Erityisen dramaattinen esimerkki on lentokoneiden autopilotit ja muut lentämistä avustavat järjestelmät. Ne on kehitetty helpottamaan pilottien työtaakkaa ja estämään inhimillisestä virheestä aiheutuvat onnettomuudet. Ne ovat olleet myös osallisina onnettomuuksissa. Jokseenkin aina kyse on pilotin väärinkäsityksestä: hän on arvioinut kokonaistilanteen väärin, ohittanut järjestelmän suosittelemat toimenpiteet, tai jopa kytkenyt avustajansa pois päältä. Tärkeää onkin ollut kehittää pilotin ja tekoälyn välistä kommunikointia. On vaikea sanoa, kuinka paljon onnettomuuksia lentokoneiden tekoäly on estänyt. Luultavasti luku on tavattoman paljon suurempi, kuin kommunikaation virheistä aiheutuneiden onnettomuuksien määrä.

Uusi avustavan tekoälyn tyyppi käyttää hyväkseen hyvin laajoja aineistoja ja etsii niistä hyvin monimutkaisia yhteyksiä. Puhutaan tiedon louhimisesta, ja käytetään sellaisia sanoja kuin big data ja syväoppiminen. Tällaiset tekoälyt ovat ilman muuta ihmistä ja suurempiakin ihmisjoukkoja kyvykkäämpiä. Voiko tällaiseen järjestelmään luottaa, jos sen tuottaman tiedon perustelu on ihmisen välittömän käsityskyvyn ulottumattomissa? Ei välttämättä eikä sokeasti. Juuri tätä ongelmaa käsittelee Matikkatuhoaseet. Erityisen mielenkiintoiseksi syväoppiminen muodostuu, kun sen avulla aletaan tuottaa valokuvia, videoita, uutisia, raportteja ja jopa kaunokirjallisia tekstejä. Mikä on tällaisen toiminnan pitkäaikainen vaikutus kulttuuriin. Insinöörit tuntevat käsitteen positiivinen takaisinkytkentä. Kun kulttuuria tuotetaan tekoälyn avulla, positiivinen takaisinkytkentä on ilmeinen. Ja insinöörit ja matemaatikot tietävät, että se tuottaa yllättäviä sivuvaikutuksia ja epävakautta.

Tarkastellaan sitten sitä tekoälyn lajia, joka näyttäytyy ihmisille aivan avoimesti tekoälynä. Näitä meillä on jo keskuudessamme. Niistä voisi käyttää nimitystä hyödylliset ja hyödyttömät idiootit. Ne ovat usein turhauttavia ja jopa ärsyttäviä. Mainitaan taas esimerkkejä. Erilaiset myyntiautomaatit, markettien puhuvat vaa’at ja automaattikassat, tietokoneissa ja älylaitteissa tavattavat ”älykkäät avustajat”, puhelinpalvelujen vastausrobotit ja interaktiiviset verkkosivut, jotka luulevat ”tietävänsä”, mitä käyttäjä haluaa. Tämä tieto perustuu esimerkiksi käyttäjän nettikäyttäytymisestä kerättyyn dataan. Otan esimerkin. Hankin klapikoneen, ja sitä varten keräsin tietoja eri kauppapaikoilla myytävistä laitteista. Tämän jälkeen sain yli vuoden ajan suunnattuja mainoksia klapikoneista. Luulisi olevan selvää, että käyttäjä ei ostele yhtenään klapikoneita. Jos joku sellaisen hankkii, hän tuskin ostaa uutta konetta koskaan.

Hyödyllisten ja hyödyttömien idioottien ärsyttävyys johtuu useammasta syystä. Ensinnä, niiden palveluiden älyllinen taso on hyvin matala – halutaan, että ne palvelevat ”kaikenlaisia” asiakkaita. Toiseksi, ne ovat lähes hyödyttömiä. Sillä parhaimmillaankin ne tekevät vain sen, mitä niiden kuvittelisi tekevänkin, eli suorittavat niiden tarjoaman palvelun. Sekään ei tunnetusti aina onnistu. Lisäksi nuo idiootit ovat itsepäisiä. Ne eivät ota vastaan palautetta, eikä niitä saa käännettyä pois päältä. Nuo idiootit piileskelevät yleensä jonkun viattoman laitteen kuorien sisällä, tai netissä vaanivina palveluina. Enenevissä määrin niitä aletaan sijoittaa animoituihin avatareihin tai robottivartaloihin: puhutaan hoivaroboteista ja opasroboteista. Ehkä ajatellaan, että kömpelö robottivartalo saa asiakkaan antamaan anteeksi niiden heikot henkiset kyvyt.

Tästä päästään futuristiseen palvelurobottien kastiin, näitä meillä ei vielä ole. Konfliktit tyhmien palvelurobottien kanssa johtuvat selvästikin kommunikaatiosta. Oletamme ne älykkäämmiksi kuin mitä ne ovat. Tekoälyjen kehittyessä tähän tulee varmaan aikanaan parannus. Robotit oppivat kokemuksistaan asiakkaiden kanssa, ja oppivat tunnistamaan erilaisia asiakastyyppejä. Hieman ilkeästi ajatellen, robotit oppivat laskeutumaan asiakkaan tasolle.

Minkälainen niiden robottivartalo saattaisi olla? Jos nuo robotit olisivat hyvin kyvykkäitä, niiden vartalon pitäisi viestiä päinvastaiseen suuntaan. Sen pitäisi olla harmiton ja aseistariisuva. Siis mieluummin hieman kömpelö ja konemainen tai lelumainen. Missään tapauksessa robotti ei saisi olla kovin ihmismäinen. Pahinta olisi, jos robotti viestittäisi kehollaan olevansa jollain lailla ylivoimainen, jonkinlainen yli-ihminen. Asiaa on tutkittu. Konemainen tai lelun tavoin sympaattinen robotti menettelee, mutta muistuttaessaan enemmän ihmistä robotti muuttuu kammottavaksi. Asiasta on myös konkreettisempaa näyttöä. Seksirobotteja valmistava yritys koetti tehdä robottejaan ihmismäisen viehättäviksi. Käyttökokeissa robotit joutuivat toistuvasti brutaalien pahoinpitelyjen ja raiskausten kohteeksi. Tulokseen on vaikea suhtautua, muta ehkä se kertoo jotain ikävää ihmisistä, jotka halusivat osallistua tällaisiin kokeiluihin.

Houkutteleeko tekoäly ja robotiikka esiin ihmisten pimeimpiä puolia? Ja onko se myös vaistomaista pelkoa ja vastarintaa? Eräs tieteiskirjallisuudesta löytyvä teema on palata rasismin historiaan. Roboteista tulee uusi alempi ja riistetty rotu. Tämä ajatus tuodaan esiin erinomaisessa tieteiselokuvassa Ex Machina (2015).

Hieman toinen näkökulma samaan teemaan tuodaan esiin Philip K. Dickin romaaniin perustuvassa ja niin ikään erinomaisessa elokuvassa Blade runner (1982). Siinä kysymys robottien ruumiillisen hahmon ongelmasta on ratkaistu tekemällä ne ihmisen kaltaisiksi androideiksi. Ne eivät ole ylivoimaisia eivätkä pelottavia, vaan aivan tavallisen ihmisen kaltaisia ja oman erikoisalansa mukaisesti personoituja. Robotiikan perinteen mukaan nämäkin robotit tekevät työtä, ne palvelevat ihmisiä. Tietenkin niillä on ihmistä suuremmat voimat ja äly, jotta ne suoriutuisivat paremmin tehtävissään Mutta nämä kyvyt pidetään piilossa. Elokuvassa tutustumme lähemmin kolmeen kapinoivaan androidiin: sotilas Roy, huora Pris, ja ”puolalainen putkimies” Leon. Androidit ovat alistettu luokka, ja sen takia niiden valmistaja, Tyrell yhtiö on ohjelmoinut niihin rajoitetun neljän vuoden elinajan. Silloin ne eivät ehdi järjestäytyä kapinaliikkeeksi.

Palaamme nyt takaisin ajankohtaiseen tekoälyproblematiikkaan. Onko tekoäly uhka ihmiskunnalle, sen lopullinen teknologinen tuho? Huolestuminen on ollut tekoälytutkimuksen seuralaisena jokseenkin alusta lähtien. Arvostetut tutkijat, kuten kyberneetikko Norbert Wiener ja talousmies ja tietokonetutkija Herbert A. Simon ovat kammonneet ajatusta tekoälyn ”läpimurrosta” jo 1960- luvulla. Asiaan liittyy myös goottilaisen kauhun perinne ja aina Antiikkiin asti ulottuva teknologian ja tieteen kammo: Prometheus, Ikaros, noidan oppipoika, Golem, tohtori Faust ja tohtori Frankenstein.

Esitän tästä uhasta kolme erilaista skenariota. Biologisessa skenariossa tekoäly ja robotiikka esitetään evoluution uutena vaiheena, joka on käyttänyt ihmiskuntaa kehityksensä välikappaleena. Evoluution ankarien lakien mukaan tämä kehittyneempi elämänmuoto syrjäyttää lopulta ihmisen, ja ehkä myös kaiken muun biologisen elämän. Onko tämä skenario uskottava? Ehkä ei kovin. Se näyttää perustuvan virheelliseen ideaan evoluutiosta. Evoluutioon ei liity mitään tavoitteita, eikä ole olemassa ”evoluution ankaria lakeja”, lukuun ottamatta mukautumisen periaatetta. Sitä paitsi evoluutio on tavattoman hidas prosessi. Voidaan tietenkin ajatella, että ihminen haluaa tahallaan kiihdyttää koneiden evoluutiota, mutta tuskin kuitenkaan olemassaolonsa hinnalla. Sinänsä ajatus tekniikan kehityksen ja evoluution samankaltaisuudesta on monella tapaa osuva. Skenarioon näyttää liittvän myös idea ihmisen ainutlaatuisuudesta eräänlaisena evoluution huippusaavutuksena. Biologisempi tarkastelu paljastaa ihmisen aseman omaan ahtaaseen lokeroonsa rajattuna lajina, apinana apinoiden joukossa.

Toisen skenarion nimi on singulariteetti. Käsitettä lienee käyttänyt jo John von Neumann 1950- luvulla, mutta sen teki tunnetuksi matemaatikko ja tieteiskirjailija Vernor Vinge artikkelissaan Coming Technological Singularity (1993). Suosiostaan huolimatta itse käsite on runollis-filosofisen sumea, joten voimme oikeastaan vain arvailla, mistä on kysymys. Taustalla saattaa olla Turingin universaalin koneen kuviteltu ylivoimaisuus, Turingin testin idea, ja tekoälytutkimuksen alkuvuosina vallinnut älykkyys- käsitteen mystifiointi. Koska tietokoneet joka tapauksessa kehittyvät, jonain päivänä ne saavuttavat ihmisen älykkyyden, ja silloin jotain ikävää varmaan tapahtuu. Tähän pitää lisätä, että nykyaikainen neuropsykologia on tuonut valoa ihmisen henkisten kykyjen luonteeseen: ne ovat toisaalta hyvin rajoitetut, ja toisaalta varsin hämmästyttävät. Joka tapauksessa ne ovat hyvin vähän tietokonemaisia. Joten neuropsykologia ei näytä tukevan singulariteetin ideaa.

Joka tapauksessa singulariteetilla alkaa olla jo kiire, sillä ennustajasta riippuen singulariteetti ilmaantui tai sen pitäisi ilmaantua mm. vuonna 2007, 2017 ja 2023, 2030 ja 2045. Tässä mielessä kyseessä on tyypillinen maailmanlopun ennuste: aikaraja toisensa perään ohitetaan, mutta itse ilmiö antaa odottaa itseään.

Kolmanneksi skenarioksi otan singulariteetin laajemman tulkinnan. Se on oikeastaan vielä edellistä runollisempi käsite. Yleisesti ottaen se merkitsee, että teknologiadynamiikka kiihtyy sellaiseen intensiivisyyden ja mutkikkuuden asteeseen, että se ei ole ihmiskunnan hallittavissa. Tämä vaikuttaa aika tyypilliseltä teknologisen apokalypsin teorialta. Se ei siis ole mitään kauhean omaperäistä. Teknologiassa toki näkyy eri aikoina vaaran merkkejä, ja juuri nyt sellaisia voisivat olla harkitsemattomasti sovellettu tiedon louhinta ja syväoppiminen. Itse olisin kuitenkin enemmän huolissani globaalista ilmasto- ja resurssikriisistä.