tiistai 5. huhtikuuta 2016

Koneiden moraali

Monet tieteiskirjallisuuden ystävät tuntevat Isaac Asimovin robottikirjat, joissa esitellään robotiikan moraaliset perusteet eli robotiikan pääsäännöt. Ja jos joku ei niitä tunne tai muista, kerrataan: 1. Robotti ei saa vahingoittaa ihmistä eikä laiminlyönnin johdosta saattaa tätä vahingoittumaan; 2. Robotin on toteltava ihmisen sille antamia määräyksiä paitsi milloin ne ovat ristiriidassa ensimmäisen pääsäännön kanssa; 3. Robotin on varjeltava omaa olemassaoloaan niin kauan kuin tällainen varjeleminen ei ole ristiriidassa ensimmäisen eikä toisen pääsäännön kanssa. Myöhemmin hän lisäsi myös kaikkein tärkeimmän säännön 0: Robotin tulee suojella ihmiskuntaa. 

Jonkinlaiset pelisäännöt olivat selvästi tarpeen, sillä niin kauan kun robotti- tai androiditarinoita oli kerrottu, ehkä jo 1600-luvun Golem- tarinoista asti, nuo kaverit olivat osoittautuneet oikullisiksi, herkkänahkaisiksi tai yksinkertaisesti pahoiksi. Syystä tai toisesta, irronneen johdon tai äkkiä heränneen kaunan tunteen tai huonon kohtelun takia ne ennen pitkää kääntyivät luojaansa eli ihmistä vastaan. Robotit ilmaantuivat nykyisellä nimellään kirjallisuuteen 1920- luvulla*, ja ne aloittivat teollisen uransa 1950- luvulla. Niistä tuli todellisuutta. Ennen pitkää robotit tulevat muuttumaan yhä älykkäämmiksi ja itsenäisemmiksi, joten kysymys robottien moraalista tulee välttämättä eteen. 

Asimov oli aikaansa edellä, sillä robotiikan pääsäännöt on muotoiltu vuonna 1941. Asimov ratkaisi moraaliongelman varsin näppärästi, vaikka hän kertomuksissaan käsitelläänkin niitä ongelmatilanteita, joihin ne sittenkin voisivat joutua. Esimerkiksi: ihminen repii robotilta käsivarren irti ja pieksee sillä toisen ihmisen hengiltä. Seuraus: kätensä menettänyt robotti saa mielenterveysongelmia. 

Asimovin oivallusten jälkeen moraali on ollut tieteiskirjallisuuden robottien vakiintunut komponentti. Usein robotit on varustettu niin sanotuilla "asimovpiireillä", jotka huolehtivat siitä, ettei perussääntöjä rikota. Mitä oikeisiin robotteihin tulee, tähän asti ne ovat olleet siinä mielessä vaarattomia, että silloin kun ne ovat olleet kyllin vahvoja aiheuttaakseen vahinkoa, ne eivät ole voineet poistua aidatuista työpisteistään tai poiketa sallituilta kulkureiteiltään. Mutta asia muuttuu viimeistään siinä vaiheessa, kun teille ilmaantuu itsestään ohjautuvia robottiautoja, tai automaattiset postihelikopterit alkavat surrata taivaalla. Pitääkö niihin asentaa asimovpiirit? 

Tässä kohtaa voisi pitää miettimistauon. Ennen kuin alamme ohjelmoida robotteihin moraalia, pitäisi varmaan olla hyvin selvää, mitä moraali on. Mutta onko se sitten selvää ihmisillekään? Aika suuri osa moraalista keskustelua, ja etenkin sellainen keskustelu jossa pohditaan myös koneiden moraalia näyttää tulevan Yhdysvalloista. Syynä lienee uskonnollisen konservatismin vahva asema, ja erityisesti sikäläisten uskonnollisten painostusryhmien aktiivinen toiminta. Siksi amerikkalainen keskustelu muistuttaa jonkinlaista varjonyrkkeilyä. Älykkään analyysin sijasta paljon energiaa hukataan uskonnollisten argumenttien käsittelyyn.

Tarkastellaan moraalikeskustelun asemia. Ensimmäinen kysymys koskee moraalin alkuperää. Jos moraalin alkuperäksi oletetaan uskonto, niin kuin liki kaikki uskonnon eri lajit haluavat uskotella, kysymys robottien moraalista näyttää ratkaistulta: robotillahan ei voi olla uskontoa. Vai voiko sittenkin? Jos suunnittelisin itse robotin, voisin väittää rakentaneeni sen siten, että se voisi harjoittaa myös uskontoa. Väite uskonnollisesta robotista voi tuntua oudolta. Mutta filosofisin argumentein voidaan väittää, että asiallisesti ottaen emme voi epäillä robotin uskonnollisuutta, jos se väittää olevansa uskossa ja suorittaa uskontonsa edellyttämiä palvontamenoja. Kysymys uskonnollisesta robotista on selvästi sukua Turingin testille ja kiinalaisen huoneen ongelmalle

Uskonnosta lähtevä moraalin tutkimuslinja alkaa tuntua toivottoman sekavalta. Mutta onko se edes relevantti? Yhteiskuntatieteilijät, filosofit ja neuropsykologit alkavat jo olla varsin yksimielisiä siitä, että moraali ja uskonto ovat erillisiä ihmisenä olemisen piirteitä. Eikä siinä vielä kaikki, vaan on ilmeistä, että myös useilla eläimillä on käyttäytymistä, joka on perinteisesti yhdistetty moraalisiin tunteisiin.

Jos moraalista keskustellaan uskonnon viitekehyksessä, keskusteluun liittyy väistämättä myös kysymys sielusta, synnistä ja vapaasta tahdosta. Jos taas hylkäämme moraalin uskonnollisen alkuperän, nämä käsitteet alkavat tuntua epämääräisiltä ja jopa turhilta. Ja toisaalta meidän on hyväksyttävä, että myös eläimillä voi olla tietoisuus ja jopa käsitys itsestä. Siis ennen pitkää myös robotilla, haluaisin lisätä. 

Sielun ja vapaan tahdon olemassaolon epäileminen voi herättää kiivastakin vastustusta. En lähde sitä nyt käsittelemään, olen sitä yrittänyt ruotia aiemmin. Nyt vain esittelen hieman poikkeavan argumentin. Vapaan tahdon puuttumisen katsotaan johtavan sietämättömään alkeellisen mekaanisuuden olotilaan, jopa kulttuurin ja kehityksen loppuun. En usko tähän. Elinympäristömme monimutkaisuus ja siitä tulevien signaalien ylenpalttinen virta jättävät varsin vähän tilaa vapaalle tahdolle. Vaikka se olisikin olemassa, emme voisi havaita sen osuutta tajunnassamme. Sensorisen deprivaation kokeissa, joita nykyisin pidetään epäeettisinä, älykäs eliö tai jopa ihminen asetetaan kammioon, jossa ulkoiset ärsykkeet on mahdollisen pitkälle estetty. Osoittautuu, että sielu tai vapaa tahto ei suinkaan täytä ärsykkeistä tyhjää tietoisuuden tilaa mielekkäällä tavalla, vaan hermostomme alkaa syöttää sinne aistimusten korvikkeeksi irvokkaita hallusinaatioita, ja lopulta kokeen uhri joutuu psykoottiseen tilaan. 

Miten moraaliset valinnat sitten tehdään? Nykykäsityksen mukaan ne ovat hyvin nopeita ja automaattisia hermoston reaktioita. Ihminen perustelee yleensä ratkaisujaan rationaalisesti, mutta funktionaalinen aivokuvaus osoittaa, että moraalinen valinta tehdään paljon aikaisemmin kuin tietoinen minämme uskoo sen tekevänsä. Moraali on siis vaistomainen ja tunneperäinen tieto siitä, että jokin asia on väärin tai oikein. Aivan kuten mm David Hume ja Adam Smith aikanaan profeetallisesti esittivät. 

Yhdysvalloissa keskustelu moraalista kietoutuu myös oikeuslaitoksen toimintaan. Anglosaksisessa tapaoikeudessa on voimakas moraalisen rankaisemisen ja kasvattamisen elementti. Rikos nähdään yleisesti myös syntinä, jolloin asianomistajana on kristittyjen jumala. Omassa oikeuslaitoksessamme tällainen piirre on paljon laimeampi. Toki oikeuslaitos meilläkin mielletään yleisen oikeudenmukaisuuden tunteen ylläpitäjäksi, eli silläkin on moraalinen tehtävä. Kun roboteille ryhdytään rakentamaan moraalia, joudumme välittömästi pohtimaan, ovatko ne vastuullisia teoistaan? Ja jos ovat, miten niitä pitäisi tuomita ja rangaista. Toisaalta, kun uskomuksemme vapaan tahdon olemassaoloon jatkuvasti himmenee, samat kysymykset alkavat kohdistua myös ihmiseen. Näyttääkin siltä, että tekoälytutkimuksen ja neuropsykologian edistyminen tulevat koettelemaan myös oikeusjärjestelmien perusteita. 

Katsotaan asioita käytännön kannalta. Toisin kun yleensä luullaan, robotiikalla on jo iso rooli teollisuusmaiden ihmisten elämässä. Nuo robotit eivät kuitenkaan vastaa mielikuvaamme yksilöllisistä ihmisenkaltaisista roboteista. Ne ovat järjestelmiä, jotka ohjaavat liikennevaloja ja lentoliikennettä, ne ohjaavat lentokoneita, laivoja ja junien kulkua, ne hoitavat meitä sairaaloissa, valmistavat ruokaa ja lääkkeitä, ja ohjaavat ydinvoimaloita. Niiden suunnittelijat ovat jo pitkään joutuneet pohtimaan, miten tuo toiminta olisi mahdollisimman turvallista. Vaikka asiaa ei ole tiedostettu, Isaac Asimovin luonnostelemat robotiikan pääsäännöt ovat jo pitkään olleet käytössä.

Eräs asia amerikkalaistyyppisessä robottien moraalikeskustelussa on erityisen kiusallinen. Siinä halutaan vertailla moraalisia valintoja. Psykologit ovat pitkään tehneet moraalitutkimuksia. Niiden perusidea on robotiikkaan sovellettuna seuraava. Itsestään ohjautuva auto joutuu poikkeustilanteeseen. Sen on valittava, ajaako se väkijoukkoon, jolloin auton matkustajat pelastuvat mutta jalankulkijat voivat kuolla, vai ajaako se rotkoon, jolloin auton matkustajat voivat kuolla. Tällainen ongelma on sekä ilkeä että keinotekoinen, sillä kumpikin ratkaisu on moraalisesti väärin.

En usko, että robotiikan turvallisuusongelmaa pitää ratkaista moraalin näkökulmasta, vaikka moraaliset pohdinnat voivatkin olla hyödyllisiä. Parempi lähestymistapa on turvallisuusnäkökulma, josta insinööreillä ja viranomaisilla on jo vuosien kokemus. Robotti siis toimikoon sen käytössä olevan tiedon perusteella parhaalla mahdollisella tavalla, ja Asimovin sääntöjen hengessä.

Voin kyllä palata asiaan sitten, kun robottien oikeudet yksilöinä ja kansalaisina tulevat ajankohtaisiksi.

*) Vuonna 1921 robotit ilmaantuivat maailmaan Karel Čapek:n näytelämässä R.U.R. (Rossum's universal robots). Robotti- sana tulee slaavilaisista kielistä ja tarkoittaa työläistä. Robottien luontoon siis kuuluu ihmisten palveleminen työtä tekemällä.

Kirjoituksessa on hyödynnetty ainakin seuraavia lähteitä: Harris, Sam. Moraalinen maisema : miten tiede määrittää inhimilliset arvot. Terra cognita, 2010; Gazzaniga, Michael S. Eettiset aivot. Terra cognita, 2006; Pyysiäinen, Ilkka. Uskonnollinen robotti kiinalaisessa huoneessa. Tieteessä tapahtuu 2002 : 6 ; Hume, David. Tutkimus inhimillisestä ymmärryksestä. WSOY, 1938.