Monet
tieteiskirjallisuuden ystävät tuntevat Isaac Asimovin
robottikirjat, joissa esitellään robotiikan moraaliset perusteet
eli robotiikan pääsäännöt. Ja jos joku ei niitä tunne tai
muista, kerrataan: 1. Robotti ei saa vahingoittaa ihmistä eikä
laiminlyönnin johdosta saattaa tätä vahingoittumaan; 2. Robotin on
toteltava ihmisen sille antamia määräyksiä paitsi milloin ne ovat
ristiriidassa ensimmäisen pääsäännön kanssa; 3. Robotin on
varjeltava omaa olemassaoloaan niin kauan kuin tällainen
varjeleminen ei ole ristiriidassa ensimmäisen eikä toisen
pääsäännön kanssa. Myöhemmin hän lisäsi myös kaikkein
tärkeimmän säännön 0: Robotin tulee suojella ihmiskuntaa.
Jonkinlaiset
pelisäännöt olivat selvästi tarpeen, sillä niin kauan kun
robotti- tai androiditarinoita oli kerrottu, ehkä jo 1600-luvun
Golem- tarinoista asti, nuo kaverit olivat osoittautuneet
oikullisiksi, herkkänahkaisiksi tai yksinkertaisesti pahoiksi.
Syystä tai toisesta, irronneen johdon tai äkkiä heränneen kaunan
tunteen tai huonon kohtelun takia ne ennen pitkää kääntyivät
luojaansa eli ihmistä vastaan. Robotit ilmaantuivat nykyisellä
nimellään kirjallisuuteen 1920- luvulla*, ja ne aloittivat
teollisen uransa 1950- luvulla. Niistä tuli todellisuutta. Ennen
pitkää robotit tulevat muuttumaan yhä älykkäämmiksi ja
itsenäisemmiksi, joten kysymys robottien moraalista tulee
välttämättä eteen.
Asimov oli aikaansa edellä, sillä robotiikan
pääsäännöt on muotoiltu vuonna 1941. Asimov ratkaisi
moraaliongelman varsin näppärästi, vaikka hän kertomuksissaan
käsitelläänkin niitä ongelmatilanteita, joihin ne sittenkin voisivat
joutua. Esimerkiksi: ihminen repii robotilta käsivarren irti ja
pieksee sillä toisen ihmisen hengiltä. Seuraus: kätensä
menettänyt robotti saa mielenterveysongelmia.
Asimovin oivallusten jälkeen moraali on ollut tieteiskirjallisuuden robottien vakiintunut komponentti. Usein robotit on varustettu niin sanotuilla "asimovpiireillä", jotka huolehtivat siitä, ettei perussääntöjä rikota. Mitä oikeisiin robotteihin tulee, tähän asti ne ovat olleet siinä mielessä vaarattomia, että silloin kun ne ovat olleet kyllin vahvoja aiheuttaakseen vahinkoa, ne eivät ole voineet poistua aidatuista työpisteistään tai poiketa sallituilta kulkureiteiltään. Mutta asia muuttuu viimeistään siinä vaiheessa, kun teille ilmaantuu itsestään ohjautuvia robottiautoja, tai automaattiset postihelikopterit alkavat surrata taivaalla. Pitääkö niihin asentaa asimovpiirit?
Asimovin oivallusten jälkeen moraali on ollut tieteiskirjallisuuden robottien vakiintunut komponentti. Usein robotit on varustettu niin sanotuilla "asimovpiireillä", jotka huolehtivat siitä, ettei perussääntöjä rikota. Mitä oikeisiin robotteihin tulee, tähän asti ne ovat olleet siinä mielessä vaarattomia, että silloin kun ne ovat olleet kyllin vahvoja aiheuttaakseen vahinkoa, ne eivät ole voineet poistua aidatuista työpisteistään tai poiketa sallituilta kulkureiteiltään. Mutta asia muuttuu viimeistään siinä vaiheessa, kun teille ilmaantuu itsestään ohjautuvia robottiautoja, tai automaattiset postihelikopterit alkavat surrata taivaalla. Pitääkö niihin asentaa asimovpiirit?
Tässä
kohtaa voisi pitää miettimistauon. Ennen kuin alamme ohjelmoida
robotteihin moraalia, pitäisi varmaan olla hyvin selvää, mitä
moraali on. Mutta onko se sitten selvää ihmisillekään? Aika suuri
osa moraalista keskustelua, ja etenkin sellainen keskustelu jossa
pohditaan myös koneiden moraalia näyttää tulevan Yhdysvalloista.
Syynä lienee uskonnollisen konservatismin vahva asema, ja
erityisesti sikäläisten uskonnollisten painostusryhmien aktiivinen
toiminta. Siksi amerikkalainen keskustelu muistuttaa jonkinlaista
varjonyrkkeilyä. Älykkään analyysin sijasta paljon energiaa
hukataan uskonnollisten argumenttien käsittelyyn.
Tarkastellaan
moraalikeskustelun asemia. Ensimmäinen kysymys koskee moraalin
alkuperää. Jos moraalin alkuperäksi oletetaan uskonto, niin kuin
liki kaikki uskonnon eri lajit haluavat uskotella, kysymys robottien
moraalista näyttää ratkaistulta: robotillahan ei voi olla
uskontoa. Vai voiko sittenkin? Jos suunnittelisin itse robotin,
voisin väittää rakentaneeni sen siten, että se voisi harjoittaa
myös uskontoa. Väite uskonnollisesta robotista voi tuntua oudolta.
Mutta filosofisin argumentein voidaan väittää, että asiallisesti
ottaen emme voi epäillä robotin uskonnollisuutta, jos se väittää
olevansa uskossa ja suorittaa uskontonsa edellyttämiä
palvontamenoja. Kysymys uskonnollisesta robotista on selvästi sukua
Turingin testille ja kiinalaisen huoneen ongelmalle.
Uskonnosta
lähtevä moraalin tutkimuslinja alkaa tuntua toivottoman sekavalta.
Mutta onko se edes relevantti? Yhteiskuntatieteilijät, filosofit ja
neuropsykologit alkavat jo olla varsin yksimielisiä siitä, että
moraali ja uskonto ovat erillisiä ihmisenä olemisen piirteitä. Eikä
siinä vielä kaikki, vaan on ilmeistä, että myös useilla
eläimillä on käyttäytymistä, joka on perinteisesti yhdistetty
moraalisiin tunteisiin.
Jos moraalista keskustellaan uskonnon viitekehyksessä, keskusteluun liittyy väistämättä myös kysymys sielusta, synnistä ja vapaasta tahdosta. Jos taas hylkäämme moraalin uskonnollisen alkuperän, nämä käsitteet alkavat tuntua epämääräisiltä ja jopa turhilta. Ja toisaalta meidän on hyväksyttävä, että myös eläimillä voi olla tietoisuus ja jopa käsitys itsestä. Siis ennen pitkää myös robotilla, haluaisin lisätä.
Jos moraalista keskustellaan uskonnon viitekehyksessä, keskusteluun liittyy väistämättä myös kysymys sielusta, synnistä ja vapaasta tahdosta. Jos taas hylkäämme moraalin uskonnollisen alkuperän, nämä käsitteet alkavat tuntua epämääräisiltä ja jopa turhilta. Ja toisaalta meidän on hyväksyttävä, että myös eläimillä voi olla tietoisuus ja jopa käsitys itsestä. Siis ennen pitkää myös robotilla, haluaisin lisätä.
Sielun ja
vapaan tahdon olemassaolon epäileminen voi herättää kiivastakin
vastustusta. En lähde sitä nyt käsittelemään, olen sitä
yrittänyt ruotia aiemmin. Nyt vain esittelen hieman poikkeavan
argumentin. Vapaan tahdon puuttumisen katsotaan johtavan
sietämättömään alkeellisen mekaanisuuden olotilaan, jopa
kulttuurin ja kehityksen loppuun. En usko tähän. Elinympäristömme
monimutkaisuus ja siitä tulevien signaalien ylenpalttinen virta
jättävät varsin vähän tilaa vapaalle tahdolle. Vaikka se
olisikin olemassa, emme voisi havaita sen osuutta tajunnassamme.
Sensorisen deprivaation kokeissa, joita nykyisin pidetään
epäeettisinä, älykäs eliö tai jopa ihminen asetetaan kammioon,
jossa ulkoiset ärsykkeet on mahdollisen pitkälle estetty.
Osoittautuu, että sielu tai vapaa tahto ei suinkaan täytä
ärsykkeistä tyhjää tietoisuuden tilaa mielekkäällä tavalla,
vaan hermostomme alkaa syöttää sinne aistimusten korvikkeeksi
irvokkaita hallusinaatioita, ja lopulta kokeen uhri joutuu
psykoottiseen tilaan.
Miten
moraaliset valinnat sitten tehdään? Nykykäsityksen mukaan ne ovat
hyvin nopeita ja automaattisia hermoston reaktioita. Ihminen
perustelee yleensä ratkaisujaan rationaalisesti, mutta
funktionaalinen aivokuvaus osoittaa, että moraalinen valinta tehdään
paljon aikaisemmin kuin tietoinen minämme uskoo sen tekevänsä.
Moraali on siis vaistomainen ja tunneperäinen tieto siitä, että
jokin asia on väärin tai oikein. Aivan kuten mm David Hume ja Adam
Smith aikanaan profeetallisesti esittivät.
Yhdysvalloissa
keskustelu moraalista kietoutuu myös oikeuslaitoksen toimintaan.
Anglosaksisessa tapaoikeudessa on voimakas moraalisen rankaisemisen
ja kasvattamisen elementti. Rikos nähdään yleisesti myös syntinä,
jolloin asianomistajana on kristittyjen jumala. Omassa
oikeuslaitoksessamme tällainen piirre on paljon laimeampi. Toki
oikeuslaitos meilläkin mielletään yleisen oikeudenmukaisuuden
tunteen ylläpitäjäksi, eli silläkin on moraalinen tehtävä. Kun
roboteille ryhdytään rakentamaan moraalia, joudumme välittömästi
pohtimaan, ovatko ne vastuullisia teoistaan? Ja jos ovat, miten niitä
pitäisi tuomita ja rangaista. Toisaalta, kun uskomuksemme vapaan
tahdon olemassaoloon jatkuvasti himmenee, samat kysymykset alkavat
kohdistua myös ihmiseen. Näyttääkin siltä, että
tekoälytutkimuksen ja neuropsykologian edistyminen tulevat
koettelemaan myös oikeusjärjestelmien perusteita.
Katsotaan
asioita käytännön kannalta. Toisin kun yleensä luullaan,
robotiikalla on jo iso rooli teollisuusmaiden ihmisten elämässä.
Nuo robotit eivät kuitenkaan vastaa mielikuvaamme yksilöllisistä
ihmisenkaltaisista roboteista. Ne ovat järjestelmiä, jotka ohjaavat
liikennevaloja ja lentoliikennettä, ne ohjaavat lentokoneita,
laivoja ja junien kulkua, ne hoitavat meitä sairaaloissa,
valmistavat ruokaa ja lääkkeitä, ja ohjaavat ydinvoimaloita.
Niiden suunnittelijat ovat jo pitkään joutuneet pohtimaan, miten
tuo toiminta olisi mahdollisimman turvallista. Vaikka asiaa ei ole
tiedostettu, Isaac Asimovin luonnostelemat robotiikan pääsäännöt
ovat jo pitkään olleet käytössä.
Eräs asia amerikkalaistyyppisessä robottien moraalikeskustelussa on erityisen kiusallinen. Siinä halutaan vertailla moraalisia valintoja. Psykologit ovat pitkään tehneet moraalitutkimuksia. Niiden perusidea on robotiikkaan sovellettuna seuraava. Itsestään ohjautuva auto joutuu poikkeustilanteeseen. Sen on valittava, ajaako se väkijoukkoon, jolloin auton matkustajat pelastuvat mutta jalankulkijat voivat kuolla, vai ajaako se rotkoon, jolloin auton matkustajat voivat kuolla. Tällainen ongelma on sekä ilkeä että keinotekoinen, sillä kumpikin ratkaisu on moraalisesti väärin.
En usko, että robotiikan turvallisuusongelmaa pitää ratkaista moraalin näkökulmasta, vaikka moraaliset pohdinnat voivatkin olla hyödyllisiä. Parempi lähestymistapa on turvallisuusnäkökulma, josta insinööreillä ja viranomaisilla on jo vuosien kokemus. Robotti siis toimikoon sen käytössä olevan tiedon perusteella parhaalla mahdollisella tavalla, ja Asimovin sääntöjen hengessä.
Voin kyllä palata asiaan sitten, kun robottien oikeudet yksilöinä ja kansalaisina tulevat ajankohtaisiksi.
*)
Vuonna 1921 robotit ilmaantuivat maailmaan Karel Čapek:n näytelämässä R.U.R.
(Rossum's universal robots). Robotti- sana tulee slaavilaisista
kielistä ja tarkoittaa työläistä. Robottien luontoon siis kuuluu
ihmisten palveleminen työtä tekemällä.
Kirjoituksessa
on hyödynnetty ainakin seuraavia lähteitä: Harris, Sam.
Moraalinen maisema : miten tiede määrittää inhimilliset arvot.
Terra cognita, 2010; Gazzaniga, Michael S. Eettiset aivot. Terra
cognita, 2006; Pyysiäinen, Ilkka. Uskonnollinen robotti
kiinalaisessa huoneessa. Tieteessä tapahtuu 2002 : 6 ; Hume, David.
Tutkimus inhimillisestä ymmärryksestä. WSOY, 1938.