Robotin moraali – moraalisen toimijan määrittelyn vaikeus

Miten määrittelemme moraalisen toimijan?
(Kuva: Pixabay.com, public domain)

Viimeaikaisen robotiikan ja kognitiotieteen välimaastoon sijoittuvan tutkimuksen tavoitteena on kehittää tekoälystä yhä älykkäämpää. Tietotekniikan kehittymisen mukanaan tuoma digitaalinen vallankumous sävyttää arkipäiväämme. Materiaaliset tekoälyt, robotit, yleistyvät yhä yhteiskunnassamme.

Robotti voidaan määritellä materiaaliseksi tekoälyksi, ihmisen rakentamaksi laitteeksi, joka pystyy havainnoimaan ympäristöä ja sen muutoksia, reagoimaan muutoksiin, toimimaan ympäristössään havainnosta prosessoimansa päätöksen perusteella ja aiheuttamaan muutosta ympäristössään. Tekoälyn ohjelmiston laskentateho on valtaisa, mutta voidaanko olettaa, että tämä ohjelmisto pystyisi moraaliseen toimintaan? Tässä artikkelissani haluan pohtia keinotekoisen moraalin kategorioita ja moraalista toimijuutta, ja sen määrittelyä aihepiiriä käsitelleen pro gradu -tutkimukseni (Virtanen 2016) pohjalta. Pystyykö robotti olemaan keinotekoinen moraalinen toimija?

Keinotekoisen moraalin luokat

Esimerkiksi James Moor on esittänyt seuraavia keinotekoisen moraalin luokkia:
(1) Eettinen vaikutus -toimija. Konetta voi arvioida sen perusteella, millaisia eettisiä vaikutuksia sillä on tai ei ole. Kone on välineellisesti hyvä, jos sillä tai sen käytöllä on hyvä seuraus.
(2) Epäsuora eettinen toimija. Koneen voi ohjelmoida siten, ettei sillä ole negatiivisia eettisiä vaikutuksia. Toisin sanoen se ei aiheuta vahinkoa.
(3) Selkeä moraalinen toimija. Kone tekee eettisiä ratkaisuja ohjelmaansa perustuen.
(4) Täysi moraalinen toimija.

Miten moraalinen toimija sitten voidaan määritellä? Tätä on pohtinut esimerkiksi David Gunkel kirjassaan The Machine Question. Hän toteaa ”moraalisen toimijan” olevan käsitteen ”toimija” alakategoria. Toimijuudelle on olennaista voida toimia, samalla ollen kykenevä aikomukseen. Moraalinen toimijuus jälleen voidaan ymmärtää kykynä toimia moraaliperiaatteiden mukaan. Gunkel esittää myös Yhdysvaltojen eläinsuojeluyhdistyksen (The Humane Society of the United States) johdossa toimivan Paul Shapiron ajatuksen, jonka mukaan moraalisen toimijuuden rimaa olisi mahdollista laskea. Minimitasolla, Shapiron mukaan, moraalisen toimijuuden kriteeriksi riittäisi hyveellinen toiminta.

Robotin moraalinen toimijuus

Kognitiotieteen, filosofian ja tietotekniikan tutkijoiden näkökannat robotin mahdollisesta moraalisesta toimijuudesta ovat varsin eriäviä.  Erään näkemyksen mukaan robotit eivät toistaiseksi ole moraalisia toimijoita, mutta ne voisivat olla näitä tulevaisuudessa (Daniel Dennett). Toisten mielestä vapaa tahto on olennainen moraalisen toimijuuden edellytys ja vailla vapaata tahtoa, deterministisesti ohjelmansa ehdoilla, toimivat robotit eivät voi olla milloinkaan moraalisia toimijoita (Selmer Bringsjord). Joseph Emile Nadeau’n näkemys on, että toiminta on vapaata vasta, kun se on täysin järjen tulosta. Täten deterministisesti toimivat robotit olisivat ainoita aitoja moraalisia toimijoita. Tunnetaan myös käsite ”mindless morality”. Tämän mukaan toimijuuteen riittää se mikä näkyy ulospäin.  Moraaliteorian monet paradoksit olisivat näin ohitettavissa, jos jätettäisiin huomiotta vaikeasti todennettavat käsitteet ”vapaa tahto” ja ”tarkoituksellisuus” (Luciano Floridi ja J.W. Sanders). Esimerkiksi Wendell Wallach ja Colin Allen kirjoittavat teoksessaan Moral Machines, ettei robotin valmistuksen päämäärä ole monistaa jokaista ihmisen piirrettä. Johdonmukaisinta olisi heistä kehittää piirteet, jotka mahdollistavat robotin eettisen toiminnan.

Filosofian professori John Sullins esittää artikkelissaan ”When Is a Robot a Moral Agent?”, että oleellisia kysymyksiä pohdittaessa robotin moraalista toimijuutta ovat robotin autonomisuus, sen toiminnan tarkoituksellisuus ja sen mahdollinen vastuullinen asema. Wallachia ja Allenia mukaillen hän esittää robotin moraaliseen toimijuuteen riittävän autonomian koneteknisessä mielessä, jolloin robotti ei olisi suoraan käyttäjän hallinnassa. Robotin toiminta voidaan tulkita tarkoitukselliseksi jos robotin toiminta vaikuttaa ihmisestä tarkoitukselliselta. Vastaavasti robotti on vastuullinen, jos on mahdollista olettaa sen olevan vastuullinen.  Moraaliseen toimijuuteen riittäisi siis, että robotti toimisi uskottavalla tavalla ikään kuin moraalisesti.

Orgaaninen näkökulma moraalitoimijuuteen

Eettisen aseman pohdintaa ollaan lähestytty myös niin kutsutusta orgaanisesta näkökulmasta. Tässä puolustetaan tietoisen kokemuksen, biologisten organismien itsesäilytyksen ja moraalinormien kytköstä. Orgaaniseen näkökulman mukaan koneiden ja biologisten olentojen välillä on kahtiajako ja näkökulma nojaakin fenomenaaliseen, kokemukseen pohjaavaan, tietoisuuteen. Filosofi ja kognitiotutkija Steve Torrance lisää myös, että vain tunteeseen ja fenomenaaliseen tietoisuuteen kykenevät olennot voivat olla moraalisen huolen tai arvioinnin kohteena ja vain biologiset organismit ovat kykeneviä olemaan ”aidosti tuntevia ja tietoisia”. Keskeinen ajatus on, että moraali on itsesäilyttävien olentojen aluetta. Moraali ei ole rakennetun artefaktin ominaisuus.

Voiko moraaliseen toimijuuteen riittää, että toimii oikein, autonomisesti, antaen vaikutelman hyvistä aikomuksista? Voisivatko robotit näin olla tarpeeksi kehittyessään moraalisia toimijoita, jos ne ovat ikään kuin moraalisi toimijoita? Lainaan Kenneth Einar Himman moraalisen toimijan määritelmää: ”X:ää koskee seuraava: X on moraalinen toimija jos ja vain jos X on (1) toimija, jolla on kyky (2) tehdä vapaita valintoja, (3) pohtia, miten tulisi toimia ja (4) ymmärtää ja soveltaa moraalisääntöjä oikein tyypillisessä tilanteessa.” *

Orgaanista näkökulmaa mukaillen väitän, että moraalisesti toimintakykyiset keinotekoiset toimijat eivät ole lähitulevaisuutta. Vaikka robotteihin kyettäisiin rakentamaan uskottavan oloisia moraalisen toimijuuden ominaisuuksia, pelkkä vaikutelma ei voi olla moraalisen toimijuuden tae.

Julkaistu: 9.2.2017

Kirjoittaja Eeva-Mari Virtanen on teologian maisteri, jonka mielestä juuri epätäydellisyys tekee täydellisen ihmisen.

Kirjallisuus

Gunkel, David (2012)    The Machine Question. Cambridge: MIT Press.

Himma, Kenneth E. (2009) Artificial agency, consciousness, and the criteria for moral agency: what properties must an artificial agent have to be a moral agent? Ethics and Information Technology, Volume 11(1): 19–29 doi:10.1007/s10676-008-9167-5.

O’Meara, Richard M. (2012) Contemporary Governance Architechture Regarding Robotics Technologies: An Assessment. Robot Ethics. The Ethical and Social Implications of Robotics. Cambridge: The MIT Press.

Sullins, John P. (2006) When Is a Robot a Moral Agent? International Review of Information Ethics 6: 12, 23–30.

Virtanen, Eeva-Mari (2016) Robottien tietoisuus, moraali ja vapaa tahto? Theravāda-buddhalainen näkökulma. Systemaattisen teologian pro gradu-tutkielma. HYTTK.

Wallach, Wendell & Allen, Colin (2009) Moral Machines: Teaching Robots Right from Wrong. New York: Oxford University Press.

*(“for all X, X is a moral agent if and only if X is (1) an agent having the capacities for (2) making free choices, (3) deliberating about what one ought to do, and (4) understanding and applying moral rules correctly in paradigm cases.” Gunkel 2012, 22; Himma 2009, 24, käännös oma.)