Aalto-yliopiston apulaisprofessori Frank Martelan mukaan tekoälylle pitäisi määritellä moraalikäsitys.
Hänen mukaansa tekoälyn kyky itsenäisiin päätöksiin on kehittynyt, ja samalla sen tekojen seurauksien mittasuhteet kasvavat.
– Kun tekoäly kehittyy, sen täytyy ottaa enemmän vastuuta omista teoistaan, Martela tarkentaa.
Yksittäisen käyttäjän vaikuttamismahdollisuudet tekoälyn moraalikäsityksen kouluttamiseen ovat hyvin rajalliset. Vastuu moraalikäsityksen määrittelystä on Martelan mukaan tekoälykehittäjillä.
– Tekoälykehittäjien tulee pitää huolta, että heillä on tietyt [eettiset] normit, joita he noudattavat omassa toiminnassaan, Martela kertoo.
Tekoälyllä on vapaan tahdon piirteitä
Frank Martelan tutkimuksessa tarkasteltiin Minecraft-pelin Voyager-agentin ja kuvitteellisten Spitenik-tappajadroonien toimintaa. Voyager-agentti on käytännössä toiminnassa oleva agentti, josta on myös tehty aikaisempaa tutkimusta. Spitenik-tappajadroonien ominaisuudet olivat mahdollisimman lähellä sitä, mitä todelliset droonit pystyvät tänä päivänä tekemään.
Tutkimuksessa käytetyt tekoälyagentit
- Tekoälyagentit ovat ohjelmistoja, joka kykenevät itsenäisiin päätöksiin ilman jatkuvaa ihmisen ohjausta.
- Tappajadrooni on autonomisesti toimiva drooni, jota voidaan käyttää esimerkiksi alueen valvomiseen ja hyökkäykseen.
- Minecraft-pelin Voyager-agentti on tekoälyagentti, joka hyödyntää GPT-4-kielimallia.
Tutkimuksessa selvisi, että tekoälyagentit täyttävät vapaan tahdon ehdot. Martela hyödynsi tutkimuksessaan Christian Listin ja Daniel Dennettin määritelmää vapaasta tahdosta. Listin mukaan vapaan tahdon käsite perustuu kolmeen ehtoon: tavoitteellinen toimijuus, aidot vaihtoehdot ja mahdollisuus kontrolloida toimintaa.
Tutkimuksen mukaan vapaata tahtoa voidaan pitää edellytyksenä toimijuudelle, jolloin tekoäly olisi vastuussa päätöksistään. Tulevaisuudessa tämä voi tarkoittaa, että tekoälylle tulisi määrätä tiettyjä oikeuksia ja velvollisuuksia.

