maanantai 19. toukokuuta 2025

KESKUSTELUA TEKOÄLYN MORAALISTA

 En ymmärrä keskustelua tekoälyn moraalivajeesta. Pitäisikö tekoälylle mitä suurimmalla kiireellä rakentaa algoritmiverkko tukemaan ihmislajin ymmärryksen mukaista moraalia?

Tulisiko syvemmälti asiaa tuntemattomien kansalaisten ylipäätään ymmärtää tekoälyä ja sen mahdollista moraalittomuutta inhimillisestä näkökulmasta? Kyllä, ainakin yritystä tulisi olla. On  kuitenkin ymmärrettävä, että läpinäkyvyys on tekoälyn kehityksessä ja käyttöönotossa lähes olematonta. Tämän sanottuani ei ole vaikeaa, tai asiaan kuulumatonta sanoa, että AI:n kehitys ja käyttöönotto, keskustelutta ja ilman läpinäkyvyyttä, on suuri uhka demokratioille.

Kenen moraalin näkökulmasta lähdettäisiin tekoälyn moraalia kehittämään? On paljon erilaisiin käsityksiin perustuvaa moraalia ja on moraalittomia. Minun näkökulmasta juuri heidän määränsä kasvaa. Moraalittomien tekoälyn moraali?

Kokonaan toinen asia, vaikkakin sillä on kohtaanto tekoälyyn, on globaali regulaatio yli tekoälyn. Säätelyn todellinen momentum näyttää menneen historiaan. Aikaikkuna sulkeutui. Maailman valtiot ovat sen ymmärtäneet ja pienet valtiot eivät kansallisesti säätelyyn kykene, ilman merkittäviä kielteisiä seurauksia. Kyse on samasta asiasta kuin ilmastosopimuksista. Kaikki tunnustavat tarpeen, mutta tekoihin ei kyetä.

Kunpa nyt ensin saisimme autoni itseohjaavuuden toimimaan niin, ettei se törmäilisi, ainakaan muihin ihmisiin, tai että droonini lentäisi autonomisesti, tai edes kontrollissani aiheuttamatta vahinkoa. Nämä eivät ole moraalikysymyksiä, vaikka joskus sellaisiksi mielletään.

Ennen moraalia, tulisi tietenkin tutkia sähköä. Sitä on tai ei ole. Nolla tai yksi. Sähkön jättimäisessä kontekstissakin tekoälyä on, tai sitä ei ole lainkaan. Fakta on uhka jopa koko tulevaisuuden sivilisaatiolle. Voiko siis  lähitulevaisuutemme yhteiskunta, joka yhä enemmän tukeutuu tekoälyyn, olla stabiili ja turvallisesti toimiva uuden eksistentiaalisen ai-voimavaran yleistyessä ja muuttuessa arjen taustasovelluksiksi, toimien aina ihmisen soluista universumin ääriin. 

Tietotekniikasta tiedämme haavoittuvuuksien dramaattisista vaikutuksista. Läpi yhteiskuntien tekoälypohjaisten sovellusten haavoittuvuuksia tunnetaan toistaiseksi huonosti, mutta on kiistatonta, että tekoälyn haavoittuvuudet koskevat jo lähitulevaisuudessa kaikkia ihmisiä, eivät vain vaikkapa yhden pankin asiakkaita. Tulee ymmärtää, että tekoälyssä on kyse vain kehittyneestä tietotekniikasta, joka pääosin toimii ihmisen arjen eri kerrosten taustalla, lähes huomaamatta. 

Entä uskonnot? Tekoäly tulee murtamaan uskonnollisia myyttejä. Näen, että AI on niille enemmänkin mahdollisuus kuin uhka. Uskontojen on vain hyväksyttävä nopea muutos, tai sitten jättäydyttävä historiaan. Puhdasoppisuuden ja maallistumisen paradigmat saavat tekoälyn myötä uudet sisällöt. Virtuaaliset, tekoälypohjaiset lahkot ovat jo tosiasia ja kokonaan uudet valtauskonnot kerrostuvat vanhojen uskontojen päälle, uusien ai-juurien imiessä vanhojen uskontojen viitekehykset algoritmien rakennusaineiksi.
AI-johdannaiset ratkaisut tekoälyn moraalin evoluutiossa ( sekin nyt uusi oppinsa ), vanhojen uskontojen moraalipohjilla, voi olla valtauskontojen näkökulmista ratkaisu, mutta saattaa olla käyttäjilleen vaarallista muun muassa teknisten laitteiden erilaisissa moraalikäsityksissä,  riippuen siitä missä laitteet, tai sovellukset algoritmeineen valmistetaan.

Tekoälyn suurin vaikutus, joka on jo nähtävissä, ovat muutokset käyttäytymiseemme niin monilla tavoin, että lähdettäessä niitä luettelemaan, epäusko valtaa mielen. Olemme siirtyneet tietopohjaisiin ja massatiedon käyttöön perustuviin yhteiskuntiin, joissa tiedon määrällä on suora yhteys vallankäyttöön ja sen vahvuuteen. Emme enää kykene estämään tekoälyn yhä laajempaa käyttöönottoa, mutta voimme vaatia läpinäkyvyyttä, tietoisen hämärtämisen sijaan. Mikäli epäonnistumme, palvelevat tekoälypohjaiset ratkaisut autoritäärisiä hallintoja paremmin kuin jäljellä olevia, haavoittuvia demokratioita. 

Kosovossa 19.5.2025