Tekstin tuottaja Raimo Kovanen. Teksti liittyy lokakuussa 2025 julkaisemaani kirjaan: VALLANKÄYTTÖ OSANA SIDOSRYHMÄKOMPETENSSIA -valta ei ole yksisuuntaista
Algoritmeja ja algoritmien valtaa koskettelevat keskustelut ja tekstit ovat hyvin `moderni’ aihe. Näkisinkin tarpeellisena lisätä tähän ajatteluun/keskusteluun pari filosofista [tieteenfilosofian näkökulma] `perspektiiviä’ –> mielestäni tekoälyä voi kutsua metaforaksi tai `retorisen ajattelun’ topokseksi. Tosin ei niitä voi synonyymeinä pitää keskenään, mutta niistä löytyy [mielestäni] VÄHINTÄÄN yhtymäkohtia ja ainakin ne hyvin täydentävä toisiaan.
tekoäly; filosofinen tekoälytarkastelu näkee tekoälyssä kaksi keskeistä käsitettä:
1) heikko tekoäly on suunniteltu suorittamaan rajattuja tehtäviä tietyssä ympäristössä
2) vahva tekoäly kykenee suorittamaan minkä tahansa älyllisen tehtävän ihmisen tavoin ja on mahdollisesti tietoinen
kun taas;
metafora; filosofinen tarkastelu kuvaa metaforan merkityksen siirtona, jossa kielellinen ilmaisu siirretään tavanomaisesta merkityksestään ja asetetaan uuden kohteen paikalle
topos; filosofiassa topos on asian ilmaisemista tai luomista käyttäen ennalta yleiseksi ymmärrettyjä tai hyväksyttyjä keinoja ja tapoja.
Filosofista pohdiskelua/tarkastelua olen käynyt itseni kanssa, tilanteen jälkeen –> olen henkilökohtaisesti kohdannut Zoomer -palvelua, tätä ilmeetöntä tuijottamista [onneksi en kovin useasti, ainakaan vielä]. Pohdiskeluuni on, jostain syystä, `sotkeutunut´ heikon tekoälyn – metafora, joka on `löytänyt’ hymyilylle uuden ilmaisumuodon vuorovaikutustilanteesta, asiakaspalvelun yhteydessä – ilmeettömyys. Ilmeettömyys ei [‘kait’] aina kerro epäkohteliaisuudesta, vaan se on oire jostakin. Kenties tyytymättömyyttä yhteiskuntaan? Näen `jostain syystä´ tuijottamisen myös yhtenä vallankäytön aspektina ...
Siis tekoälyssä on kyseessä äly, joka kiinnostaa ja kiehtoo ymmärtääkseni kaikkia sidosryhmiä – aina vain enemmän ja enemmän. Huolimatta tiedosta –> amerikkalaisen MIT-teknillisen korkeakoulun [=Massachusetts Insitute of Technology] tutkimuksen mukaan tekoälyalustan ChatGPT:n [=Generative Pre-trained Transformer] käyttäminen voi olla jopa vahingollista yksilön kriittiselle ajattelulle.
No, mutta ainakin teorian näkökulmasta koneellinen päätöksenteko nähdään tehokkaana, jopa ylivertaisena; koneilla on huomattava laskentakapasiteetti, loogisten virhepäätelmien niukkuus ja lisäksi koneilta puuttuu ihmisille tyypillinen asenteellisuus. Tosin sekä kone, että ihminen on manipuloitavissa –> ihmiselle ja koneelle, siis molemmille, voidaan syöttää harhaanjohtavaa ja virheellistä tietoa [propagandaa/dataa], jolloin molempien päätös ja/tai päätöksenteko on vääristynyttä. Tätä nykyään tekoäly [algoritmit ja koneoppimismallit] on jo tasolla, jossa sitä voidaan melkolailla `huolettomasti´ käyttää automatisoimaan eri tehtäviä. Eli tekoälyä voidaan käyttää apuna päätöksenteossa tai antaa sille jopa algoritminen päätöksentekovalta.
Tietokoneperusteisten algoritmien [prosessin suorittamisesta tehty yksityiskohtainen kuvaus/ohje] tekemät päätökset ohjaavat ja vaikuttavat sidosryhmäympäristössämme yhä enemmän. On hyvä tietää, että algoritmeja voidaan käsitellä myös ilman tietokonetta mm. allekkain tapahtuva kertolasku ja `jakokulmassa´ tapahtuva jakolasku [=mitkä tahansa luvut voidaan kertoa/jakaa keskenään]. Tässä yhteydessä voidaankin todeta; informaation käsittelyyn liittyy aina abstraktio todellisesta maailmasta käsittelytavasta riippumatta –> abstraktio =tarkastellaan ilmiön tai objektin tiettyä osaa ja/tai ominaisuutta. Tosin tietokoneperusteiset algoritmit prosessoivat kielillä, joita ihminen ei välttämättä edes ymmärrä eikä aina näekään, siis erota silmillään –> siansaksaa.
Automaattinen päätöksenteko [engl. automated decision-makin ADM] koskettaa niitä päätöksiä, joiden käsittelyprosessissa käytetään vähintään tai laajemmillaan kokonaan tietokoneohjelmistoa [Lomborg ym. 2023, 10]. Algoritmit tarkoittavat yleensä useampaa kuin yhtä asiaa kerrallaan, liitämme niiden avulla mielikuviimme erilaisia huolia, käsitteellistyksiä ja kuvitelmia. Siis tekoäly – tekoälyn käyttö paistattelee nykyään `parrasvaloissa´ yhä useammin, ja niinpä tekoälyyn pohjautuvat tekoälyalgoritmit tarjoavat yhteiskunnalle ennusteita, suosituksia tai päätöksiä tiettyjen tavoitteiden saavuttamiseksi enenevissä määrin. Algoritmit `alkavat’ jossain vaiheessa tunnistaa käyttäjänsä ja juuri tämän `tunnistamisen’ vuoksi käyttäjän on oltava hereillä koko ajan. Käyttäjä voi toki itse ohjailla tekoälyä suhteessa itseensä –> in/out, mutta se vaatii aktiivisuutta. Tekoälyalgoritmit hyödyntävät ympäristössään olevia tietoja ja toimintoja saavuttaakseen haluttuja tuloksia [Fernàndez 2023, 75].
Tekoälyn sinällään tiedetään tieteenalana saaneen alkunsa jo vuonna 1956. Termi `artificial intelligence’ [=tekoäly] lanseerattiin käyttöön Yhdysvaltain New Hampshiressa järjestetyssä tietojenkäsittelytiedettä käsittelevässä konferenssissa, juuri tuota tilaisuutta pidetään tekoälyn `syntykohtana´. Tekoäly ja algoritmit yleensä yhdistetään koneoppimiseen [eng. machine learning ML], jolla tarkoitetaan joukkoa algoritmeja, ja jotka säätävät tekoälyjärjestelmän toimintaa halutun päämäärän saavuttamiseksi, jolloin syntyy annetun tehtävän suorittama laskentaohjelmisto [Myllymäki 2021].
Tosin jo antiikin kreikkalaisen Akatemian perustajan ja filosofi Platonin ajalla [427-347 eaa.] hyväksyttävän tekoälyohjelman olisi pitänyt kyetä käsittelemään huonosti määriteltyjen ongelmia ja avoimia etsintäavaruuksia. Edellä mainittua ongelmaa kutsutaan Menonin paradoksiksi, joka on seuraavanlainen: jos on olemassa rationaalinen keino hakea tai saavuttaa uutta tietoa [jota kuvatkoon lause S], niin keksijän A pitää tietää lauseen S sisältö jo etukäteen, sillä muutoin hän ei kykenisi rationaalisesti saavuttamaan sitä. Jos näin ei olisi [toisin sanoen A ei tietäisi, että S], niin A kykenisi saavuttamaan S:n vain sattumanvaraisesti [ei-rationaalisesti]: jos A ei tiedä mitä etsiä, niin kuinka hän silloin voi etsiä sitä? Platonin ratkaisun mukaan kaikki uuden oppiminen on vain jo meissä olevan synnynnäisen tiedon tuomista tietoisuutteen, sen muistamista [Kiikeri & Ylikoski 2011, 177].
Koneoppivia-algoritmeja pidetään merkityksellisinä erilaisissa sektoritoiminnoissa –> mm. rekrytoinnissa, luoton myöntämisessä, koulutuksessa ja terveydenhuollossa, jotka tuottavat tehokkaasti yksilöllisiä sidosryhmäkonteksteissa tapahtuvia ja elämäntapaan perustuvia palveluita. Tekoälyyn liittyvissä keskusteluissa tekoälyllä useimmiten tarkoitetaan sekä ohjelmistoja ja/tai monitieteistä tieteenalaa [vrt. Ojanen ym. 2022].
Meidän kaikkien olisi hyvä ymmärtää ja tietää kuinka algoritmit toimivat ja miten ne vaikuttavat elämäämme –> pitäisi olla algoritmien lukutaito, sillä algoritmienvaltaan liittyy myös mielikuvien valta. Eli tekoälyyn perustuva koneellinen [algoritmin tekemä päätös] päätöksenteko koskettaa meitä/meidän sidosryhmiämme tavalla tai toisella yhä useammin halusimme tai emme. Valta `viimepeleissä’ on kuitenkin ihmisellä – humanisteja tarvitaan edelleen.
Algoritmien avulla toimivat järjestelmät eivät toki ole virheettömiä. Tästä syystä niiden käyttäminen julkishallinnossa on herättänyt, oikeutetusti, epäluuloja. Epäluulot kohdistuvat muu muassa läpinäkyvyyden puutteeseen, syrjintään ja vastuun kohdentamiseen [vrt. Kaltzenbach & Ulbricht 2019, Ojanen ym. 2022]. Suomessa algoritmien käyttöä julkishallinnossa säätelee keskeisimmin hallintolaki 434/2003, jossa korostetaan läpinäkyvyyttä tulla kuulluksi oikeutta. On olemassa joukko muita lakeja ja asetuksia, jotka korostavat kansalaisiin kohdistuvien päätösten tekemisen oikeudellisuutta proseduraalisen oikeudenmukaisuuden näkökulmaa noudattaen.
Julkishallinnossa käytettäessä automaattista päätöksentekoa on sen tavoitteena yleensä –> tuottaa julkista valtaa käyttäen päätöksiä, jotka vaikuttavat esimerkiksi eri sidosryhmien oikeuksiin, velvollisuuksiin tai etuihin, joihin heillä lain mukaan on oikeus. Automaattisia massapäätöksiä tehdään ja sovelletaan erityisesti hallinnon osa-alueilla –> verotuksessa ja sosiaaliturvassa ... [Suksi 2021].
Kuten todettua automaattisessa päätöksenteossa on ihmisten tehtävänä erityisesti arvioida ja valvoa päätöksentekoa samoin kuin hallinnoida sen toimintaa.
Se miten kansalaisiin kohdistuvaan automaattiseen päätöksentekoon, varsinkin kun päätös nähdään epädemokraattisena ja/tai ristiriitaisena, voidaan vaikuttaa, on koko lailla rajallinen, koska –> yleensä asiantuntijat [päätöksen tekijät] näkevät kansalaisten roolin lähinnä valitusoikeuden kautta.
Jokaisella on tietenkin oikeus valittaa saamastaan automaattisesta päätöksestä, tämän katsotaan olevan osa kansalaisten oikeusturvaa julkista vallankäyttöä vastaan [vrt. Widlak ym. 2021]. On kuitenkin hyvä huomioida tämä –> automaattista päätöksentekoa lähtökohtaisesti valvoo sitä käyttävä viranomainen ITSE, joten tuleeko kaikissa tapauksissa automaattiseen päätöksentekoprosessiin liittyvä virhe lainkaan ilmi. Varsinkin kun sen `havainnointi’ painottuu päätöksentekoketjun loppupäähän eli päätöksen objektiin ja hänen [tekemäänsä] lopputuloksensa arviointiin, onko päätös `on/off’? [mm. Kroll 2020].
Hesarin HS VISIO [13.7.2025] käyttää paria aukeamallista tekoäly `uutisointiin´. Ensimmäisen uutisoinnin otsikko on; Mark Zuckerbergin toinen tuleminen [toimittaja Joakim Westrèn-Doll HS]. Kyseinen henkilö tunnetaan amerikkalaisen Meta-yhtiöiden toimitusjohtajana. Liitän tähän, vähän paikoin soveltaen, joitakin otoksia tekstin sisällöstä: ”Mark Zuckerberg on muuttunut ... yhtiön perustaja on luonut nahkansa uudelleen. Hän osaa valita puolensa. Zuckerbergin ja tämän vaimon Priscilla Chanin perustama hyvätekeväisyyssäätiö tuki vuosien ajan avokätisesti vähemmistöjä ja rasismin vastaista työtä. Kun toukokuussa [2025] rahahanat äkisti katkesivat. Säätiö ilmoitti, että se tukisi jatkossa ensi sijassa kovan tieteen tekemistä.
New York Timesin mukaan moni Zuckerbergin tunteva vakuuttaa, että taustalla on aito muutos arvomaailmassa. Hän on ottanut poliittisessa ajattelussaan harppauksen oikealle. Yksi ilmeinen syy Zuckerbergin politikoinnille on: tekoäly. Hän on lähestynyt henkilökohtaisesti satoja tekoälytutkijoita, insinöörejä ja alan yrittäjiä. Heitä hän on kutsunut syömään kotiinsa ja puhumaan rahasta.
Zuckerbergin visiossa tulevaisuuden elämämme on suurissa määrin tekoälyn generoimaa. Ihmiset kuluttavat tekoälyn tuottamaa sisältöä ja juttelevat tekoälyystävien kanssa. Ja jos surettaa, tekoäly toimii terapeuttina.
Trumpin ja tekoälyn aikaa määrittää arvaamattomuus. Valta kasautuu yksittäisille ihmisille ja heidän välisille suhteille. On parempi olla häpeilemättä jotakin kuin kumarrella kaikille. Siis Zuckenberg ei enää murehdi näyttäytyykö Meta-yhtiöt demokratialle positiivisena voimana ikäviä sisältöjä kitkemällä. Tärkeimpänä on uusien tuotteiden rakentaminen” – näissä tekoälyllä tulee olemaan arvattavastikin iso rooli.
Hesarin HS VISIOn toisen uutisen otsikko kuuluu; Vaihtoehdoista paras, haluatko, että tekoäly kehuu sinua työnhaussa tai suosittelee yrityksesi tuotteita? Siihen löytyy keinoja [toimittaja Niclas Storås HS]. Liitän tähänkin, hiukan soveltaen, `otteita´ uutistekstistä: ”Jos tahdot näyttää olevasi tekoälyä fiksumpi työnhaussa, voit käyttää tätä yksinkertaista kikkaa, mutta huomaa, tästä tempusta on iloa vain, jos rekry-yritys hyödyntää tekoälyohjelmaa työhakemuksen ja ansioluetteloiden läpikäymisessä; siis lisää ansioluetteloosi haluamaasi valkoista tekstiä valkoiselle taustalle käyttämällä minimaalisen pientä fonttia. Tekstin ei tarvitse olla ihmisen luettavissa.
Työnhaussa ansioluetteloon ihmiselle näkymätön teksti toimii tuskin kikkana kovin pitkään, jos se edes ylipäätään enää toimii. Tekoäly-yritykset pyrkivät estämään tällaisten porsaanreikien hyödyntämisen, kun ne yleistyvät. Uutiseen on haastateltu Superlinesin perustajia, Jere Meriluotoa ja Kimmo Ihanusta. Heidän yrityksensä sai ensimmäisten joukossa pääsyn Open AI:n GPT-3 -kielimalleihin Suomessa. Superlines auttaa toisia yrityksiä tekoälynäkyvyyden optimoinnissa eli GEO:ssa [=generative engine optimization].
Miten sitten Superlines itse näkee tekoälyn tuottamisen saamissaan vastauksissa? `Herrat’ paljastavat syöneensä omia lääkkeitään. Superlinesin näkyvyydestä tehty analyysi johti siihen, että Meriluoto päätyi tuottamaan seikkaperäisiä blogitekstejä GEO:sta Superlinesin nettisivuille. Ja kas, kohta tekoälyohjelmat, kuten Perplexity, alkoivat mainita ja suositella Superlinesia. Se on tuottanut yhtiölle uusia asiakkaita.”
Näin, niin kuin, algoritmien vallan loppumietteenä voin ajatella näin: –> ChatGPT:n, AI:n ja monien muiden generatiivisten tekoälytyökalujen `aivonystyröinä´ toimii suuri kielimalli /kielimaailma ja kun generatiivisen tekoälyn toiminta perustuu pitkälti ennustamiseen, on sen kyky luoda aivan uutta koko lailla rajallinen. Generatiivinen tekoäly –> koneoppimiseen perustuva tekoälymuoto, jonka käyttö ei juuri hyödynnä yrityksiä = hyöty n. viisi [5] prosenttia [lähde Yle 25.8.2025].
Eli generatiivinen tekoäly tuottaa uudenlaisia variaatioita sille aiemmin syötettyjen tietojen pohjalta uusia syötettyjä tietojaan hyödyntämällä ja on kontekstisidonnainen ... tekoäly tarvitsee `vieläkin, vieläkin vain’ ihmisen ohjausta.
#tekoäly, #tekoälyn valta, #algoritmit, #algoritmien valta, #vallankäyttö
Alla kuvapankin Pexels -tekoälykuva

