Tekoälyn olkapäille nouseminen

Termi tekoäly tuli varmasti kaikkien huulille viimeistään, kun ohjelmistokehitysfirma OpenAI julkisti ChatGPT-chatbottinsa vuoden 2022 loppupuoliskolla. Tämän jälkeen visiot tekoälyn vaikutuksista ovat vaihdelleet Terminaattori-elokuvien kaltaisen koneiden ylivallan ja massatyöttömyyden välillä. Kun kirjoitin vuonna 2019 tekoälyn potentiaalista uusien työpaikkojen ja mahdollisuuksien luojana, kehotin huomioimaan, että kun halutaan koneiden ja algoritmien alkavan muistuttaa entistä enemmän ihmisiä, niin oikeiden ihmisten täytyy valvoa ja opettaa niitä tunnistamaan ihmisenkaltaisia skenaarioita (Väisänen 2019). 

Trivialisoitua tietoa chat-ikkunassa

Korkeakouluissakin harjoitetun tieteen ja uuden tiedon luomisessa puhutaan jättiläisten olkapäille nousemisesta, millä tarkoitetaan, että uusi tieto pohjautuu aiemmin luotuun. Tekoäly trivialisoi jättiläisten olkapäille nousemisen, kun se esittää kaiken saatavilla olevan tiedon aiheesta kuin aiheesta chatti-ikkunassa. Tieteellisen artikkelin kirjoittamiseen tai opinnäytetyön tekemiseen oleellisesti kuuluvan tietoperustan rakentamiseen käytetty aika pienenee murto-osaan, kun tekoäly tuottaa meille aiheeseen kuin aiheeseen sopivat viitekehykset ja taustateoriat. Suorat lähdeviittauksetkin löytyvät pyynnöstä.

Onko kuitenkaan näin? Eräs ChatGPT:n vahvuuksia on sen kyky käydä luonnollista ihmisenkaltaista keskustelua käyttäjänsä kanssa. Ihmisillä on luontainen taipumus kokea levottomuuden ja epämukavuuden tunteita joutuessaan tekemisiin lähes, mutta ei täysin, ihmisten kaltaisen artefaktien, kuten ihmiskasvoisten robottien kanssa. Tätä ilmiötä kutsutaan termillä vierauden laakso (uncanny valley), ja se antaakin viitteitä siitä, että roboteista ei pidä tehdä liian ihmismäisiä (kts. esim. Kim ym. 2019). ChatGPT:n kanssa vierauden laakso pyritään poistamaan, jolloin sen tarjoamiin vastauksiin suhtaudutaan oletusarvoisesti positiivisesti. Tämä poistaa käyttäjiltä viimeisetkin varoventtiilit lähdekritiikin suhteen.

Luontevaa keskustelua ChatGPT:n kanssa

Kirjoitin taannoin EU:n Horisontti-ohjelmaan kuuluvaa hankehakemusta ja tarvitsin tietoja liiketoiminnan korkeakoulutuksen ja lisääntyneen ympäristötietoisuuden suhteesta. ChatGPT auttoikin minua ystävällisesti tarjoamalla mielenkiintoisen artikkelin ”Business Education and Its Relationship to Increased Environmental Sustainability Practices in Small to Medium-Sized Enterprises”. Mikään ChatGPT:n vastauksessa ei soittanut hälytyskelloja, vaan asia vaikutti kunnolliselta.

Siihen saakka, kunnes halusin etsiä ja lukea alkuperäisen artikkelin käsiini. Kysyttyäni lehteä, jossa artikkelin oli määrä olla, sain vastaukseksi Journal of Business Ethicsin numeron 151(3), sivut 791–808. Valitettavasti kyseisen lehden sivuilta ei enää vastaavaa artikkelia löytynytkään. Haastettuani ChatGPT:n ratkaisun vastaukseksi tuli ytimekäs ”Something went wrong” -ilmoitus.

[Alt-teksti: kuvakaappaus tietokoneen näyttöruudulta. Hakutulokseen on lisätty nuolia osoittamaan kadonneeseen artikkeliin johtavia viittauksia.]
Kuva 1. Lupaava artikkeli oli kadonnut taivaan tuuliin. (Kuva: Jaani Väisänen)

ChatGPT:n tekoäly on siinä mielessä ällistyttävä, että sille on syötetty yli 175 miljardia parametria (OpenAI 2023), joiden avulla se pyrkii jäljittelemään ihmisenkaltaista käytöstä. Ihmisenkaltaiseen käytökseen liittyy muun muassa toisen miellyttämisen halu vaikka valheilla, valheen peittäminen toisella valheella sekä paikalta pakeneminen valheen tullessa ilmi.

Tekoälyn tuotoksiin ei siis voi noin vain luottaa, vaan lähdekriittisyys ja tarkistaminen ovat TKI- ja julkaisutoiminnassa vähintäänkin yhtä välttämättömiä kuin tähänkin saakka, elleivät vieläkin tarpeellisempia.

Kirjoittaja 

Jaani Väisänen työskentelee LAB-ammattikorkeakoulussa digitaalisen liiketoiminnan lehtorina ja vetää LABin Innovaatioiden kokeiluympäristöt -kasvualustaa. Hänen tutkimukselliset kiinnostuksen kohteensa ovat datan hyödyntämisessä liiketoiminnan päätöksenteossa, mallintamisessa ja ennustamisessa. Kaikesta huolimatta hän uskoo tekoälyn helpottavan arkeamme tulevaisuudessa, kunhan emme usko siihen sokeasti.

Lähteet

Kim, S.Y., Schmitt, B. & Thalmann, N. 2019. Eliza in the uncanny valley: anthropomorphizing consumer robots increases their perceived warmth but decreases liking. Marketing letters. Vol. 30 (1), 1–12.

OpenAI. 2020. Language models are few-shot learners. Viitattu 4.5.2023. Saatavissa https://openai.com/research/language-models-are-few-shot-learners

Väisänen, J. 2019. Viekö tekoäly työt? Suunta ‒ Etelä-Karjalan ammatillinen verkkolehti. Viitattu 4.5.2023. Saatavissa https://suunta.lab.fi/vieko-tekoaly-tyot/