Tekoälyt ja vastuullisuus

VALVE (LAB 2024) on LABin, LUTin ja Lappeenrannan kaupungin yhteinen projekti, jossa pyritään auttamaan Etelä-Karjalan yrityksiä vastuullisuuden kehittämisessä. Vastuullisuuden kentän muuttuessa nopeasti täytyy yritysten pysyä tietoisena myös digitaalisuuteen liittyvästä vastuullisuudesta, kuten esimerkiksi tekoälyihin liittyvät haasteet.

EU AI Act

EU on tarttunut tekoälyihin liittyviin riskeihin uusilla määräyksillä. Määräykset tulevat portaittain voimaan kansallisella tasolla helmikuusta 2025 lähtien (Future of Life Institute 2024). Määräykset vaikuttavat ensisijaisesti järjestelmien kehittäjiin ja toimittajiin, mutta myös hyödyntäjät kantavat osan vastuusta (Shaping Europe’s digital future 2024).

EU:n uudet tekoälyyn liittyvät määräykset ovat vain kehys, jota voidaan hyödyntää kansallisen tason lakien rakentamiseen. Kehyksessä on pyritty ottamaan huomioon myös tuleva kehitys jakamalla käyttökohteet neljään riskiluokkaan: riskit, jotka eivät ole hyväksyttävissä, korkean riskin sovellukset, matalan riskin sovellukset ja sovellukset, joissa ei nähdä riskejä. Korkean riskin käyttötarkoituksiin kuuluvat riskit yksilön terveyden tai hyvinvoinnin suhteen ja nämä ovat käyttötarkoituksia, joihin tekoälyjä saa käyttää, mutta näihin liittyvät tuotteet pitää rekisteröidä ja näiden käyttäminen on kiellettyä, mikäli mallin kouluttamiseen ei ole riittävästi dataa. (Shaping Europe’s digital future 2024.)

Hyödyntäjien näkökulmasta on tärkeää huomioida, että mikäli yrityksessä käytetään tekoälyjä korkean riskin tarkoituksiin, täytyy yrityksen huolehtia, että tuotteita käytetään asianmukaisesti, eli yrityksen vastuulla on kouluttaa käyttäjät (Shaping Europe’s digital future 2024). Tämän ongelmana on se, että kun tuotteet pyritään kehittämään monipuoliseen käyttöön, voi käyttäjä tietämättään rikkoa lakia. Esimerkiksi OpenAI:n puheentunnistustuote Whisper on kymmenien tuhansien terveydenhuollon ammattilaisten käytössä siitä huolimatta, että OpenAI on varoittanut sen käytöstä ja tuotteen on todettu tekevän ajoittain jopa vaarallisia lisäyksiä tai muutoksia tekstiin (Edwards 2024).

Kuva 1: Tekoälyllä voi myös plagioida epähuomiossa helposti. Käytetty kehote ”A fast blue hedgehog with red sneakers”. (Kuva: Leonardo AI / Aki Vainio)

Kielimallit myös hallusinoivat, minkä vuoksi määräyksissä vaaditaan, että tekoälyillä luotu sisältö merkitään asianmukaisesti. Toisaalta, vaikka ymmärtäisimme hallusinoinnin mahdollisuuden rationaalisesti ja olisimme kriittisiä sisällön suhteen, ihmisaivoja ei ole rakennettu käsittelemään tietoa tällä tavalla. Meille jää muistijälkiä lukemistamme asioista, mutta emme välttämättä muista, että mistä tieto tuli, joten vaikka olisimme olleet lukuhetkellä kriittisiä, se ei tarkoita, että muistaisimme myöhemmin tietoa tarvitessamme, että kyseessä oli misinformaatio (Matthews 2019).

Kaikkea ei voi säännellä

Khan (2024, 55) nostaa tekoälyjen mahdollisuuksiin opetuksessa liittyvässä kirjassaan esiin positiiviseksi näkemänsä esimerkin, jossa nuori pyysi tekoälyä simuloimaan George Washingtonia ja kysyi siltä, että onko se koskaan kokenut epävarmuutta. Simuloidun Washingtonin vastaus on hyvin poliittinen. Se kertoo usein kokeneensa epävarmuutta, mutta ei anna esimerkkejä, vaan lisää vastaukseen kommentin, että ei kokenut koskaan epävarmuutta ajaessaan vapauden aatetta. Khan korostaa kirjassaan useita kertoja, että ei ole opettaja, mutta juuri tällaisissa esimerkeissä se nousee pintaan, koska opettaja ymmärtäisi, että nuoren varsinainen tarve ei liittynyt historian opiskeluun, vaan hänellä on haasteita oman itsevarmuutensa kanssa.

Nuori turvautui kielimalliin hakiessaan apua, mutta kielimalli ei pysty antamaan hänelle sitä apua, jota hän kaipaa, eikä edes tunnista tarvetta. Samaan aikaan kielimalli näyttäytyy helposti edullisena vaihtoehtona, jonka tarpeellisuutta ja hyödyllisyyttä voidaan perustella kasvavilla käyttäjämäärillä. Vaikka tekoälyihin liittyvä innostus on jo hiipumassa, näiden työkalujen kanssa tehdään vielä virheitä, kun meitä työnnetään käyttämään näitä työkaluja ilman riittävää ymmärrystä niiden toiminnasta ja rajoitteista.

Kirjoittaja

Aki Vainio työskentelee LAB-ammattikorkeakoulussa tietojenkäsittelyn lehtorina. Hänen aiemmin käyttämiensä kirjoittajaesittelyjen pohjalta ChatGPT ehdottaa, että ”[h]änen elämänsä jakautuu tasapainoisesti opetuksen, tutkimuksen ja sen pohtimisen välillä, miksi tekoäly ei vieläkään ymmärrä hänen huumoriaan.”

Lähteet

Edwards, B. 2024. OpenAI’s Transcription Tool Hallucinates. Hospitals Are Using It Anyway. Wired. Viitattu 13.11.2024. Saatavissa https://www.wired.com/story/hospitals-ai-transcription-tools-hallucination/

Future of Life Institute. 2024. Implementation Timeline. Future of Life Institute. Viitattu 21.8.2024. Saatavissa https://artificialintelligenceact.eu/implementation-timeline/

Khan, S. 2024. Brave New Words – How AI Will Revolutionize Education (and Why That’s a Good Thing). London, United Kingdom: Allen Lane.

LAB. 2024. VALVE ─ Vastuullisuusosaamista ja -verkostoja Etelä-Karjalaan. Hanke. LAB-ammattikorkeakoulu. Viitattu 18.11.2024. Saatavissa https://lab.fi/fi/projekti/valve-vastuullisuusosaamista-ja-verkostoja-etela-karjalaan

Matthews, J. 2019. How fake news gets into our minds, and what you can do to resist it. The Conversation UK. Viitattu 19.11.2024. Saatavissa https://theconversation.com/how-fake-news-gets-into-our-minds-and-what-you-can-do-to-resist-it-114921

Shaping Europe’s digital future. 2024. AI Act. European Commission. Viitattu 19.11.2024. Saatavissa https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai