Keskustelu käy vilkkaana sosiaalisessa mediassa. Verkon välityksellä on helppo vaihtaa ajatuksia harrastuksista, lempiruuasta tai maailman tapahtumista sekä tietysti politiikasta. Nykyään ei ole kuitenkaan itsestään selvää, onko kommenttikenttien keskustelukumppani oikea ihminen vai tekoälyllä ohjattu botti.

Mitä ovat tekoälybotit ja miksi ne ovat ongelma?
Tekoälyn kehittymisen myötä sosiaalisen median botit ovat muuttuneet aiempaa uskottavammiksi ja entistä vaikeammin tunnistettaviksi. Aiemmin botit nähtiin usein koneina, jotka spämmäsivät mainoslinkkejä tai satoja toistuvia viestejä. Nykyiset tekoälyn ajamat bottitilit voivat osallistua aktiivisesti somessa käytäviin keskusteluihin, reagoiden viesteihin, esittäen kysymyksiä tai vaikka vitsaillen kommenttikentissä – aivan kuten ihminen.
Bottien tunnistettavuuden vaikeutumista todentaa Jonesin ja Bergenin (2025) tuore tutkimus, jossa katsottiin GPT-4.5 kielimallin läpäisseen Turingin testin. Turingin testi on klassinen koe, jossa arvioidaan, kykeneekö tekoäly viestimään niin luonnollisesti, ettei ihminen erota sitä toisesta ihmisestä. Tutkimuksessa 73 % osallistujista luuli keskustelevansa ihmisen kanssa.
Nämä vaikeasti tunnistettavat ja kehittyneet botit voivat vaikuttaa julkiseen mielipiteeseen, lisätä tietynlaisen viestien näkyvyyttä tai kiihdyttää vastakkainasettelua. Tämä tehostuu erityisesti, kun kyseessä on niin sanottu bottiverkosto, joissa yhden keskitetyn tahon ajamat sadat tai jopa tuhannet bottitilit levittävät haluttua sanomaa tai narratiivia somessa. Kun useat botit tukevat laajasti samaa sisältöä, ne voivat antaa vaikutelman laajemmin suositusta mielipiteestä tai näkemyksestä, mitä se todellisuudessa olisi. Näin saadaan nopeasti keinotekoisesti luotua vaikutelma massiivisesta kannatuksesta tai paheksunnasta, jonka takana on usein poliittinen tai kaupallinen motivaatio. (Hintsanen 2025, 22–32.)
Yksi esimerkki bottitilien vaikutuksesta löytyy vuoden 2024 Romanian peruuntuneista presidentinvaaleista. Vaaleissa lähes tyhjästä suosioon nousseen ehdokkaan näkyvyys perustui hänen TikTok-videoihinsa. Julkaisuiden laajan suosion epäiltiin perustuvan maksettujen vaikuttajien lisäksi hyvin laajaan bottiverkostoon, joka tuki hänen videoitaan kommenteilla ja jakoina (Ings 2025). Botti- ja vaikuttajaverkostot voivat siis vääristää pahimmillaan jopa demokratian toimintaa, mikä korostaa tarvetta niiden torjumiselle.
Kun somealusta ei puutu, botit puhuvat
Sosiaalisen median alustat kantavat merkittävää vastuuta siitä, minkälaista toimintaa ne mahdollistavat tai estävät. Esimerkiksi X (entinen Twitter) on saanut kritiikkiä siitä, että alustan uuden omistajan Elon Muskin lupauksista huolimatta, toimenpiteet bottitilien karsimiseksi ovat jääneet rajallisiksi. Päinvastoin – alustalla tapahtuneiden tilien ja julkaisuiden näkyvyysmuutoksien nähdään vaikuttaneen negatiivisesti bottien tunnistamiseen, ja bottien määrä alustalla on edelleenkin kasvussa (Hickey ym. 2025, 12–16).
Samanaikaisesti X:n uusi ansaintamalli kannustaa ainoastaan sitouttamista herättävään sisällön julkaisemiseen. Tämä voi epäsuorasti palkita myös valheellisen tiedon levittämistä, kunhan se kerää riittävästi reaktioita. Kun tähän yhdistetään X:n karsitut moderointitoimet ja faktantarkistuksen siirtyminen yhteisön vastuulle, on alusta altis väärinkäytöksille ja bottitilien vaikutuksille (Hintsanen 2025, 47–49).
Vaikka sosiaalisen median alustojen vastuuta bottien ja virheellisen torjumiselle tuleekin korostaa, se ei kuitenkaan kuulu yksinomaan heille. Myös yksittäisten käyttäjien, alustojen yhteisöjen, viranomaisten ja valtioiden tulee kantaa vastuuta siitä, että verkossa jaettua tietoa ja varsinkin sen alkuperää arvioidaan entistä kriittisemmin. Tekoälyllä tuotetun sisällön kehittyessä ja sen kyvystä tuottaa yhä vakuuttavampaa ja aidontuntuista materiaalia, on syytä herätellä ihmisten tietoutta bottitilien toiminnasta ja kehittää keinoja niiden tunnistamiselle.
Kirjoittajat
Kimi Hintsanen opiskelee liiketalouden tradenomiksi LAB-ammattikorkeakoulussa. Hän on erityisen kiinnostunut sosiaalisen median kehityksestä, viestinnän luotettavuudesta ja tekoälyn roolista verkkokeskusteluissa.
Marianne Viinikainen työskentelee taloushallinnon lehtorina LAB-ammattikorkeakoulussa. Hän toimii myös tietojohtamisen asiantuntijana Kehitä tietojohtamista kokeilemalla -hankkeessa.
Lähteet
Hickey, D., M.T. Fessler. Lerman, K & Burghardt, K. 2025. X under Musk’s leadership: Substantial hate and no reduction in inauthentic activity. PLOS one. Viitattu 27.5.2025 https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0313293
Hintsanen, K. 2025. Twitteristä X: Muutosten vaikutus bottitileihin ja disinformaatioon. Opinnäytetyö, tradenomi AMK. LAB-ammattikorkeakoulu, liiketalous. Viitattu 27.5.2025. Saatavissa https://www.theseus.fi/handle/10024/893751
Ings, R. 2025. The TikTokers accused of triggering an election scandal. BBC News. Viitattu 27.5.2025. https://www.bbc.com/articles/cqx41x3gn5zo
Jones, C. & Bergen B. 2025. Large Language Models Pass the Turing Test. University of San Diego. Viitattu 25.5.2025. Saatavissa https://arxiv.org/abs/2503.23674
SuttleMedia 2023. Chat, Chatbot, Chat bot. Pixabay. Viitattu 27.5.2025. Saatavissa https://pixabay.com/illustrations/chat-chatbot-chat-bot-bot-robot-8147986/