Lyhyestä virsi kaunis. Nämä ovat kulkeneet mukanani vuosikaudet.
1. Notepad. Koska tietäjät tietää.
Kevyt, nopea, yksinkertainen. Kuin tekstinkäsittelyohjelmien teksti-tv. Ja mikä tärkeintä: ei muotoiluja. Tämän kautta kulkee valtava määrä tekstiä joka päivä.
2. Kuvakaappausten tallentuminen niille dedikoituun kansioon, jottei työpöytä räjähdä.
Yksinkertaisin tapa:
Paina Shift + Command + 5 Näytölle avautuu näyttökuvatyökalu Klikkaa Valinnat Valitse Tallenna kohteeseen → Muu sijainti Valitse haluamasi kansio (esim. ”Näyttökuvat, tai miksi sen haluat nimetäkään”)
Ohessa oman koneeni näkymä. Finderin suosikeihin vetämällä kansio myös löytyy heti.
3. Chrome-selaimen kirjanmerkit ja kansiot.
Kuulostaa itsestäänselvyydeltä, mutta olen huomannut, että kaikki eivät kirjanmerkkejä käytä. Itse tykkään myös järjestellä asioita kansioihin kirjanmerkeissä. Usein vähän samalla logiikalla kuin Slackissa teemajaottelu työjuttujen mukaan.
Skill, skilli, taito. Se tarkoittaa tekoälykontekstissa pysyvää ohjeistusta, joka tehdään tekoälyn taustalle. Se on periaatteessa prompti, joka on sopimus siitä, miten tiettyjä asioita tehdään. Ihan käytännössä se on tiedosto, joka tehdään itse esimerkiksi Claude Codella ja tallennetaan omalle koneelle tiettyyn kansioon, tai tekoälypalvelun web-versiossa (esim. Clauden selain- tai sovelluskäyttöliittymä), jolloin se tallentuu palveluntarjoajan pilveen.
Skillipankit – toimituksen uusi yhteinen muisti?
Ohjelmistokehityksessä on jo pitkään rakennettu ns. skillipankkeja: jaettuja tiedostoja, jotka kertovat tekoälylle miten organisaatiossa toimitaan.
Näyttäisi siltä, että olemme nyt siirtymässä aikakaudelle, jossa tällaiset itserakennetut ”keskusaivot” eivät välttämättä jää vain kehitysosastolle. Jaetut brändiohjeet, jaetut designohjeet, jaetut termipankit, jaetut tyylioppaat…tarpeita on.
Tätä puoltaa useampi kehityssuunta, ja suomalaisissa mediataloissa näitä asioita jo kokeillaan. Yksi kehityssuunta on, että taitoja on voinut jonkin aikaa luoda tekoälypalveluiden web-versioissa, mikä demokratisoi niiden luomista. Toinen on, että yhteisesti jaettu ”muisti” aidosti mahdollistaa uusien asioiden tekemisen yhdenmukaisesti, parhaimmillaan ehkä jopa sen kuuluisan hiljaisen tiedon siirtymisen laajemmin organisaation käyttöön. Kolmas on, että onhan se nyt kätevää ja monessa mielessä perusteltua, että yhteiset pelisäännöt ylipäänsä ovat samassa paikassa eivät levällään ympäri Sharepointia.
Tässä Suomesta yksi esimerkki, henkilöstöyhtiö Baronan markkinointitiimin skillipankki (Lähde: Baronan CMO:n Joni Helmisen postaus Linkedinissä):
En ihmettelisi, jos yksi tulevaisuuden keskeisistä rooleista uutismediassakin olisi tehtävä, jossa hallinnoidaan ja pidetään ajan tasalla näitä pankkeja. Ne olisivat enemmänkin organisaation muisti kuin IT-projekti, joten omistus ei välttämättä olisi edes teknologiapuolella, vaikka toki varmasti jollain tapaa yhteistyössä sen kanssa.
Avoimet mallit, automaatio ja agentit
Avoimet kielimallit ovat tekoälymalleja, joiden koodi ja joskus myös opetusdata ovat julkisesti saatavilla. Toisin kuin suljetut mallit – kuten ChatGPT tai Claude – niitä voi ajaa eli käyttää omalla koneella tai omalla palvelimella. Journalismin kannalta olennaista on, että kun malli pyörii omassa infrastruktuurissa, esimerkiksi arkaluonteinen lähdeaineisto ei kulje kolmansien osapuolten kautta. Avoimet mallit kehittyvät nopeasti, ja vaikka niiden ympärille ei ehkä voi rakentaa aivan kaikkea, niin sopivia käyttötarkoituksia löytyy yhä useammin. Jos journalistiset esimerkit kiinnostavat, niin tämä sivusto kerää esimerkkejä.
Automaatio tarkoittaa toistuvan työn siirtämistä koneelle. Idea ei ole uusi, mutta generatiivinen tekoäly on käytännössä romahduttanut kynnyksen luoda työn kulkuja. Työkalut kuten OpenAI:n Codex mahdollistavat jo automaatioiden rakentamisen ja ajamisen pilvessä ilman merkittävää teknistä osaamista. Agentit vievät tämän vielä pidemmälle, eli ne eivät vain suorita yksittäistä tehtävää, vaan ketjuttavat niitä itsenäisesti.
Tällä hetkellä automaatioita rakennetaan pitkälti puoliteknisillä alustoilla kuten n8n, Make tai Zapier. Ne ovat jo melko matalan kynnyksen työkaluja, mutta vaativat silti jonkin verran teknistä ymmärrystä – sen verran, että ei rivitoimittaja niitä ala mediataloissa käyttämään. Työkalun käyttö vaatii logiikan hahmottamista, integraatioiden rakentamista ja virheiden korjausta. Kun tulevaisuudessa automaatioiden rakentaminen onnistuu käytännössä pelkällä promptauksella, kynnys tehdä niitä madaltuu entisestään. Siinä on toki riskinsäkin. Eikä vähiten se, että kaikkea ei kannata eikä pidä automatisoida, jotta oma ajattelu pysyy vireänä (vinkit sen pitämiseen tikissä AI-aikana täällä).
Kuulostiko ylläoleva liian optimistiselta tai epärealistiselta? Voi olla sitäkin. Kollegani Elina Lappalainen pohdiskelee asiaa osuvasti Linkedinissä, jossa hän toteaa, että tehokkuusloikat syntyvät usein ihan perustyökalujen ja -työnkulkujen kuntoon laittamisesta ennen kuin hypätään agentteihin ja automaatioihin. Ja näinkin se on. Perusta ensin kuntoon.
Vielä ollaan aika kaukana siitä maailmasta, jossa iso joukko toimittajia laajassa mitassa vaikkapa vibekoodaisi itselleen ja kollegoilleen sopivanlaisia työkaluja niin sanotusti tuotantokäyttöön. Ennen kuin tämä on mahdollista, organisaation on mietittävä kuntoon prosessit ja ”hiekkalaatikot”, jollaisia pelkät kokeilut vaativat.
Meidän ihmisten on samalla hyvä pyrkiä kehittämään niitä ominaisuuksiamme, joihin tekoäly ei pysty. Journalismissa se tarkoittaa esimerkiksi asioiden syvällisten merkityksien ymmärtämistä, kontekstointia, lähdeverkoston rakentamista, haastattelutaitoja, luottamuksen rakentamista ja tietysti kriittistä ajattelua. Entistä tärkeämpää tulee epäilemättä myös kyvystä ymmärtää, mitä töitä ylipäänsä kannattaa antaa koneelle ja mitä ei.
Tekoälystä on tullut työelämän nopein lupaus. Yksi lupaus on, että ulkoista tylsät rutiinit koneelle ja saat enemmän aikaa ajattelulle.
Näin monesti onkin. Väitän kuitenkin, että todellisuus ei ole ihan mustavalkoinen, vaan osin jopa ristiriitainen. Se aika ei vapaudu automaattisesti, vaan sen eteen täytyy myös tehdä itse töitä.
Haluan alleviivata, että omasta mielestäni järkevin tapa suhtautua tekoälyyn on optimistinen kriittisyys. Ei siis täysin pidäkkeetön hypetys, eikä liioin neliraajajarrutus-tyyppinen torjunta. Optimistisella kriittisyydellä tarkoitan halua ja kykyä etsiä uusia mahdollisuuksia, mutta ymmärtäen samalla riskit ja miten niitä voi ehkäistä.
Optimistisen kriittisyyden hengessä nostan tähän blogikirjoitukseen kolme osittain toisiinsa limittyvää kiinnostavaa teemaa, joita käsitteleviin artikkeleihin olen törmännyt lyhyen ajan sisään.
1. Miten hyödyntää tekoälyä (journalistisessa) työssä siten, että oma ajattelu ei taannu? Kärjistäen: miten välttää “aivokuolema”
Vältä kirjoittamisen ulkoistamista tekoälylle. Kirjoittaminen on ajattelua. Jos ulkoistat sitä liiaksi tekoälylle, et ajattele samalla tavalla kuin kirjoittaessasi. Tietyntyyppisten asioiden luonnostelu tekoälyllä on eri asia. Se voi olla hyvinkin perusteltua ja tarpeellista, ja helpottaa työtä. Ihmisen vastuu on avainasemassa.
Varo lipsahtamasta moodiin, jossa tekoälyn kanssa keskustelemisesta tulee ajattelun korvike. Yksi merkki tästä voi olla, jos huomaat kyseleväsi tekoälyltä yksinkertaisia asioita, jotka ennen olisit ratkonut itse pohtimalla (ja kyllä, olen itsekin sortunut tähän toistuvasti, heh).
Tarkista ja tarvittaessa kyseenalaista tekoälyn vastaukset, vaikka se onkin työlästä. Tarkistaminen pitää ajattelusi terässä. Jos koet, että tekisit koko homman nopeammin ilman tekoälyä, sitten tee niin.
Vältä liiallista automatisointia, vaikka se kuinka houkuttelisi. Toistuvat rutiinit kyllä kannattaa automatisoida.
Säilytä vastuu päätöksistä itselläsi.
Harjoita aktiivisesti omaa ajatteluasi myös ilman tekoälyä. Kuulostaa itsestäänselvältä, mutta esimerkiksi kavereiden/kollegoiden kanssa kasvokkain sparrailu on mitä parasta ajattelun treenaamista.
2. Miten välttää “AI brain fry” eli kognitiivinen ylikuormitus? Toisin sanoen, että homma ei lähde lapasesta…
Lähde: Harvard Business Review’n artikkeli “When Using AI Leads to “Brain Fry”. (5.3.2026). Allaoleva lista on yhdistelmä artikkelin sisältöä ja omaa ajatteluani.
Kiinnitä tietoisesti huomiota siihen, minkä verran kuormitusta ihmiselle tai ihmisille syntyy. Älä ota käyttöön liikaa tekoälytyökaluja tai -prosesseja yhtä aikaa.
Vältä liiallista jatkuvaa valvontaa. Käytä tekoälyä niin, ettei synny liian paljon seurattavaa ja tarkistettavaa.
Hyödynnä tekoälyä etenkin rutiinitöissä. Pyri siirtämään toistuvat ja kuormittavat tehtävät tekoälylle.
Luo selkeät ja realistiset odotukset. Määrittele, mitä tekoälyn käytöllä tavoitellaan ja miten sen pitäisi vaikuttaa työn määrään. Ole suora ja rehellinen.
Keskity vaikutuksiin, älä määrään. Vältä mittaamasta onnistumista sillä, kuinka paljon tekoälyä käytetään, vaan mitä sillä saadaan aikaan.
Satsaa ongelmien jäsentämiseen, priorisointiin, kokonaisuuksien hallintaan.
Tarjoa tukea ja opastusta. Esimerkiksi esihenkilön tuki ja selkeät ohjeet vähentävät kuormitusta.
Sovi yhteiset pelisäännöt ja käytännöt.
Suojele keskittymistä. Vältä tilannetta, jossa työ pirstaloituu jatkuviin keskeytyksiin ja esimerkiksi työkalujen välillä hyppimiseen.
3. Mitä tehdä tilanteessa, jossa tekoäly ei vähennäkään työtä, vaan tekee siitä intensiivisempää?
Lähde: Harvard Business Review’n artikkeli “AI Doesn’t Reduce Work—It Intensifies It”. (9.2.2026). Allaoleva lista on yhdistelmä artikkelin sisältöä ja omaa ajatteluani.
Rajaa tekoälyllä tehtävän työn laajuutta tietoisesti. Älä ota uusia tehtäviä vain siksi, että tekoäly tekee ne mahdollisiksi.
Vältä tekoälyn käytön valumista ainakaan liiallisesti taukoihin ja pieniin vapaa-ajan hetkiin.
Vältä ”multipaskingia” (sic, heh). Keskity yhteen kokonaisuuteen kerrallaan, älä yritä tehdä montaa tekoälyasiaa yhtä aikaa.
Etene vaiheittain. Tee työ selkeissä jaksoissa tai osioissa sen sijaan, että reagoit jatkuvasti uusiin ärsykkeisiin.
Pidä säännöllisiä harkintataukoja. Pysähdy arvioimaan suuntaa.
Säilytä selkeät rajat työn ja vapaa-ajan välillä siinä määrin, kun se sinulle sopii (esim. itse en ole koskaan kaivannut selkeää rajaa näiden välille, mutta rajansa varmaan kaikella). Huolehdi palautumisesta.
Tee työtä myös yhdessä ihmisten kanssa. Keskustelu ja yhteistyö tasapainottavat yksin työskentelyä.
Tunnista kuormituksen kasvu ajoissa. Jos työ lisääntyy huomaamatta, pysähdy ja tarkista tapasi toimia.
Ei kannata säikähtää! Tämä on helpompaa kuin luulet.
Olet ehkä huomannut, että erilaisten uutiskoosteiden pyytäminen tekoälypalveluilta suoraan ei aina johda laadullisesti kummoisiin lopputuloksiin (vaikka esimerkiksi ChatGPT:n agenttitila & ajastus -kombo on tässä parhaimmillaan hyödyllinen). Lopputulos tuppaa horjumaan etenkin silloin, jos halutaan seurata juuri tiettyjä lähteitä juuri tietyin väliajoin juuri tietyllä tavalla.
Automaatioiden rakentamiseen on monenlaisia varta vasten suunniteltuja työkaluja, kuten Zapier, N8N tai Power Automate, mutta aina sellaisia ei tarvita, eikä välttämättä generatiivista tekoälyäkään.
Esittelen tässä kirjoituksessa yhden yksinkertaisen tavan luoda itselleen uutisseurannan automaatio Googlen työskentely-ympäristössä.
Se hyödyntää Google Sheets -taulukkolaskentaohjelmaa sekä Google Apps Scriptiä. Apps Script on pilvipohjainen JavaScript-alusta (JavaScript on ohjelmointikieli), jolla voi automatisoida tehtäviä, luoda omia työkaluja ja yhdistää Googlen eri palveluita toisiinsa. Se on ilmainen eli kuuluu tavalliseen Google-tiliin ja etuna on, että siinä kirjoitetaan ja ajetaan koodia suoraan selaimessa. JavaScript-koodia sinun ei tarvitse osata riviäkään, vaan voit pyytää sellaista tekoälyltä (kannattaa kuitenkin pyrkiä varmistamaan tekoälyn kanssa keskustellessa, että toimit fiksusti ja tietoturvallisesti. Varmista kaverilta, jos pohdituttaa).
Oma esimerkkityönkulkuni koostuu kiteytettynä seuraavista vaiheista:
Lähteet: Valitaan seurattavat sivustot, jotka tarjoavat jatkuvaa uutisvirtaa koneellisesti luettavassa muodossa (omaan työnkulkuuni hain uutisia yhdeksän eri median RSS-syötteistä).
Suodatus: Luodaan säännöt, joilla ei-haluttu sisältö karsitaan pois. (omaan työnkulkuni koodiin lisättiin hakuehto, joka poimii vain ne otsikot, joissa esiintyi sana tekoäly jossain muodossa).
Tallennus: Tallennetaan haetut uutiset paikkaan, jossa ne säilyvät (omassa työnkulussaniuutiset tallennetaan taulukkoon, ja lisäksi koodi varmistaa otsikon perusteella, ettei samaa juttua lisätä listalle kahdesti).
Ajastus: Asetetaan järjestelmä toimimaan itsenäisesti tiettyinä aikoina (omassa työnkulussani uutisia haetaan taulukkoon kuuden tunnin välein).
Lähetys: Toimitetaan valmis tieto halutussa muodossa haluttuun paikkaan (omassa työnkulussani saan sähköpostiini joka aamu klo 7–8 välillä viimeisen 48 aikana kertyneet uutiset. Vaihdan tämän todennäköisesti pian toimimaan joka toinen päivä, siksi 48 tunnin aikaväli tässä vaiheessa, vaikka maili tulee päivittäin).
Tämä työnkulku on vielä perinteistä automaatiota, joka toimii antamillasi ohjeilla. Tekoälyä (Geminiä) käytetään tässä välillisesti koodin kirjoittamiseen.
Tärkeä huomio Apps Scriptistä: Kun tallennat skriptiä tai annat sille käyttöoikeuksia, Google saattaa näyttää varoituksen ”varmistamattomasta sovelluksesta”. Tästä ei kannata hätääntyä. Kyseessä on Googlen normaali turvatoimi itse luoduille työkaluille. Kun teet työkalun itse, se on turvallista, mutta voit aina varmistaa asiantuntijalta, jos jokin mietityttää.
Jos haluaisit viedä homman pidemmälle: Voit lisätä skriptiin Geminin API-avaimen (henkilökohtainen tunniste, jota on säilytettävä tietoturvallisesti eli älä jaa sitä muille). Silloin kielimalli voisi esimerkiksi analysoida taulukon uutiset puolestasi ja tiivistää ne ennen sähköpostin lähetystä.
SXSW eli South by Southwest -tapahtuma on jälleen meneillään Austinissa Yhdysvaltain Texasissa. Tämä omaleimainen tapahtuma on usein myös uusimpien mediainnovaatioiden ja kiinnostavien mediakeskustelujen näyttämö. Esimerkiksi tekoälyominaisuuksistaan tunnettu amerikkalainen uutissovellus Particle ensijulkaistiin kolme vuotta sitten juuri Austinissa. Tässä tuore juttu sovelluksen uudesta “podcastinpurkaja”-toiminnosta.
SXSW-tapahtuman pääteemat ovat teknologia ja musiikki sekä televisio ja elokuva.
SXSW 2026:n nettisivujen aikatauluhausta täältä pystyt helposti hakemaan tapahtumia esimerkiksi media-hakusanalla. Joitain sisältöjä voi katsella ilmaiseksi Youtubesta täältä.
Mediaan liittyvää keskustelua ja havainnointia on SXSW:ssä kuitenkin paljon myös muualla kuin suoraan media-alaan dedikoiduissa tapahtumissa. Hyvänä esimerkkinä on amerikkalaisfuturisti Amy Webbin perinteinen tulevaisuuskatsaus, jonka hän julkaisee aina Austinissa. Tällä kertaa Webb oli paketoinut katsauksensa täysin uusiksi, ehkäpä myös siksi, että viime vuosina se ehti paisua yli 1000-sivuiseksi “tekkiraamatuksi”, jota ei lue kertaistumalta erkkikään. Uudistuneen raportin nimi on reilu 300-sivuinen Convergence Outlook 2026, ja se sisältää huomioita myös mediasta.
Ensiksi Webb taustoittaa, että 1990-luvun lopun digitaalinen murros syrjäytti vanhoja liiketoimintamalleja myös mediassa: “legacy media” oli yksi toimialoista, joita internetin, hakukoneiden, verkkokaupan ja digitaalisten maksujen yhdistelmä ravisteli.
Toiseksi hän muistuttaa, että luottamus mediaan instituutiona heikkenee nyt samaan aikaan, kun luottamus hallintoon, tieteeseen ja yrityksiin.
Webb väittää, että olemme siirtymässä “post-truth”-tilasta (jossa kiistellään faktoista) kohti “post-reality”-tilaa (jossa kiistellään siitä, mikä on todellista). Jälkimmäisessä synteettinen media, personoitu AI-kuratoitu sisältö ja eriytynyt luottamus hajottavat yhteisen todellisuuspohjan. Tällä on suora merkitys uutismedialle, jonka rooli yhteisen todellisuuden rakentajana vaikeutuu.
Webb toteaa, että “post-reality”-ajan seuraukset voivat olla erittäin vakavia. Hän muistuttaa, että jo vuonna 2024 Yhdysvalloissa nähtiin vakava vaaratilanne, kun hurrikaani Helenen aikana levisi väärennettyjä tutkakuvia, joiden väitettiin todistavan hallituksen manipuloivan säätä. Kuvissa näkyi keinotekoisia myrskymuotoja esimerkiksi Detroitin, Chicagon ja St. Louisin yllä. Tämä johti Pohjois-Carolinassa siihen, että osa ihmisistä torjui Yhdysvaltain hätätilaviraston FEMA:n avun pitkittäen tilannetta.
Lisäksi raportti liittää median muutoksen “post-search”-internetiin. Kun AI-assistentit ja agentit alkavat toimia käyttöliittymänä verkkoon, käyttäjä ei enää mene uutis- tai sisältösivulle itse, vaan agentti tiivistää, valikoi ja ohjaa. Raportti jopa ennakoi, että verkko voi muuttua malliin, jossa sisällöstä aletaan periä maksuja agenteilta”. Tähän kohtaan täytyy itse muistuttaa, että Suomessa tämänkaltainen kehitys ei ole vielä läheskään yhtä pitkällä kuin joillain muilla markkinoilla.
“Convergence” on Webbin raportin ydintermi. Se ei viittaa ensisijaisesti “mediakonvergenssiin” eli siihen, että eri mediaformaatit ja -kanavat sulautuisivat yhteen. Modernimpi termi olisi varmaankin nestemäinen sisältö, liquid content. Webb tarkoittaa paljon laajemmin useiden trendien, voimien ja epävarmuuksien risteymää eli sitä, kun teknologia, talous, geopoliittiset jännitteet, ilmasto, sääntely ja ihmisten käyttäytyminen alkavat vaikuttaa samanaikaisesti toisiinsa. Webbin mukaan yhteisvaikutus on suurempi ja erilainen kuin yksittäisten muutosten summa. Raportin oma määritelmä toteaa, että convergence on tilanne, jossa useat trendit ja voimat “intersect and interact” ja synnyttävät uudenlaisen vaikutuksen.
Tämä journalistista vibekoodauskerhoa mainostava kuva on otettu helmikuussa City University of New Yorkin Craig Newmark Graduate School of Journalismin tiloissa.
Vibekoodaus tai fiiliskoodaus tarkoittaa ohjelmointia ilman syvää teknistä ymmärrystä – mennään ”fiiliksen mukaan” siten, että esimerkiksi sovellusta rakennetaan kuvailemalla haluttuja toimintoja luonnollisella kielellä. Kyse ei kuitenkaan ole vain teknisestä ilmiöstä, vaan voidaan ajatella, että esimerkiksi uutismedioissa se avaa mahdollisuuksia laajempaan työtapojen ja työkulttuurin muutokseen. Koetan tässä kirjoituksessa avata, miten.
Tapoja fiiliskoodaukseen on monia, niin kuin on palveluitakin. Tunnetuimmasta päästä suuren yleisön silmissä lienee ruotsalainen kasvuraketti Lovable. Sillä voit halutessasi pyöräyttää vaikkapa arkipyhävapaalaskurin ja jakaa sen kaverille:
Luonnollisella kielellä tähän tapaan toimivia työkaluja ovat myös esimerkiksi ChatGPT Codex, Cursor, Claude Code tai Replit. Itse käytän eniten Codexia sekä Googlen Antigravityä, jolle annetaan hallitusti pääsy koneesi tiedostoihin, jolloin ohjelmia voi rakentaa helposti myös lokaalisti eli omalle koneelle sen sijaan että ne sijaitsevat pilvessä kuten Lovablen tapauksessa. Lokaaliuden etuna on esimerkiksi se, että omalle koneelle ladatun avoimen lähdekoodin kielimallin käyttö ei maksa mitään. Tällä logiikalla voi rakentaa vaikkapa Youtube-videoiden litteroijan, joka toimii näin:
Syötä linkki esim. Youtube-videoon tai podcastiin.
Sisältö latautuu omalle koneelle automaattisesti yleensä audiona.
Ääni muuttuu transkriptioksi ja latautuu txt-tiedostona omaan kansioonsa.
Kielimalli antaa käyttäjän kysymyksiin vastauksia transkription pohjalta.
Runko on tehty Python-ohjelmointikielellä, lataus hoituu yt-dlp:llä (avoimen lähdekoodin komentorivityökalu), litterointi OpenAI:n puheentunnistusmalli Whisperillä ja kielimallin käyttö avoimen lähdekoodin ohjelmiston Ollaman kautta. Käyttöliittymä on selaimessa.
Tämä sanottua, on hyvä tiedostaa, että tällaisissa on aina vaarana ns. demoefekti: wau, vaikuttaapa näppärältä, tuotannollistetaan tämä. Siinä on sitten kuitenkin aina edessä mm. panos–tuotos-arvio. Joka sisältää esimerkiksi sen, paljonko työkalun käyttö ja ylläpito maksaisi ihan oikeasti. Tässä piileekin ”vibekoodaussuuntauksen” suurin pullonkaula organisaatioissa: syntyy valtava määrä ideoita ja prototyyppejä – joista osa varmasti erittäin hyviä – joiden putki tuotantoon on kuitenkin joko erittäin hidas tai kokonaan tukossa. Yksi oppi tässä on minusta se, että varo hurmaantumasta liian hienoista demoesityksistä. Demo on ihan eri asia kuin tuotantoon viety versio.
Omalta osaltani haluan korostaa, että en osaa koodata, enkä ole koskaan pitänyt itseäni erityisen teknisenä ihmisenä. Jos minäkin pystyn tähän, pystyt sinäkin! Siinä sivussa opit koodista itse asiassa aika paljon, vaikka et koodaamaan varsinaisesti opikaan.
Jos aloitat aivan nollasta, suosittelen menemään osoitteeseen lovable.dev, kirjautumaan sinne Googlen tunnuksilla (pari klikkausta), jolloin käytössäsi on pieni määrä krediittejä, joilla voit kokeilla tehdä asioita ilmaiseksi.
Mahdollisuudet: nopeus, ketteryys ja uudenlaiset tavat tehdä töitä
Vibekoodaus madaltaa siis kynnystä rakentaa omia työkaluja. Kun idean ja prototyypin väliin ei tarvita raskasta kehitysprosessia, toimittaja voi esimerkiksi:
Tehdä datan puhdistus- ja analyysityökaluja omaan käyttöönsä
Kun kaikki ei ole enää riippuvaista keskitetystä kehitystiimistä tai keskitetystä budjetista, se voi tehdä toimituksesta ketterämmän.
Uhat: demoefekti, tekninen velka ja hallitsematon työkaluräjähdys
Demoefekti on mielestäni suurimpia uhkia, kuten aiemmin jo lyhyesti kuvasin. Prototyyppi näyttää toimivalta, mutta:
Kuka ylläpitää sitä?
Kuka vastaa tietoturvasta?
Mitä tapahtuu, kun API-hinnat (API = rajapinta) muuttuvat?
Entä jos palvelu katoaa?
Toimituksissa voi syntyä kymmeniä pieniä työkaluja, joilla ei ole omistajaa eli tahoa, joka oikeasti katsoisi työkalun perään. Tämä on omiaan synnyttämään teknistä velkaa.
Koska vibekoodaus tuntuu “ilmaiselta”, kustannuksia ei aina nähdä: kun volyymi kasvaa, kasvavat myös kulut. Jos toimitus rakentaa työkaluja vibekoodaamalla, pullonkauloiksi voivat myös muodostua ainakin seuraavat asiat:
Ymmärtääkö tekijä, miten malli tekee päätelmiä?
Miten varmistetaan datan käsittelyn eettisyys?
Dokumentoidaanko työkalun toimintalogiikka?
Erityisen herkkä kysymys on lähdesuoja. Jos toimittaja syöttää arkaluonteista materiaalia pilvipalveluun, se on erityisen iso riski.
Minne data tallentuu?
Käytetäänkö sitä mallien koulutukseen?
Täyttääkö ratkaisu organisaation tietoturvavaatimukset?
Lokaalit eli omalla koneella toimivat ratkaisut voivat olla turvallisempia, mutta nekin vaativat ymmärrystä riskeistä.
Parhaimmillaan vibekoodaus voi siis demokratisoida kehittämistä, nopeuttaa innovointia ja tehdä ainakin osasta toimittajia nykyistä enemmän palveluiden rakentajia. Toisaalta vibekoodaus voi johtaa hallitsemattomaan työkalujen sillisalaattiin, josta ei ole kokonaiskäsitystä kenelläkään. Tämän myötä vastuut hämärtyvät ja voi myös syntyä kitkaa sisältöpuolen ja kehityspuolen välille. Yksi ydinkysymys on, mikä on se prosessi, jolla parhaat ideat suppiloidaan tuotantoon. Jos tämä ei toimi, syntyy helposti tyytymättömyyttä.
Haluaisin itse ajatella jotenkin niin, että ajatuksena ei todellakaan ole, että kaikista tulee koodareita, vaan siitä, että jonkintasoisesta ohjelmoinnista tulee yksi uusi taito kirjoittamisen rinnalle. Yksi konkreettinen käyttötapa on ihan vain sekin, että teet ajattelemastasi konseptista prototyypin, jonka näytät sitten haluamillesi sidosryhmille. Näin nämä saavat hyvän käsityksen siitä, mitä ajat takaa.
Lähteitä, joita olen hyödyntänyt tässä kirjoituksessa:
Aloitin viime vuonna blogisarjan, jossa summaan tasaisin väliajoin isoja kehityskulkuja niitä taustoittavine lähteineen blogikirjoituksiksi. Viime kesän 12 nostoa löytyvät täältä ja loppuvuoden 14 havaintoa täältä. Tähän kirjoitukseen olen koonnut toimintaympäristöhavaintoja tammi-helmikuulta 2026. Painotus on uutismediassa ja tekoälyssä.
Iso kuva – viisi kysymystä
Alkuvuonna julkaistut tutkimukset, analyysit, uutiset ja muut signaalit media-alalta kertovat, että isot kysymykset pyörivät ainakin näiden viiden teeman ympärillä (selvyyden vuoksi: tulkinta on omani, ei tekoälyn):
Millaiseksi ihmisen ja koneen työnjaon pitäisi oikeastaan muodostua? Onko tekoäly “vain työkalu muiden joukossa” vai onko tämä aikansa elänyt väite, eli onko tästä työnjaosta tulossa jotain muuta?
Miten ihmisten journalistista perusosaamista – hoksaamisesta haastattelutaitoihin – vahvistetaan tekoälyn aikakaudella käytännössä? Mitä muuta se tarkoittaa kuin lisäkoulutusta?
Miten erottuvuutta mietitään medioissa ihan konkreettisesti? Tässä on syytä erottaa toisistaan ainakin sisältöjen kerronta itsessään sekä niin sanottu koneluettava tai rakenteistettu data.
Miten pidetään huolta siitä, että ihmisillä olisi paitsi aikaa myös kykyä kriittiseen ajatteluun tilanteessa, jossa ympärillä on käynnissä valtava muutos?
Tuleeko kokemus tekoälystä jakautumaan jatkossakin epätasaisesti, sekä yleisesti että myös työpaikoilla? Joidenkin mielestä tekoälykehitys on jo nyt AGI-vaiheessa, jossa tekoäly kykenee ymmärtämään, oppimaan ja suorittamaan mitä tahansa älyllistä tehtävää ihmisen tasoisesti tai paremmin. Toiset taas ihmettelevät, kun tekoälyt horisevat yhä vain joutavanpäiväisiä. On epäolennainen kysymys, voivatko molemmat olla totta samaan aikaan. Tärkeää on, pysyykö ihmisten kokemusten epäsuhta aina tällaisena ja mitä asialle on tehtävissä.
Jos nämä kaikki vedetään yhteen, huomataan ainakin se, että ihmisen rooli on jokaisessa kohdassa vielä auki. Tekoäly pakottaa määrittelemään uudelleen, mitä ihminen tekee, missä kohtaa arvoketjua ja miksi.
Edellä mainittuihin viiteen teemaan liittyviä lukuvinkkejä tammi-helmikuulta 2026:
Uutismedian liiton vuotuinen kyselytutkimus 13–18-vuotiaille suomalaisille (n=796) kertoo, että videot ja lyhyet uutisten esittämismuodot (’lyhyt/vähän tekstiä’) ovat edellisvuosien tapaan mieluisimmat uutisten seuraamisen tavat. Tutkimuksesta selviää myös, että aiempaa useampi nuori seuraa aktiivisesti uutisia – mutta samalla uutisten välttely on lisääntynyt.
Tutkimuksen kiinnostavinta antia on kuitenkin uusi osuus, jossa selvitettiin kuinka paljon nuoret lukevat uutisia. Noin puolet nuorista (48%) kertoo seuraavansa seuraamistaan uutisista vähintään puolet lukemalla (se mistä ja miten lukee, jää vastaajan tulkinnan varaan – oheisissa kuvissa on kuitenkin täsmällisiä muotoiluja, joilla asiaa on kysytty). Tätä voi mielestäni pitää suhteellisen suurena lukuna, kun ottaa huomioon, että kyse on 13–18-vuotiaista, jotka ovat jo aika pitkälti sosiaalisen videon algoritmien armoilla.
Eniten lukemalla uutisia seuraavia on 17–18-vuotiaissa tytöissä. Uutisten lukeminen kasvaa varhaisteinistä sitä mukaa kuin ikää tulee lisää kohti täysi-ikäisyyttä – mutta käytännössä vain tytöissä, ei juuri pojissa.
Muita keskeisiä havaintoja: tärkein uutislähde, tekoäly, uutisvälttely, kiinnostavimmat aiheet…
Tekoälyjen tekemät tiivistelmät eivät tässä tutkimuksessa nouse lähellekään mieluisimpia tapoja kuluttaa uutisia. Sekä niiden mieluisuus että käyttö on tutkimuksen mukaan marginaalista.
Ikäryhmän tärkein uutislähde on tänäkin vuonna Tiktok, mutta sen kasvu on pysähtynyt. Iltapäivälehdet ovat (kysytty tutkimuksessa könttänä) nyt kolmanneksi tärkein uutislähde. Instagram nousi niiden ohi hiuksenhienosti. Tutkimusraportissa arvellaan, että Tiktokin lisäksi iltapäivälehtien hienoiseen laskutrendiin vaikuttaa niiden muuttuminen osittain maksulliseksi.
Tutkimuksesta selviää myös, että ”joitakin uutisaiheita” välttelemien määrä ikäryhmässä on kasvanut vuodesta 2023 eteenpäin. Välteltävät uutiset liittyvät useimmiten sotaan, väkivaltaan ja negatiivisuuteen.
Tutkimuksessa kysyttiin myös uutisaiheista, jotka kiinnostavat eniten (oma kommenttini: tällaisen selvittäminen yksinomaan kysymällä on mielestäni hyvin haastavaa). Esimerkiksi mielenterveyteen, terveyteen, hyvinvointiin ja ihmissuhteisiin liittyvät aiheet kiinnostavat enemmän tyttöjä kuin poikia, kun taas vaikkapa tekoälyyn liittyvät aiheet kiinnostavat enemmän poikia kuin tyttöjä. Poikia kiinnostaa tyttöjä enemmän myös mm. isot ajankohtaiset uutisaiheet Suomessa sekä urheiluun ja liikuntaan liittyvät aiheet.
Tutkimuksen mukaan 13–18-vuotiaista nuorista uutisia ylipäänsä seuraa päivittäin 42 prosenttia. Osuus on kasvanut muutamaan edellisvuoteen verrattuna. Tutkimusraportissa arvellaan, että yksi syy on yksinkertaisesti se, että maailmalla tapahtuu paljon ja isoja asioita.
Tutkimus päivittyy Uutismedian liiton sivuille tämän päivän aikana.
Oxfordin yliopiston Reuters-instituutin Journalism and Technology Trends and Predictions 2026 -raportti julkaistiin tänään. Raportti sisältää laajalti sekä dataa (esim. Chartbeatin pitkät trendit uutismedian Google Discover ja Google Search -liikenteen laskusta) että perinteisesti osumatarkan kyselytutkimuksen kolmellesadalle mediajohtajalle yli 50 maasta, myös Suomesta.
1. Googlen hakukone- ja Discover-liikenne uutismediaan laskussa, Facebook nousussa
2. ChatGPT-liikenne kovassa kasvussa, mutta yhä marginaalista
3. Näin ajattelevat mediapomot: tällaista sisältöä lisää AI-aikana, tällaista vähemmän
4. Näihin alustoihin uutismediat aikovat satsata enemmän, näihin vähemmän
5. Vaikuttajien rooli pohdituttaa – näin uutismediat aikovat toimia
6. AI-tauhka vahvistaa journalismia – vaikka samalla heikentääkin
7. Nämä AI:n käyttökohteet ovat uutismedialle tärkeimpiä 2026
8. Uutismedian AI-hankkeet vähentäneet ihmistyövoimaa harvoin, osassa lisätty
9. Ansaintamallien tärkeys 2026
10. Kehityksen fokus uutismediassa: nykyiset tuotteet vs. uudet tuotteet
11. Kehityksen isoimmat esteet uutismediassa
12. Mediapomot: Usko journalismin tulevaisuuteen on kovalla koetuksella tekoälyn aikakaudella – luottoa paljon vähemmän kuin 2022
Power Automate on Microsoftin pilvipohjainen työkalu, jolla voi automatisoida toistuvia ja rutiininomaisia työtehtäviä ja integroida tehtävien osasia muihin ohjelmiin.
Mitä se tekoälyn demokratisoituminen käytännössä tarkoittaa? Omalla kohdallani esimerkiksi tätä. En osaa koodata enkä ole kovin harjaantunut erityisosaamista vaativissa komentorivihommissa, mutta Microsoftin Power Automatella sain puolessa tunnissa tehtyä työnkulun, joka muuttaa automaattisesti pdf-tiedostot tekstitiedostoiksi aina, kun uusi pdf lisätään tiettyyn kansiooni. Tekstitiedostot putkahtavat automaattisesti toiseen kansiooni.
ChatGPT on ollut Power Automaten omaa Copilotia selkeämpi työpari tässä itselleni – kysyn siltä neuvoja ja jos jokin ei toimi, kysyn, mistäköhän johtuu. Jos jään aivan jumiin, laitan kuvan ongelmallisesta kohdasta.
Halutessaan se antaa jopa koko työnkulun tiedostona, jonka voi tuoda Power Automateen ja pienellä täydentämisellä saada toimivaksi, mutta näissä on silloin tietysti hyvä oikeasti tiedostaa, mitä ne ovat syöneet.
Power Automate edustaa low code -teknologiaa eli voit luoda automaatioita vetämällä ja pudottamalla valmiita ”palikoita” tai ”solmuja” (kuten samantyyppisillä automaatioalustoilla n8n:ssä tai Gumloopissa) visuaaliselle alustalle, etkä tarvitse syvällistä koodausosaamista. Se sisältää usein valmiita tekoälyominaisuuksia, jotka pudotetaan työnkulkuun ja pienellä muokkauksella saadaan toimimaan halutulla tavalla.
Testaaminen on helppoa: vihreällä toimii, punaisella pitää vielä viilata.