Strategia ja liiketoiminta, tekoäly

Kolme Claude-agenttia firman johdossa, lokaalimallit hyötykäytössä, rakenna–osta–luovu-malli, 100+ lähteen signaalivahti ja Google Sheets -AI-taikaa – tässä TOP-nostot AI & journalismi -tapahtumasta Baltimoressa

Tapahtuman sessioiden nimiä (kuvitus: Gemini). Olen jäsentänyt ne tässä kirjoituksessa seitsemän teeman alle lukemisen helpottamiseksi.

Kolme ihmistä rakentaa journalistista organisaatiota, jolla on heidän lisäkseen kolme nimettyä Claude-agenttia “co-founderina” — kukin omalla roolillaan ja vastuualueellaan (Ryan, Justin, Liz).

Lehti, joka kehitti kolmessa kuukaudessa yli sataa lähdettä automaattisesti seuraavan työkalun toimittajille: RSS-syötteistä somen kautta erilaisiin hallinnon asiakirjoihin. Filosofia työkalun taustalla on “vibe engineering”.

Poliisiradion kaikki keskustelut kulkevat Raspberry Pi -tietokoneen kautta ja systeemi hälyttää Slackiin, jos jotain uutisarvoista tapahtuu.

Voittoa tavoittelemattoman organisaation tutkivat toimittajat löysivät parhaan tekoälytyökalunsa, ja se ei ole tekoälychat, vaan Google Sheets.

Milloin rakentaa tekoälytyökalu itse, milloin ostaa se ulkoa ja milloin olla tekemättä mitään? Tähän löytyy useampikin malli uutismediasta.

Muun muassa nämä esimerkit tulivat vastaan kahden päivän aikana Hacks and Hackers AI × Journalism Summit -tapahtumassa Baltimoressa 13.-14. toukokuuta 2026.

Tapahtuman anti oli sen verran konkreettinen, että päätin purkaa kaikki yli 40 sessiota lyhyesti tähän kirjoitukseen. Ne joissa olin itse mukana tekemässä muistiinpanoja, olen avannut laajemmin. Otsikkoteemoitus on minun, jotta kokonaisuutta olisi helpompi hahmottaa.

Tapahtumaan kokoontui kaikkiaan kolmesataa journalistia, kehittäjää ja median ammattilaista. 

TEEMA 1: Milloin ostaa, milloin tehdä itse ja milloin luopua koko ideasta?

SESSIO: Build, Buy, or Ignore: A Framework for Prioritizing AI in News Organizations

Shira Center (Boston Globe Media), Aimee Rinehart (Frontier Collective), Chase Davis (Local Angle), Paris Brown (Baltimore Times)

”Voisiko AI auttaa tässä?”. Jokainen on kuullut tämän kysymyksen organisaatiossaan. Session pointti oli, että kaikille ei voi vastata kyllä, eikä pidäkään. Sessio tarjosi mm. kolmivaiheisen mallin, jonka avulla uutisorganisaatio voi päättää, kannattaako jokin AI-hanke toteuttaa itse, ostaa valmiina tuotteena vai jättää kokonaan väliin. Mallin kolme vaihetta ovat Impact (edistääkö se tavoitteitasi), Risk (miten huonosti käy jos kaikki menisi pieleen) ja Commonality (ovatko muutkin tässä samassa tilanteessa). Hyvä esimerkki medioiden haasteista käytännössä: Boston Globe rakensi 2023 itse Slack-botin otsikkoehdotuksia varten, 2024 markkinoille tuli valmistuotteita jotka tekivät saman asian, ja 2025 Globen julkaisujärjestelmän sisälsi kaikki samat ominaisuudet valmiina.

Omat muistiinpanoni yo. sessioon:

Konkreettisin esimerkki tuli Baltimoresta: piskuinen kolmen hengen paikallislehti rakensi AI-työkalun, joka auttaa toimittajaa etsimään uutisaiheita ja tuottaa artikkeliluonnoksen suoraan julkaisujärjestelmään. Koko työkalu maksoi alle 2 000 dollaria ja ostettiin ulkoiselta kumppanilta, koska se oli käytännössä ainoa vaihtoehto. Kaikki meni hyvin. Panelisti Paris Brownin vinkki oli hyvä: “Testaa jokainen työkalu sillä metodilla, että mikä on pahinta mitä voi tapahtua, jos kaikki menee pieleen. Useimmiten ei kovinkaan pahaa.”

SESSIO: Building Better Products With AI

Aldana Vales (CUNY), Scott Klein, Julia Moak (Greenpointers), Kalle Pirhonen

Olin itse mukana tässä paneelissa osana AI Builders -kurssini lopputyötä sivuavaa keskustelua. Sessio käsitteli sitä, miten tekoälyä voidaan käyttää tuotteiden rakentamiseen tavalla, joka on aidosti hyödyllinen, luotettava ja yleisöjen tarpeisiin vastaava.

SESSIO: Smart, Confident, and Wrong: Designing Responsible A.I. Tools in the Newsroom

Dylan Freedman & James O’Toole (The New York Times)

New York Timesin tuotekehitystiimi purki ongelman, joka on tuttu kaikille tekoälyn kanssa työskenteleville: AI-järjestelmät kuulostavat vakuuttavilta myös silloin, kun ne ovat väärässä. Sessiossa kerrottiin, miten vastuullinen tuote- ja käyttöliittymäsuunnittelu voi auttaa. Käytännön esimerkit tulivat NYT:n omista sisäisistä työkaluista, kuten Cheatsheetistä, jolla käsitellään laajoja datamassoja strukturoidusti.

SESSIO: Are U.S. Journalists Getting Lapped in the AI Race?

Amy Mitchell (Center for News, Technology & Innovation), Akintunde Babatunde (Centre for Journalism Innovation and Development), Gordon Saft (Rest of World)

Sessiossa käsiteltiin tutkimusta, joka vertailee tekoälyn käyttöönottoa uutisorganisaatioissa eri maissa.

SESSIO: The Blueprint for Success: How to Get Buy-In and Build AI Systems That Actually Work

Ryan Struyk (CNN), Heather Ciras McCarthy (Boston Globe), Rubina Fillion (The New York Times), Ole Reissmann (SPIEGEL-Group)

Monet toimitukset kokeilevat tekoälyä, mutta harvat onnistuvat muuttamaan kokeilut järjestelmiksi, joita toimittajat käyttävät paljon ja säännöllisesti. Paneeli käsitteli sitä, miten toimittajat, insinöörit ja tuotejohtajat saadaan samalle aaltopituudelle. Yhteinen teema oli se, ettei pelkkä tekninen toteutus riitä: muutosjohtaminen, luottamuksen rakentaminen ja yhteiset käytännöt ovat yhtä tärkeitä kuin itse työkalut.

TEEMA2: Tekoäly silmäparina — signaaliseuranta ja uutisten löytäminen

Listening at Scale: Building AI Tools for Audio and Video Monitoring

Kaveh Waddell (Verso)

Toimittajat hukkuvat audioon ja videoon, jota he eivät pysty seuraamaan: kaupunginhallitusten kokoukset, poliisiradiot (Yhdysvalloissa), podcastit ja suoratoistosisällöt. Waddell esitteli, miten AI-järjestelmät pystyvät kuuntelemaan ja katsomaan puolestasi. Käytännön esimerkkejä oli kaksi: ensimmäisessä poliisiradiota seurataan Raspberry Pi:llä pyörivällä järjestelmällä, joka litteroi jokaisen puhelun automaattisesti ja lähettää hälytyksen Slack-kanavalle vain silloin, kun jotain uutisarvoista tapahtuu. Toinen esimerkki oli työkalu, joka litteroi kaikki Joe Roganin podcastit tekstuaalisesti etsittävään ja vertailtavaan muotoon.

Omat muistiinpanoni yo. sessioon:

Audio ja video ovat yhä alihyödynnetty kulma media-alalla suhteessa tekoälyyn, mistä puhuttiin myös tässä sessiossa.

Waddell korosti, että poliisiradiotyökalu ei ole täydellinen, mutta se on tarpeeksi hyvä säästämään valtavasti aikaa. Waddell nosti esiin neljä keskeistä kysymystä ennen kuin alkaa rakentamaan tällaista monitorointijärjestelmää: reactive vs. proactive (milloin hälytät), human in the loop (missä kohdassa ihminen on mukana), alert vs. synthesis (yksittäisiä hälytyksiä vai yhteenvetoja) ja transcription vs. native input (käytätkö litteroitua tekstiä vai audiota suoraan syötteenä).

Kiinnostavaa tässä sessiossa: pääsimme kokeilemaan Googlen Opalia, jolla voi agenttisesti luoda sovelluksia. Käyttöliittymä muistuttaa hieman n8n- tai Make-automaatioalustoja. Opalia ei toistaiseksi voi käyttää Suomessa:

Google Opal

Building an AI Tool That Finds News Amid the Noise

Peter Rasmussen & Biswajit Ganguly (The Baltimore Banner)

Baltimore Bannerin News Detector -työkalu syntyi käytännön tarpeesta: toimittajat kävivät päivittäin manuaalisesti läpi kymmeniä ulkoisia lähteitä, ja laajentuminen uusille alueille teki siitä pullonkaulan. Ensimmäinen versio oli karsittu: se skreippasi paikallisia sivustoja, pisteytti aiheet ja lähetti ne toimitukselle Excel-tiedostona sähköpostilla.

Omat muistiinpanoni yo. sessioon:

Amerikkalainen Baltimore Banner rakensi kolmessa kuukaudessa vaikuttavan näköisen uutissignaalien seurantatyökalun, jossa on yli sata lähdettä RSS-syötteistä someen ja skreipattuihin sivustoihin. Sen ytimessä on uutisarvopisteytys, joka pohjautuu ihmisten määrittelemiin uutisarvokategorioihin, joiden täsmäävyyttä päivitetään koko ajan tuoreiden esimerkkien pohjalta. Päivitys tarkoittaa käytännössä sitä, että toimittajat antavat säännöllisesti palautetta työkalun arviointikyvystä (peukku ylös tai alas), mikä parantaa sitä vähitellen.

Rautalankaistettuna työnkulku on tällainen:

1. Kerääminen

Kone käy jatkuvasti läpi yli sataa lähdettä — uutissivustoja, somea (somessa hyödynnetään Apifyta), hallinnon asiakirjoja. Se siivoaa datan yhtenäiseen muotoon.

2. Pisteytys

Jokainen artikkeli tai sisältö menee tekoälyn läpi, joka arvioi, onko siinä vaikuttavuutta, konfliktia tai paikallisuutta ja missä määrin. Tekoäly tekee tulkinnan, mutta varsinainen numero lasketaan sääntöpohjaisella koodilla.

3. Haku ja vastaus

Kun toimittaja kysyy jotakin (kuten ”Mitä tärkeää tapahtui tällä viikolla Baltimoressa?”), järjestelmä hakee relevantin materiaalin kolmella tavalla: hakusanoilla, vektorihaulla ja metadatasuodatuksilla. Sitten se kokoaa vastauksen ja näyttää sen chatissa sekä rikastettuna listauksena vieressä.

Omat ajatukseni:

Sivustojen skreippaamisen eettinen puoli ei näytä Yhdysvalloissa lainkaan vaivaavan mediatoimijoita, tuntuu siltä että kaikki tekevät sitä. Tämä yllätti. Somen osalta Baltimore Bannerin työkalu käyttää Apifytä, jonka kanssa ainakin Euroopassa liikuttaisiin vähintäänkin harmaalla alueella. Asian toinen puoli on se, että usea yhdysvaltalaisemedia näyttää ottaneen uutisseurannan automatisoinnissa isoja harppauksia viimeisen vuoden aikana. Sanoisin, että alkavat olla jo paikoin edellä eurooppalaisia.

Baltimore Bannerin työkalun pääkehittäjä avasi teknistä filosofiaansa toteamalla, että heidän työkalunsa on vibekoodauksen hengessä rakennettu, mutta insinöörityön kurilla strukturoitu järjestelmä. Hän käytti termiä “vibe engineering”. Käytännössä pääkehittäjä vibekoodasi itse esimerkiksi käyttöliittymän työkalulle, vaikka korosti, että ei ole mikään ohjelmointimaailman moniottelija.

Why You Should Use AI to Monitor Local Meetings

Stephen Stirling & Kevin Hoffman (Philadelphia Inquirer)

Yhdysvalloissa on 90 000 paikallishallinnon yksikköä, ja uutismedia seuraa niistä yhä pienempää osaa. Stirling ja Hoffman esittelivät, miten raaka-audio tai -video kaupunginhallituksen kokouksesta muuttuu toimittajan kannalta hyödylliseksi tiedoksi.

Building Sparks: What We Learned Turning 1.2 Million Story Pickups Into an AI-Powered Recommendation Engine

Ken Romano & Cole Carter (Stacker)

Sessiossa kerrottiin, miten Stackerin 1,2 miljoonan jutun arkistoaineistosta rakennettiin AI-pohjainen suosittelumoottori journalisteille.

Building Beat Books From News Archives

Derek Willis (University of Maryland)

Useimpien uutismedioiden arkistot sisältävät paljon sellaista tietoa, jota harva toimittaja koskaan lukee. Willis Marylandin yliopistosta esitteli metodin, jolla tätä tietoa hyödynnetään. ”Beat book” on toimittajakohtainen tietopohja omasta vastuualueesta, koottu AI-avusteisesti arkistosta. Käytäntö toimii myös uusien toimittajien perehdyttämisessä.

TEEMA3: AI yhteistyökumppanina — agentit ja muisti

How a Three-Person Startup Added AI as the Fourth Co-Founder

Justin Bank & Ryan Kellett (The Independent Journalism Atlas)

Independent Journalism Atlas on verifioitu tietokanta yli 1 200 vaikuttaja-journalistista (paremman suomenkielisen vastineen puutteessa käytän tätä), jotka tekevät journalismia perinteisten medioiden ulkopuolella. Startupilla on kolme perustajaa, ja lisäksi kolme muuta “founderia”, jotka ovat Claude-agentteja. Yhtiö julkaisee live-datatuotteita, interaktiivisia visualisointeja ja uutiskirjeitä, joista kaikki hoituvat ihmisen ja tekoälyn yhteistyönä.

Omat muistiinpanoni yo. sessioon:

Tämä sessio oli tapahtuman kiinnostavimmasta päästä. Heillä on kolme nimettyä agenttia: Ryan hoitaa datan puhdistuksen ja metodologian, Justin kehityksen ja visualisoinnit, Liz strategian ja kumppanuudet. Jokainen agentti on saanut roolin, kontekstin ja muistin.

Muistiongelman he ratkaisivat kahdella Markdown-tiedostolla: CURRENT_STATE.md (mitä on tehty, mikä on rikki, mitkä ovat seuraavat askeleet) ja MEMORY.md (miksi tämä on olemassa, mitä päätöksiä on tehty, miltä ”hyvä” näyttää).

Tämä käytäntö herätti kysymyksiä: yrityksen jokainen palaveri, myös 1:1-keskustelut, nauhoitetaan ja litteroidaan Granola-nimisellä ohjelmalla ja viedään tekoälylle .md-tiedostona. ”Me voimme tehdä näin — emme ole suuri media.”

He kertoivat myös suoraan, missä tällainen agenttinen co-founder-malli epäonnistuu: Claude hylkäsi aluksi ruokajournalistit soveltaen ”accountability”-kriteeriä liian kapeasti. Pitkissä sessioissa tulee joskus ongelmia. Kerran Claude ehdotti yrityskauppaa lukemalla “rivien välistä” palaverimuistiinpanoista. Tärkein opetus oli, että tekoälylle on annettava selkeä rooli, ei vain käyttötapauksia referenssiksi.

AI Coding Agents for Investigative Journalism

Nick Hagar (Northwestern University)

Sessiossa käytiin läpi sitä, miten Claude Code muuttuu nopeasta mutta riskialttiista assistentista järjestelmälliseksi yhteistyökumppaniksi. Keskeinen viesti oli, että: arvot kuten ”ole läpinäkyvä” eivät riitä sellaisenaan, vaan ne on kyettävä muuttamaan konkreettisiksi toimintasäännöiksi. Hagarin mielestä hyvä skill sisältää seuraavat asiat (en käännä näitä suomeksi, ettei ajatus katoa käännettäessä): Purpose, Allowed work, Review gates, Preservation rules, Documentation outputs, Claim discipline ja Stop conditions.

A Decentralized Agentic-AI Editorial Board for an International Newsroom

Areeba Fatima (Columbia University) & Angela Eichhorst (CT Mirror)

Session osallistujat prototyyppasivat pienryhmissä AI-toimitusrakenteen, jossa eri agentit vastaavat eri osa-alueista, kuten faktantarkistuksesta tai otsikoinnista. (vähän samaan tapaan kuin AI:n johtama uutistoimitus -hanke Suomen Tampereella, mutta)

What’s Your Problem?

Paige Moody (Hacks/Hackers & Big Local News), Jake Kara (Hacks/Hackers Newsroom AI Lab)

Session lähtökohtana oli, että monissa AI-kehitysprojekteissa ratkaistava ongelma on jäänyt epämääräiseksi. Osallistujat harjoittelivat oman ongelmansa terävöittämistä ennen kuin tekoäly otetaan mukaan.

TEEMA4: Konkreettiset työkalut toimittajan arjessa

Next-Gen NotebookLM: 9 Bold and Impactful New Things Newsrooms Can Do

Jeremy Caplan (CUNY Newmark Graduate School of Journalism)

Caplan esitteli yhdeksän käyttötapaa, jotka muuttavat NotebookLM:n tiivistämistyökalusta kriittiseksi yhteistyökumppaniksi: ne haastavat lähteitä, paljastavat aukkoja ja testaavat oletuksia sen sijaan, että vain tiivistäisivät sisältöä. NotebookLM:n perusarkkitehtuuri koostuu kolmesta osiosta: Sources (lähteet), Explorer (haku luonnollisella kielellä) ja Studio (tuotosten luominen).

Iso suositus muuten Caplanin Wondertools-uutiskirjeelle!

Omat muistiinpanoni yo. sessioon:

NotebookLM on edelleen alikäytetty työkalu journalismissa. Itselleni se on tuttu, mutta aina uusimmista ominaisuuksista ei ehdi pysyä kärryillä. Caplanin esityksen perusteella on kokeiltava ainakin Data Tablesia, joka muuttaa minkä tahansa lähdemateriaalin taulukkomuotoon. ”Very powerful”, totesi Caplan.

Uusi ominaisuus on myös automaattinen lähteiden järjestäminen, eli jos olet liittänyt työkaluun vaikka 50 lähdettä, tekoäly järjestää ne nyt loogisesti halutessasi. Studio-osion tärkein vinkki oli, että yhä useampaa toimintoa voi nyt räätälöidä itse. “Älä paina nappia suoraan, vaan kustomoi kolmen pisteen takaa, kerro mitä haluat. Lopputuloksessa on iso ero.”.

Spreadsheets, Not Chatbots: How ProPublica Investigates With AI

Aaron Brezel (ProPublica)

”Chatbots are claw machines to pull up stuffed animals. It is not ideal for investigative reporting.” Tämä oli Brezelin lähtökohta: chatbotit ovat arvauskoneita, eivätkä ideaaleja täsmällisyyttä vaativaan työhön.

ProPublicassa tutkiva journalismi tapahtuu jo nyt usein taulukoissa (Google Sheetseissä), jollaisen luotettava käsitteleminen chatbotin kautta on hankala ratkaisu. ProPublican vastaus on Spreadsheet Inference (SSI), jossa Google Sheets kytketään Geminin REST API:iin rivi kerrallaan. Tällöin AI tekee tulkinnan ja deterministiset säännöt laskevat lopputuloksen.

Omat muistiinpanoni yo. sessioon:

Tämä oli harvoja sessioita, joissa oli vaikea pysyä kärryillä, mitä tässä oikein tapahtuukaan. En ollut tietoinen, että Sheetsiin pystyy kytkemään Geminin rajapintaa rivi riviltä. Mutta demotus oli vaikuttava. SSI Toolkit löytyy GitHubista: github.com/propublica/gas-ssi-toolkit/

Brezel heitti heti alkuun erinomaisen pointin: se mikä toimii tekoälyn hyödyntämisessä yhdessä mediassa, ei välttämättä toimi ollenkaan toisessa. Tämä johtuu siitä, että medioilla on eri kohderyhmät, eri tavoitteet ja erilaiset toimintakulttuurit. ProPublica on tutkivaan journalismiin erikoistunut voittoa tuottamaton järjestö, jonka asema mediakentässä on monella tapaa erikoinen. Se ei esimerkiksi pidä juttujaan vain omilla sivuillaan, vaan tekee paljon yhteistyötä.

AI as Your Data Desk Partner

Lauren Malkani (Seven Mile Media) & Nick Harbaugh (X-energy)

Sessiossa näytettiin, miten datasetti muuttuu juttuprototyypiksi Claude Coden avulla luonnollisella kielellä kysymällä.

Make Your Own Personal Coach

Sonya Quick (CalMatters & The Markup)

Quick kertoi, miten rakensi oman AI-valmentajan, joka haastaa hänen omaa ajatteluaan.

Using MCP to Analyze Text and Visualize Data

Hong Qu (Harvard Kennedy School)

Sessio näytti vaihe vaiheelta, miten rakenteistamaton teksti muuttuu taulukoiksi ja lopulta selkeiksi visuaalisiksi tuotoksiksi MCP:n avulla. Metodilla on potentiaalia erityisesti suurten tekstimassojen kuten poliittisten puheiden tai oikeusasiakirjojen systemaattisessa analyysissa.

MCP on eräänlainen tekoälysovellusten USB-portti.

Large Language Mathematicians: Public Records in Record Time

Tyson Bird (American City Business Journals)

American City Business Journals halusi työkalun, joka vinkkaa juttuaiheita julkisista asiakirjoista, mutta törmäsi jatkuvasti laskuvirheisiin. Sessiossa kerrottiin, miten ongelma ratkaistiin yhdistämällä kielimallin tekstinymmärrys deterministiseen laskentaan. Siinä tekoäly tunnistaa relevantit luvut ja kontekstin, mutta varsinainen matematiikka jätetään koodille. 

TEEMA5: Rakentaminen ilman perinteistä ohjelmointitaustaa — vibekoodaus (tai kansalaiskoodaus)

Vibe Coding Jam Sessions

Kummankin päivän ohjelmassa oli avoin vibekoodaussessio ilman esitäytettyä esityslistaa: tuo läppäri, kerro mitä rakennat, jaa vinkit. Sessio oli avoinna kaikille, myös niille joilla ei ole perinteistä ohjelmointitaustaa.

From Concept to Code: Building Prototypes & Agents With Google AI

Etan Horowitz (Google)

Googlen sessio tutustutti osallistujat Googlen AI -ekosysteemiin, johon kuuluu mm. NotebookLM, Gemini, Stitch ja Flow. Tarkoituksena oli osoittaa, miten näitä työkaluja voidaan yhdistää uutistyöhön toisiinsa kytkettyinä komponentteina. Erityisesti Flow herätti kiinnostusta osallistujissa.

Rapid AI Prototyping Inside the Minnesota Star Tribune

Frank Bi (The Minnesota Star Tribune)

Kun Minnesota Star Tribune rakensi ensimmäisen yleisölle suunnatun AI-tuotteensa, prosessi vaati ”pirates in the navy” -asenteen. Bi kertoi, miten toimituksen sisällä piti luoda tilaa nopeille kokeiluille ilman, että jokainen askel vaati kymmentä hyväksyntää. Ydinajatus oli, että nopea prototyyppi, joka epäonnistuu, on arvokkaampi kuin pitkä suunnitteluprosessi, joka ei tuota mitään.

Pinpoint: Re-Thinking Our Product for the Age of Generative AI

Yuval Shukroon (Google)

Google Pinpoint on tutkivien toimittajien työkalu suurten dokumenttimäärien analysointiin. Sessiossa Googlen tiimi kertoi, miten he ovat miettineet Pinpointia uudelleen generatiivisen tekoälyn aikakaudella ja miten tuotetta on suunniteltu käyttäjille, joiden tekninen osaaminen vaihtelee suuresti.

TEEMA6: Vastuu, juridiikka ja riskit

Future-Proofing Facts

Hilke Schellmann (NYU & Princeton CITP), Loreben Tuquero (PolitiFact)

Schellmann ja Tuquero esittelivät menetelmiä, joilla toimittajat voivat rakentaa kestävämpää todentamisprosessia tekoälyn ja synteettisen sisällön aikakaudella.

What About the Lawsuits? Copyright Litigation, Bot Scrapers, and the Future of the Open Web

Monika Bauerlein (Center for Investigative Reporting), Kevin Bankston (CDT), Meredith Rose (Public Knowledge)

Muutamat kustantajat ovat nostaneet kanteita tekoäly-yhtiöitä vastaan. Sessio purki, mitä oikeudenkäynneissä on tähän mennessä tapahtunut, mitkä kysymykset ovat avoimia ja miten lopputulos voi vaikuttaa siihen, mitä toimituksissa on sallittua tehdä tekoälyn kanssa.

AI Crawlers and the New Publisher Reality: Lessons From the Newspack Network

Joe Boydston (Newspack), Tracy Becker (Automattic)

Newspack-verkoston keräämä data paljasti, miltä käytännössä näyttää AI-ajan tuoma liikenne uutismedioihin: mitkä bottityypit liikkuvat, milloin ja kuinka paljon. Tieto auttaa kustantajia päättämään, miten reagoida.

Move Fast Without Breaking Trust: Challenges in AI Governance for the Future of News

Justin Hendrix (Tech Policy Press), Liam Andrew (American Journalism Project), Erica Osher (NPR)

Paine kokeilla tekoälyä luo jännitettä uutisorganisaatioissa. Sessio purki tätä jännitettä käytännöllisesti: miten rakennetaan prosessit, joissa voidaan liikkua nopeasti menettämättä journalistista luottamusta.

AI Without Losing the Human Touch: Sustaining Mental Muscle in AI-Assisted Journalism

Vania André (The Haitian Times)

Sessio otti esille kysymyksen, jota muut lähestyivät varovaisemmin: mitä tapahtuu kognitiivisille taidoille, kun tekoäly ottaa yhä enemmän perustehtäviä hoitaakseen? André esitteli menetelmiä sille, miten toimitukset voivat säilyttää ihmisen kriittisen ajattelun myös silloin, kun apuvälineitä on käytettävissä enemmän kuin koskaan.

Do We Really Need an AI Use Policy?

Alex Mahadevan (Poynter), Emma Cosgrove (Business Insider)

Poynterin Alex Mahadevan ja Business Insiderin Emma Cosgrove esittelivät skenaarioita, joissa käytäntöjen puuttuminen on johtanut ongelmiin, ja skenaarioita, joissa liian jäykät säännöt ovat estäneet hyödyllisten kokeilujen tekemisen.

Evaluating A.I. in the Newsroom: From Patterns to Benchmarks

Nikita Roy (Newsroom Robots Lab), Duy Nguyen (The New York Times), Teresa Mondría Terol (NPR)

Newsroom Robots Lab, NYT ja NPR esittelivät mittareita, joilla voidaan vertailla eri mallien suorituskykyä toimituksellisissa tehtävissä.

How Law Firms Manage Document-Heavy Investigations, and How Journalists Can Use These Tools

Chris Miles & Aaron Patton (Everlaw)

Tutkivat toimittajat ja asianajajat tekevät samantyyppistä työtä: suuria dokumenttimääriä, tutkimista, seuraamista. Everlaw on lakifirmoille rakennettu dokumenttien tutkimisalusta, ja sessio esitteli miten sen metodeja voidaan tuoda journalistien käyttöön.

TEEMA 7: Yleisöt, sisältö, personointi ja liiketoiminta

The Survey That Asks ”One More Thing” (on Purpose)

Patrick Boehler & Madison Karas (Gazzetta)

Perinteiset kyselyt kysyvät ennalta määriteltyjä kysymyksiä. Adaptiiviset kyselyt tekevät jotain muuta: AI seuraa vastausta ja kysyy yhden lisäkysymyksen, joka on relevantti juuri sen ihmisen vastaukselle. Gazzetta on rakentanut tällaisen järjestelmän, ja sessio esitteli miten pienten vakiokysymysten ja AI-ohjatun jatkokyselyn yhdistelmä tuottaa rikkaamman kuvan yleisöstä kuin perinteinen lomake.

Using AI to Customize Content & Connect Readers

Ava Motes (Center for Media Engagement, University of Texas at Austin)

Miten AI voi auttaa toimituksia edistämään terveempää puoluerajat ylittävää vuoropuhelua, rauhoittamaan räyhääviä kommenttiosioita ja tavoittamaan paremmin monimuotoiset yleisöt? UT Austinin Media Engagement Center esitteli tutkimuspohjaisia käytännöllisiä menetelmiä. 

From AI Journaling to the Mind Economy: Rethinking How Journalism Understands Human Narratives

Dexiang ”Darren” Gao (HEAUT Foundation)

HEAUT on AI-päiväkirjaalusta, joka muuttaa henkilökohtaisen kirjoittamisen strukturoiduksi tiedoksi. Sessio esitteli ”Mind Economy” -konseptin: henkilökohtaisista narratiiveista tulee tietopääomaa, jota voidaan käyttää journalismin lähdeaineistona.

AI as a Power Assist for Political Accountability Reporting

Chandran Sankaran (Gigafact), Emily Le Coz (Suncoast Searchlight), Kevin Grant (Allbritton Journalism Institute)

Poliitikkojen lausunnot ovat hajallaan ympäri nettiä: Gigafact on rakentanut alustan, joka kokoaa nämä, analysoi ne ja auttaa toimittajia.

Build the News Industry’s AI Business Plan

Richard Lui (MS NOW / CAREGenome), Andy Pergam (Knight Center, ASU)

Sessio haastoi osallistujia rakentamaan käytännöllistä liiketoimintasuunnitelmaa sille, miten uusmedia voi hyödyntää asemaansa sen sijaan, että odottaa yhtiöiden tekevän sen heidän puolestaan.

What’s Possible With Local Models? Building Secure AI Pipelines for Investigative Journalism

Ben Werdmuller & Dana Chiueh (ProPublica)

Paikallisesti pyörivät AI-mallit ratkaisevat yksityisyysongelman, mutta luovat uusia: mitkä mallit toimivat, mihin ne soveltuvat, mitä taitoja tarvitaan? ProPublican tiimi esitteli, miten he ovat rakentaneet turvallisia AI-putkistoja tutkivaan journalismiin paikallisilla malleilla.

Getting the Very, Very Best Out of Archival Audio

Mark Chonofsky (Chicago Public Media)

Chonofsky kertoi, miten he ovat litteroineet WBEZ:n koko äänarkiston tekoälyavusteisesti ja mitä teknisiä haasteita se vaati: äänen valmistelu, puhujien tunnistaminen, erikoistermit, vaihtelevat tallennusolosuhteet.

From Fear to Fluency: Building an AI-Ready Newsroom Culture

Peder Hammerskov (Center for AI at DMJX)

Hammerskov esitteli työtä, jota tanskalaisten uutistoimitusten kanssa on tehty AI-kulttuurin rakentamisessa.

Tunnelma: synkistelystä ei tietoakaan

Loppuun omia mietteitäni. Poikkeuksellisen Hacks and Hackers -tapahtumasta teki tunnelma. Synkistelyä ei ollut lainkaan. Huolipuheen puuttumisen panivat merkille myös tapahtuman järjestäjät loppupuheenvuorossaan: alan murros voidaan nähdä myös mahdollisuutena. Jotain kuvastanee myös tämä AI-kurssikaverini, uutistoimisto AP:n Head of Productin Bryan Davisin ilme=)

Vakavammin ottaen, kaksi havaintoa jäi erityisesti mieleen. Torstaiaamun ryhmäharjoituksessa asetuimme kaikki noin kolmesataa ihmistä isoon rinkiin, ja moni kertoi pyydettäessä avoimista tehtävistä organisaatioissaan. Käden sai nostaa pystyyn, jos koki että pystyy auttamaan joko itse tai vinkkaamaan sopivan rekryn. Virkistävää.

Toinen mieleen jäänyt ajatus on se, että eurooppalaista ja etenkin pohjoismaista tekoälytekemistä arvostetaan täälläkin laajalti. Mutta se täytyy tämän tapahtuman perusteella sanoa, että amerikkalaiset kirivät kovaa, etenkin uutishankinnan automatisoinnin saralla.

Järjestäjät alleviivasivat halunneensa pitää tapahtuman startup-henkisenä, mikä toteutuikin. Asian kääntöpuoli on se, että ensi vuonna tapahtumaan tuskin on saatavilla kovin paljon enemmän lippuja: kun juttelin pääjärjestäjän kanssa, hän totesi, että ei halua kasvattaa tapahtumaa kovin paljon isommaksi, koska tietynlainen ”kotikutoisuus” kärsisi.

PS. Tapahtumalla oli käytössä MCP-yhteys tapahtumaohjelmaan ja jaettuihin muistiinpanoihin, mikä helpotti kovasti omienkin muistiinpanojen täydentämistä Claude Coden avustuksella. Tapahtuman hengessä tallensin kaikki omat muikkarini omaan Obsidian-holviini, joka on koneluettavaan md-tiedostomuotoon materiaaleja pakkaava ilmainen muistiinpano-ohjelma. Näin niiden hyödyntäminen aina jatkossa kaikissa Claude-keskusteluissani on helpompaa.

Normaali
työelämä

Mac-läppärini TOP3-lifehackit, joista en luovu tekoälyaikanakaan

Lyhyestä virsi kaunis. Nämä ovat kulkeneet mukanani vuosikaudet.

1. Notepad. Koska tietäjät tietää.

Kevyt, nopea, yksinkertainen. Kuin tekstinkäsittelyohjelmien teksti-tv. Ja mikä tärkeintä: ei muotoiluja. Tämän kautta kulkee valtava määrä tekstiä joka päivä.

2. Kuvakaappausten tallentuminen niille dedikoituun kansioon, jottei työpöytä räjähdä.

Yksinkertaisin tapa:

Paina Shift + Command + 5
Näytölle avautuu näyttökuvatyökalu
Klikkaa Valinnat
Valitse Tallenna kohteeseen → Muu sijainti
Valitse haluamasi kansio (esim. ”Näyttökuvat, tai miksi sen haluat nimetäkään”)

Ohessa oman koneeni näkymä. Finderin suosikeihin vetämällä kansio myös löytyy heti.

3. Chrome-selaimen kirjanmerkit ja kansiot.

Kuulostaa itsestäänselvyydeltä, mutta olen huomannut, että kaikki eivät kirjanmerkkejä käytä. Itse tykkään myös järjestellä asioita kansioihin kirjanmerkeissä. Usein vähän samalla logiikalla kuin Slackissa teemajaottelu työjuttujen mukaan.

Ohessa esimerkki omalta koneeltani.

Normaali
Strategia ja liiketoiminta, tekoäly

Jaettu muisti, avoimet mallit, automaatio – journalismin uutta infraa rakennetaan nyt, eikä se ole vain tekkiasia

Skill, skilli, taito. Se tarkoittaa tekoälykontekstissa pysyvää ohjeistusta, joka tehdään tekoälyn taustalle. Se on periaatteessa prompti, joka on sopimus siitä, miten tiettyjä asioita tehdään. Ihan käytännössä se on tiedosto, joka tehdään itse esimerkiksi Claude Codella ja tallennetaan omalle koneelle tiettyyn kansioon, tai tekoälypalvelun web-versiossa (esim. Clauden selain- tai sovelluskäyttöliittymä), jolloin se tallentuu palveluntarjoajan pilveen.

Skillipankit – toimituksen uusi yhteinen muisti?

Ohjelmistokehityksessä on jo pitkään rakennettu ns. skillipankkeja: jaettuja tiedostoja, jotka kertovat tekoälylle miten organisaatiossa toimitaan.

Näyttäisi siltä, että olemme nyt siirtymässä aikakaudelle, jossa tällaiset itserakennetut ”keskusaivot” eivät välttämättä jää vain kehitysosastolle. Jaetut brändiohjeet, jaetut designohjeet, jaetut termipankit, jaetut tyylioppaat…tarpeita on.

Tätä puoltaa useampi kehityssuunta, ja suomalaisissa mediataloissa näitä asioita jo kokeillaan. Yksi kehityssuunta on, että taitoja on voinut jonkin aikaa luoda tekoälypalveluiden web-versioissa, mikä demokratisoi niiden luomista. Toinen on, että yhteisesti jaettu ”muisti” aidosti mahdollistaa uusien asioiden tekemisen yhdenmukaisesti, parhaimmillaan ehkä jopa sen kuuluisan hiljaisen tiedon siirtymisen laajemmin organisaation käyttöön. Kolmas on, että onhan se nyt kätevää ja monessa mielessä perusteltua, että yhteiset pelisäännöt ylipäänsä ovat samassa paikassa eivät levällään ympäri Sharepointia.

Tässä Suomesta yksi esimerkki, henkilöstöyhtiö Baronan markkinointitiimin skillipankki (Lähde: Baronan CMO:n Joni Helmisen postaus Linkedinissä):

En ihmettelisi, jos yksi tulevaisuuden keskeisistä rooleista uutismediassakin olisi tehtävä, jossa hallinnoidaan ja pidetään ajan tasalla näitä pankkeja. Ne olisivat enemmänkin organisaation muisti kuin IT-projekti, joten omistus ei välttämättä olisi edes teknologiapuolella, vaikka toki varmasti jollain tapaa yhteistyössä sen kanssa.

Avoimet mallit, automaatio ja agentit

Avoimet kielimallit ovat tekoälymalleja, joiden koodi ja joskus myös opetusdata ovat julkisesti saatavilla. Toisin kuin suljetut mallit – kuten ChatGPT tai Claude – niitä voi ajaa eli käyttää omalla koneella tai omalla palvelimella. Journalismin kannalta olennaista on, että kun malli pyörii omassa infrastruktuurissa, esimerkiksi arkaluonteinen lähdeaineisto ei kulje kolmansien osapuolten kautta. Avoimet mallit kehittyvät nopeasti, ja vaikka niiden ympärille ei ehkä voi rakentaa aivan kaikkea, niin sopivia käyttötarkoituksia löytyy yhä useammin. Jos journalistiset esimerkit kiinnostavat, niin tämä sivusto kerää esimerkkejä.

Automaatio tarkoittaa toistuvan työn siirtämistä koneelle. Idea ei ole uusi, mutta generatiivinen tekoäly on käytännössä romahduttanut kynnyksen luoda työn kulkuja. Työkalut kuten OpenAI:n Codex mahdollistavat jo automaatioiden rakentamisen ja ajamisen pilvessä ilman merkittävää teknistä osaamista. Agentit vievät tämän vielä pidemmälle, eli ne eivät vain suorita yksittäistä tehtävää, vaan ketjuttavat niitä itsenäisesti.

Tällä hetkellä automaatioita rakennetaan pitkälti puoliteknisillä alustoilla kuten n8n, Make tai Zapier. Ne ovat jo melko matalan kynnyksen työkaluja, mutta vaativat silti jonkin verran teknistä ymmärrystä – sen verran, että ei rivitoimittaja niitä ala mediataloissa käyttämään. Työkalun käyttö vaatii logiikan hahmottamista, integraatioiden rakentamista ja virheiden korjausta. Kun tulevaisuudessa automaatioiden rakentaminen onnistuu käytännössä pelkällä promptauksella, kynnys tehdä niitä madaltuu entisestään. Siinä on toki riskinsäkin. Eikä vähiten se, että kaikkea ei kannata eikä pidä automatisoida, jotta oma ajattelu pysyy vireänä (vinkit sen pitämiseen tikissä AI-aikana täällä).

Kun tähän vielä yhdistää mahdollisuuden kytkeä automaatio mutkattomasti mediatalon omiin järjestelmiin, kuten julkaisujärjestelmään, analytiikkaan tai vaikkapa arkistoon, alkaa syntyä toden teolla uutta. Pohjoismaissa näkyvin esimerkki on Bonnier Newsiltä. Se kertoi hiljattain uudistaneensa tekoälyalustansa, joka mahdollistaa agenttipohjaisten järjestelmien ja työnkulkujen luomisen kaikille työntekijöille. Lähes 2 000 toimittajaa käyttää toimituksellista avustajaa, ja 500 on koulutettu rakentamaan räätälöityjä tekoälyagentteja esimerkiksi uutisseurantaan.

Kyllä, mutta…perusasiat ensin kuntoon?

Kuulostiko ylläoleva liian optimistiselta tai epärealistiselta? Voi olla sitäkin. Kollegani Elina Lappalainen pohdiskelee asiaa osuvasti Linkedinissä, jossa hän toteaa, että tehokkuusloikat syntyvät usein ihan perustyökalujen ja -työnkulkujen kuntoon laittamisesta ennen kuin hypätään agentteihin ja automaatioihin. Ja näinkin se on. Perusta ensin kuntoon.

Vielä ollaan aika kaukana siitä maailmasta, jossa iso joukko toimittajia laajassa mitassa vaikkapa vibekoodaisi itselleen ja kollegoilleen sopivanlaisia työkaluja niin sanotusti tuotantokäyttöön. Ennen kuin tämä on mahdollista, organisaation on mietittävä kuntoon prosessit ja ”hiekkalaatikot”, jollaisia pelkät kokeilut vaativat.

Meidän ihmisten on samalla hyvä pyrkiä kehittämään niitä ominaisuuksiamme, joihin tekoäly ei pysty. Journalismissa se tarkoittaa esimerkiksi asioiden syvällisten merkityksien ymmärtämistä, kontekstointia, lähdeverkoston rakentamista, haastattelutaitoja, luottamuksen rakentamista ja tietysti kriittistä ajattelua. Entistä tärkeämpää tulee epäilemättä myös kyvystä ymmärtää, mitä töitä ylipäänsä kannattaa antaa koneelle ja mitä ei.

Normaali
Strategia ja liiketoiminta, tekoäly

Asiantuntijoiden vinkit oman ajattelun terässä pitämiseen tekoälyaikana – näin käytät fiksusti, mutta vältät ”AI brain fry”:n tai multipaskingin

Tekoälystä on tullut työelämän nopein lupaus. Yksi lupaus on, että ulkoista tylsät rutiinit koneelle ja saat enemmän aikaa ajattelulle.

Näin monesti onkin. Väitän kuitenkin, että todellisuus ei ole ihan mustavalkoinen, vaan osin jopa ristiriitainen. Se aika ei vapaudu automaattisesti, vaan sen eteen täytyy myös tehdä itse töitä.

Haluan alleviivata, että omasta mielestäni järkevin tapa suhtautua tekoälyyn on optimistinen kriittisyys. Ei siis täysin pidäkkeetön hypetys, eikä liioin neliraajajarrutus-tyyppinen torjunta. Optimistisella kriittisyydellä tarkoitan halua ja kykyä etsiä uusia mahdollisuuksia, mutta ymmärtäen samalla riskit ja miten niitä voi ehkäistä.

Optimistisen kriittisyyden hengessä nostan tähän blogikirjoitukseen kolme osittain toisiinsa limittyvää kiinnostavaa teemaa, joita käsitteleviin artikkeleihin olen törmännyt lyhyen ajan sisään.

1. Miten hyödyntää tekoälyä (journalistisessa) työssä siten, että oma ajattelu ei taannu? Kärjistäen: miten välttää “aivokuolema”

Lähde: PressGazzetten artikkeli “AI tools for journalists, and how to avoid ‘brain death” (2.4.2026). Allaoleva lista on yhdistelmä artikkelin sisältöä ja omaa ajatteluani.

  • Vältä kirjoittamisen ulkoistamista tekoälylle. Kirjoittaminen on ajattelua. Jos ulkoistat sitä liiaksi tekoälylle, et ajattele samalla tavalla kuin kirjoittaessasi. Tietyntyyppisten asioiden luonnostelu tekoälyllä on eri asia. Se voi olla hyvinkin perusteltua ja tarpeellista, ja helpottaa työtä. Ihmisen vastuu on avainasemassa.
  • Varo lipsahtamasta moodiin, jossa tekoälyn kanssa keskustelemisesta tulee ajattelun korvike. Yksi merkki tästä voi olla, jos huomaat kyseleväsi tekoälyltä yksinkertaisia asioita, jotka ennen olisit ratkonut itse pohtimalla (ja kyllä, olen itsekin sortunut tähän toistuvasti, heh).
  • Tarkista ja tarvittaessa kyseenalaista tekoälyn vastaukset, vaikka se onkin työlästä. Tarkistaminen pitää ajattelusi terässä. Jos koet, että tekisit koko homman nopeammin ilman tekoälyä, sitten tee niin.
  • Vältä liiallista automatisointia, vaikka se kuinka houkuttelisi. Toistuvat rutiinit kyllä kannattaa automatisoida.
  • Säilytä vastuu päätöksistä itselläsi.
  • Harjoita aktiivisesti omaa ajatteluasi myös ilman tekoälyä. Kuulostaa itsestäänselvältä, mutta esimerkiksi kavereiden/kollegoiden kanssa kasvokkain sparrailu on mitä parasta ajattelun treenaamista.

2. Miten välttää “AI brain fry” eli kognitiivinen ylikuormitus? Toisin sanoen, että homma ei lähde lapasesta…

Lähde: Harvard Business Review’n artikkeli “When Using AI Leads to “Brain Fry”. (5.3.2026). Allaoleva lista on yhdistelmä artikkelin sisältöä ja omaa ajatteluani.

  • Kiinnitä tietoisesti huomiota siihen, minkä verran kuormitusta ihmiselle tai ihmisille syntyy. Älä ota käyttöön liikaa tekoälytyökaluja tai -prosesseja yhtä aikaa.
  • Vältä liiallista jatkuvaa valvontaa. Käytä tekoälyä niin, ettei synny liian paljon seurattavaa ja tarkistettavaa.
  • Hyödynnä tekoälyä etenkin rutiinitöissä. Pyri siirtämään toistuvat ja kuormittavat tehtävät tekoälylle.
  • Luo selkeät ja realistiset odotukset. Määrittele, mitä tekoälyn käytöllä tavoitellaan ja miten sen pitäisi vaikuttaa työn määrään. Ole suora ja rehellinen.
  • Keskity vaikutuksiin, älä määrään. Vältä mittaamasta onnistumista sillä, kuinka paljon tekoälyä käytetään, vaan mitä sillä saadaan aikaan.
  • Satsaa ongelmien jäsentämiseen, priorisointiin, kokonaisuuksien hallintaan.
  • Tarjoa tukea ja opastusta. Esimerkiksi esihenkilön tuki ja selkeät ohjeet vähentävät kuormitusta.
  • Sovi yhteiset pelisäännöt ja käytännöt.
  • Suojele keskittymistä. Vältä tilannetta, jossa työ pirstaloituu jatkuviin keskeytyksiin ja esimerkiksi työkalujen välillä hyppimiseen.

3. Mitä tehdä tilanteessa, jossa tekoäly ei vähennäkään työtä, vaan tekee siitä intensiivisempää?

Lähde: Harvard Business Review’n artikkeli “AI Doesn’t Reduce Work—It Intensifies It”. (9.2.2026). Allaoleva lista on yhdistelmä artikkelin sisältöä ja omaa ajatteluani.

  • Rajaa tekoälyllä tehtävän työn laajuutta tietoisesti. Älä ota uusia tehtäviä vain siksi, että tekoäly tekee ne mahdollisiksi.
  • Vältä tekoälyn käytön valumista ainakaan liiallisesti taukoihin ja pieniin vapaa-ajan hetkiin.
  • Vältä ”multipaskingia” (sic, heh). Keskity yhteen kokonaisuuteen kerrallaan, älä yritä tehdä montaa tekoälyasiaa yhtä aikaa.
  • Etene vaiheittain. Tee työ selkeissä jaksoissa tai osioissa sen sijaan, että reagoit jatkuvasti uusiin ärsykkeisiin.
  • Pidä säännöllisiä harkintataukoja. Pysähdy arvioimaan suuntaa.
  • Säilytä selkeät rajat työn ja vapaa-ajan välillä siinä määrin, kun se sinulle sopii (esim. itse en ole koskaan kaivannut selkeää rajaa näiden välille, mutta rajansa varmaan kaikella). Huolehdi palautumisesta.
  • Tee työtä myös yhdessä ihmisten kanssa. Keskustelu ja yhteistyö tasapainottavat yksin työskentelyä.
  • Tunnista kuormituksen kasvu ajoissa. Jos työ lisääntyy huomaamatta, pysähdy ja tarkista tapasi toimia.
Normaali
tekoäly

Näin teet itse uutisautomaation sähköpostiisi ilmaiseksi – (Google Sheets + Gemini + Apps Script)

Ei kannata säikähtää! Tämä on helpompaa kuin luulet.

Olet ehkä huomannut, että erilaisten uutiskoosteiden pyytäminen tekoälypalveluilta suoraan ei aina johda laadullisesti kummoisiin lopputuloksiin (vaikka esimerkiksi ChatGPT:n agenttitila & ajastus -kombo on tässä parhaimmillaan hyödyllinen). Lopputulos tuppaa horjumaan etenkin silloin, jos halutaan seurata juuri tiettyjä lähteitä juuri tietyin väliajoin juuri tietyllä tavalla.

Automaatioiden rakentamiseen on monenlaisia varta vasten suunniteltuja työkaluja, kuten Zapier, N8N tai Power Automate, mutta aina sellaisia ei tarvita, eikä välttämättä generatiivista tekoälyäkään.

Esittelen tässä kirjoituksessa yhden yksinkertaisen tavan luoda itselleen uutisseurannan automaatio Googlen työskentely-ympäristössä.

Se hyödyntää Google Sheets -taulukkolaskentaohjelmaa sekä Google Apps Scriptiä. Apps Script on pilvipohjainen JavaScript-alusta (JavaScript on ohjelmointikieli), jolla voi automatisoida tehtäviä, luoda omia työkaluja ja yhdistää Googlen eri palveluita toisiinsa. Se on ilmainen eli kuuluu tavalliseen Google-tiliin ja etuna on, että siinä kirjoitetaan ja ajetaan koodia suoraan selaimessa. JavaScript-koodia sinun ei tarvitse osata riviäkään, vaan voit pyytää sellaista tekoälyltä (kannattaa kuitenkin pyrkiä varmistamaan tekoälyn kanssa keskustellessa, että toimit fiksusti ja tietoturvallisesti. Varmista kaverilta, jos pohdituttaa).

Oma esimerkkityönkulkuni koostuu kiteytettynä seuraavista vaiheista:

  1. Lähteet: Valitaan seurattavat sivustot, jotka tarjoavat jatkuvaa uutisvirtaa koneellisesti luettavassa muodossa (omaan työnkulkuuni hain uutisia yhdeksän eri median RSS-syötteistä).
  2. Suodatus: Luodaan säännöt, joilla ei-haluttu sisältö karsitaan pois. (omaan työnkulkuni koodiin lisättiin hakuehto, joka poimii vain ne otsikot, joissa esiintyi sana tekoäly jossain muodossa).
  3. Tallennus: Tallennetaan haetut uutiset paikkaan, jossa ne säilyvät (omassa työnkulussani uutiset tallennetaan taulukkoon, ja lisäksi koodi varmistaa otsikon perusteella, ettei samaa juttua lisätä listalle kahdesti).
  4. Ajastus: Asetetaan järjestelmä toimimaan itsenäisesti tiettyinä aikoina (omassa työnkulussani uutisia haetaan taulukkoon kuuden tunnin välein).
  5. Lähetys: Toimitetaan valmis tieto halutussa muodossa haluttuun paikkaan (omassa työnkulussani saan sähköpostiini joka aamu klo 7–8 välillä viimeisen 48 aikana kertyneet uutiset. Vaihdan tämän todennäköisesti pian toimimaan joka toinen päivä, siksi 48 tunnin aikaväli tässä vaiheessa, vaikka maili tulee päivittäin).

Tämä työnkulku on vielä perinteistä automaatiota, joka toimii antamillasi ohjeilla. Tekoälyä (Geminiä) käytetään tässä välillisesti koodin kirjoittamiseen.

Tärkeä huomio Apps Scriptistä: Kun tallennat skriptiä tai annat sille käyttöoikeuksia, Google saattaa näyttää varoituksen ”varmistamattomasta sovelluksesta”. Tästä ei kannata hätääntyä. Kyseessä on Googlen normaali turvatoimi itse luoduille työkaluille. Kun teet työkalun itse, se on turvallista, mutta voit aina varmistaa asiantuntijalta, jos jokin mietityttää.

Jos haluaisit viedä homman pidemmälle: Voit lisätä skriptiin Geminin API-avaimen (henkilökohtainen tunniste, jota on säilytettävä tietoturvallisesti eli älä jaa sitä muille). Silloin kielimalli voisi esimerkiksi analysoida taulukon uutiset puolestasi ja tiivistää ne ennen sähköpostin lähetystä.

Normaali
Strategia ja liiketoiminta, tekoäly

“Hyvästi post–truth-aikakausi” – tässä mediatärpit South by Southwest 2026 -megatapahtumasta

SXSW eli South by Southwest -tapahtuma on jälleen meneillään Austinissa Yhdysvaltain Texasissa. Tämä omaleimainen tapahtuma on usein myös uusimpien mediainnovaatioiden ja kiinnostavien mediakeskustelujen näyttämö. Esimerkiksi tekoälyominaisuuksistaan tunnettu amerikkalainen uutissovellus Particle ensijulkaistiin kolme vuotta sitten juuri Austinissa. Tässä tuore juttu sovelluksen uudesta “podcastinpurkaja”-toiminnosta.

SXSW-tapahtuman pääteemat ovat teknologia ja musiikki sekä televisio ja elokuva.

SXSW 2026:n nettisivujen aikatauluhausta täältä pystyt helposti hakemaan tapahtumia esimerkiksi media-hakusanalla. Joitain sisältöjä voi katsella ilmaiseksi Youtubesta täältä.

Tässä joitakin mediaan liittyviä poimintoja:

Mediaan liittyvää keskustelua ja havainnointia on SXSW:ssä kuitenkin paljon myös muualla kuin suoraan media-alaan dedikoiduissa tapahtumissa. Hyvänä esimerkkinä on amerikkalaisfuturisti Amy Webbin perinteinen tulevaisuuskatsaus, jonka hän julkaisee aina Austinissa. Tällä kertaa Webb oli paketoinut katsauksensa täysin uusiksi, ehkäpä myös siksi, että viime vuosina se ehti paisua yli 1000-sivuiseksi “tekkiraamatuksi”, jota ei lue kertaistumalta erkkikään. Uudistuneen raportin nimi on reilu 300-sivuinen Convergence Outlook 2026, ja se sisältää huomioita myös mediasta.

Ensiksi Webb taustoittaa, että 1990-luvun lopun digitaalinen murros syrjäytti vanhoja liiketoimintamalleja myös mediassa: “legacy media” oli yksi toimialoista, joita internetin, hakukoneiden, verkkokaupan ja digitaalisten maksujen yhdistelmä ravisteli.

Toiseksi hän muistuttaa, että luottamus mediaan instituutiona heikkenee nyt samaan aikaan, kun luottamus hallintoon, tieteeseen ja yrityksiin.

Webb väittää, että olemme siirtymässä “post-truth”-tilasta (jossa kiistellään faktoista) kohti “post-reality”-tilaa (jossa kiistellään siitä, mikä on todellista). Jälkimmäisessä synteettinen media, personoitu AI-kuratoitu sisältö ja eriytynyt luottamus hajottavat yhteisen todellisuuspohjan. Tällä on suora merkitys uutismedialle, jonka rooli yhteisen todellisuuden rakentajana vaikeutuu.

Webb toteaa, että “post-reality”-ajan seuraukset voivat olla erittäin vakavia. Hän muistuttaa, että jo vuonna 2024 Yhdysvalloissa nähtiin vakava vaaratilanne, kun hurrikaani Helenen aikana levisi väärennettyjä tutkakuvia, joiden väitettiin todistavan hallituksen manipuloivan säätä. Kuvissa näkyi keinotekoisia myrskymuotoja esimerkiksi Detroitin, Chicagon ja St. Louisin yllä. Tämä johti Pohjois-Carolinassa siihen, että osa ihmisistä torjui Yhdysvaltain hätätilaviraston FEMA:n avun pitkittäen tilannetta.

Lisäksi raportti liittää median muutoksen “post-search”-internetiin. Kun AI-assistentit ja agentit alkavat toimia käyttöliittymänä verkkoon, käyttäjä ei enää mene uutis- tai sisältösivulle itse, vaan agentti tiivistää, valikoi ja ohjaa. Raportti jopa ennakoi, että verkko voi muuttua malliin, jossa sisällöstä aletaan periä maksuja agenteilta”. Tähän kohtaan täytyy itse muistuttaa, että Suomessa tämänkaltainen kehitys ei ole vielä läheskään yhtä pitkällä kuin joillain muilla markkinoilla.

“Convergence” on Webbin raportin ydintermi. Se ei viittaa ensisijaisesti “mediakonvergenssiin” eli siihen, että eri mediaformaatit ja -kanavat sulautuisivat yhteen. Modernimpi termi olisi varmaankin nestemäinen sisältö, liquid content. Webb tarkoittaa paljon laajemmin useiden trendien, voimien ja epävarmuuksien risteymää eli sitä, kun teknologia, talous, geopoliittiset jännitteet, ilmasto, sääntely ja ihmisten käyttäytyminen alkavat vaikuttaa samanaikaisesti toisiinsa. Webbin mukaan yhteisvaikutus on suurempi ja erilainen kuin yksittäisten muutosten summa. Raportin oma määritelmä toteaa, että convergence on tilanne, jossa useat trendit ja voimat “intersect and interact” ja synnyttävät uudenlaisen vaikutuksen.

Normaali
Strategia ja liiketoiminta, tekoäly

Vibekoodaus journalismissa on nyt kuuminta hottia – tätä se tarkoittaa & uhat ja mahdollisuudet

Tämä journalistista vibekoodauskerhoa mainostava kuva on otettu helmikuussa City University of New Yorkin Craig Newmark Graduate School of Journalismin tiloissa.

Vibekoodaus tai fiiliskoodaus tarkoittaa ohjelmointia ilman syvää teknistä ymmärrystä – mennään ”fiiliksen mukaan” siten, että esimerkiksi sovellusta rakennetaan kuvailemalla haluttuja toimintoja luonnollisella kielellä. Kyse ei kuitenkaan ole vain teknisestä ilmiöstä, vaan voidaan ajatella, että esimerkiksi uutismedioissa se avaa mahdollisuuksia laajempaan työtapojen ja työkulttuurin muutokseen. Koetan tässä kirjoituksessa avata, miten.

Tapoja fiiliskoodaukseen on monia, niin kuin on palveluitakin. Tunnetuimmasta päästä suuren yleisön silmissä lienee ruotsalainen kasvuraketti Lovable. Sillä voit halutessasi pyöräyttää vaikkapa arkipyhävapaalaskurin ja jakaa sen kaverille:

Luonnollisella kielellä tähän tapaan toimivia työkaluja ovat myös esimerkiksi ChatGPT Codex, Cursor, Claude Code tai Replit. Itse käytän eniten Codexia sekä Googlen Antigravityä, jolle annetaan hallitusti pääsy koneesi tiedostoihin, jolloin ohjelmia voi rakentaa helposti myös lokaalisti eli omalle koneelle sen sijaan että ne sijaitsevat pilvessä kuten Lovablen tapauksessa. Lokaaliuden etuna on esimerkiksi se, että omalle koneelle ladatun avoimen lähdekoodin kielimallin käyttö ei maksa mitään. Tällä logiikalla voi rakentaa vaikkapa Youtube-videoiden litteroijan, joka toimii näin:

  • Syötä linkki esim. Youtube-videoon tai podcastiin.
  • Sisältö latautuu omalle koneelle automaattisesti yleensä audiona.
  • Ääni muuttuu transkriptioksi ja latautuu txt-tiedostona omaan kansioonsa.
  • Kielimalli antaa käyttäjän kysymyksiin vastauksia transkription pohjalta.

Runko on tehty Python-ohjelmointikielellä, lataus hoituu yt-dlp:llä (avoimen lähdekoodin komentorivityökalu), litterointi OpenAI:n puheentunnistusmalli Whisperillä ja kielimallin käyttö avoimen lähdekoodin ohjelmiston Ollaman kautta. Käyttöliittymä on selaimessa.

Tämä sanottua, on hyvä tiedostaa, että tällaisissa on aina vaarana ns. demoefekti: wau, vaikuttaapa näppärältä, tuotannollistetaan tämä. Siinä on sitten kuitenkin aina edessä mm. panos–tuotos-arvio. Joka sisältää esimerkiksi sen, paljonko työkalun käyttö ja ylläpito maksaisi ihan oikeasti. Tässä piileekin ”vibekoodaussuuntauksen” suurin pullonkaula organisaatioissa: syntyy valtava määrä ideoita ja prototyyppejä – joista osa varmasti erittäin hyviä – joiden putki tuotantoon on kuitenkin joko erittäin hidas tai kokonaan tukossa. Yksi oppi tässä on minusta se, että varo hurmaantumasta liian hienoista demoesityksistä. Demo on ihan eri asia kuin tuotantoon viety versio.

Omalta osaltani haluan korostaa, että en osaa koodata, enkä ole koskaan pitänyt itseäni erityisen teknisenä ihmisenä. Jos minäkin pystyn tähän, pystyt sinäkin! Siinä sivussa opit koodista itse asiassa aika paljon, vaikka et koodaamaan varsinaisesti opikaan.

Jos aloitat aivan nollasta, suosittelen menemään osoitteeseen lovable.dev, kirjautumaan sinne Googlen tunnuksilla (pari klikkausta), jolloin käytössäsi on pieni määrä krediittejä, joilla voit kokeilla tehdä asioita ilmaiseksi.

Mahdollisuudet: nopeus, ketteryys ja uudenlaiset tavat tehdä töitä

Vibekoodaus madaltaa siis kynnystä rakentaa omia työkaluja. Kun idean ja prototyypin väliin ei tarvita raskasta kehitysprosessia, toimittaja voi esimerkiksi:

  • Tehdä datan puhdistus- ja analyysityökaluja omaan käyttöönsä
  • Automatisoida rutiineja (litterointi, tiedonhaku, aineiston luokittelu)

Kun kaikki ei ole enää riippuvaista keskitetystä kehitystiimistä tai keskitetystä budjetista, se voi tehdä toimituksesta ketterämmän.

Uhat: demoefekti, tekninen velka ja hallitsematon työkaluräjähdys

Demoefekti on mielestäni suurimpia uhkia, kuten aiemmin jo lyhyesti kuvasin. Prototyyppi näyttää toimivalta, mutta:

  • Kuka ylläpitää sitä?
  • Kuka vastaa tietoturvasta?
  • Mitä tapahtuu, kun API-hinnat (API = rajapinta) muuttuvat?
  • Entä jos palvelu katoaa?

Toimituksissa voi syntyä kymmeniä pieniä työkaluja, joilla ei ole omistajaa eli tahoa, joka oikeasti katsoisi työkalun perään. Tämä on omiaan synnyttämään teknistä velkaa.

Koska vibekoodaus tuntuu “ilmaiselta”, kustannuksia ei aina nähdä: kun volyymi kasvaa, kasvavat myös kulut. Jos toimitus rakentaa työkaluja vibekoodaamalla, pullonkauloiksi voivat myös muodostua ainakin seuraavat asiat:

  • Ymmärtääkö tekijä, miten malli tekee päätelmiä?
  • Miten varmistetaan datan käsittelyn eettisyys?
  • Dokumentoidaanko työkalun toimintalogiikka?

Erityisen herkkä kysymys on lähdesuoja. Jos toimittaja syöttää arkaluonteista materiaalia pilvipalveluun, se on erityisen iso riski.

  • Minne data tallentuu?
  • Käytetäänkö sitä mallien koulutukseen?
  • Täyttääkö ratkaisu organisaation tietoturvavaatimukset?

Lokaalit eli omalla koneella toimivat ratkaisut voivat olla turvallisempia, mutta nekin vaativat ymmärrystä riskeistä.

Parhaimmillaan vibekoodaus voi siis demokratisoida kehittämistä, nopeuttaa innovointia ja tehdä ainakin osasta toimittajia nykyistä enemmän palveluiden rakentajia. Toisaalta vibekoodaus voi johtaa hallitsemattomaan työkalujen sillisalaattiin, josta ei ole kokonaiskäsitystä kenelläkään. Tämän myötä vastuut hämärtyvät ja voi myös syntyä kitkaa sisältöpuolen ja kehityspuolen välille. Yksi ydinkysymys on, mikä on se prosessi, jolla parhaat ideat suppiloidaan tuotantoon. Jos tämä ei toimi, syntyy helposti tyytymättömyyttä.

Haluaisin itse ajatella jotenkin niin, että ajatuksena ei todellakaan ole, että kaikista tulee koodareita, vaan siitä, että jonkintasoisesta ohjelmoinnista tulee yksi uusi taito kirjoittamisen rinnalle. Yksi konkreettinen käyttötapa on ihan vain sekin, että teet ajattelemastasi konseptista prototyypin, jonka näytät sitten haluamillesi sidosryhmille. Näin nämä saavat hyvän käsityksen siitä, mitä ajat takaa.

Lähteitä, joita olen hyödyntänyt tässä kirjoituksessa:

Vibe coding for newsroom projects (Innovation.dw 15.12.2025)

Vibe coding is turning reporters into builders, and that’s a good thing for media (Fast Company 12.1.2026)

Rise of the vibecoding journalists (Nieman Lab joulukuu 2025)

Normaali
Strategia ja liiketoiminta, tekoäly, Yleisön ymmärtäminen & analytiikka

Media-alan alkuvuosi 2026: 14 kovaa lukuvinkkiä ja 5 polttavaa kysymystä tammi-helmikuulta

Mistä kyse?

Aloitin viime vuonna blogisarjan, jossa summaan tasaisin väliajoin isoja kehityskulkuja niitä taustoittavine lähteineen blogikirjoituksiksi. Viime kesän 12 nostoa löytyvät täältä ja loppuvuoden 14 havaintoa täältä. Tähän kirjoitukseen olen koonnut toimintaympäristöhavaintoja tammi-helmikuulta 2026. Painotus on uutismediassa ja tekoälyssä.

Iso kuva – viisi kysymystä

Alkuvuonna julkaistut tutkimukset, analyysit, uutiset ja muut signaalit media-alalta kertovat, että isot kysymykset pyörivät ainakin näiden viiden teeman ympärillä (selvyyden vuoksi: tulkinta on omani, ei tekoälyn):

  1. Millaiseksi ihmisen ja koneen työnjaon pitäisi oikeastaan muodostua? Onko tekoäly “vain työkalu muiden joukossa” vai onko tämä aikansa elänyt väite, eli onko tästä työnjaosta tulossa jotain muuta?
  2. Miten ihmisten journalistista perusosaamista – hoksaamisesta haastattelutaitoihin – vahvistetaan tekoälyn aikakaudella käytännössä? Mitä muuta se tarkoittaa kuin lisäkoulutusta?
  3. Miten erottuvuutta mietitään medioissa ihan konkreettisesti? Tässä on syytä erottaa toisistaan ainakin sisältöjen kerronta itsessään sekä niin sanottu koneluettava tai rakenteistettu data.
  4. Miten pidetään huolta siitä, että ihmisillä olisi paitsi aikaa myös kykyä kriittiseen ajatteluun tilanteessa, jossa ympärillä on käynnissä valtava muutos?
  5. Tuleeko kokemus tekoälystä jakautumaan jatkossakin epätasaisesti, sekä yleisesti että myös työpaikoilla? Joidenkin mielestä tekoälykehitys on jo nyt AGI-vaiheessa, jossa tekoäly kykenee ymmärtämään, oppimaan ja suorittamaan mitä tahansa älyllistä tehtävää ihmisen tasoisesti tai paremmin. Toiset taas ihmettelevät, kun tekoälyt horisevat yhä vain joutavanpäiväisiä. On epäolennainen kysymys, voivatko molemmat olla totta samaan aikaan. Tärkeää on, pysyykö ihmisten kokemusten epäsuhta aina tällaisena ja mitä asialle on tehtävissä.

Jos nämä kaikki vedetään yhteen, huomataan ainakin se, että ihmisen rooli on jokaisessa kohdassa vielä auki. Tekoäly pakottaa määrittelemään uudelleen, mitä ihminen tekee, missä kohtaa arvoketjua ja miksi.

Edellä mainittuihin viiteen teemaan liittyviä lukuvinkkejä tammi-helmikuulta 2026:

Muistathan myös päivittyvän Live Trackerini, jonne kerään tekoälyn käyttötapauksia uutismediassa sekä englanniksi että suomeksi. 

Normaali
Strategia ja liiketoiminta, Yleisön ymmärtäminen & analytiikka

13–18-vuotiaiden suomalaisnuorten uutisten LUKEMISESTA kysyttiin nyt ensimmäistä kertaa, ja tulokset yllättävät

Uutismedian liiton vuotuinen kyselytutkimus 13–18-vuotiaille suomalaisille (n=796) kertoo, että videot ja lyhyet uutisten esittämismuodot (’lyhyt/vähän tekstiä’) ovat edellisvuosien tapaan mieluisimmat uutisten seuraamisen tavat. Tutkimuksesta selviää myös, että aiempaa useampi nuori seuraa aktiivisesti uutisia – mutta samalla uutisten välttely on lisääntynyt.

Tutkimuksen kiinnostavinta antia on kuitenkin uusi osuus, jossa selvitettiin kuinka paljon nuoret lukevat uutisia. Noin puolet nuorista (48%) kertoo seuraavansa seuraamistaan uutisista vähintään puolet lukemalla (se mistä ja miten lukee, jää vastaajan tulkinnan varaan – oheisissa kuvissa on kuitenkin täsmällisiä muotoiluja, joilla asiaa on kysytty). Tätä voi mielestäni pitää suhteellisen suurena lukuna, kun ottaa huomioon, että kyse on 13–18-vuotiaista, jotka ovat jo aika pitkälti sosiaalisen videon algoritmien armoilla.

Eniten lukemalla uutisia seuraavia on 17–18-vuotiaissa tytöissä. Uutisten lukeminen kasvaa varhaisteinistä sitä mukaa kuin ikää tulee lisää kohti täysi-ikäisyyttä – mutta käytännössä vain tytöissä, ei juuri pojissa.

Muita keskeisiä havaintoja: tärkein uutislähde, tekoäly, uutisvälttely, kiinnostavimmat aiheet…

Tekoälyjen tekemät tiivistelmät eivät tässä tutkimuksessa nouse lähellekään mieluisimpia tapoja kuluttaa uutisia. Sekä niiden mieluisuus että käyttö on tutkimuksen mukaan marginaalista.

Ikäryhmän tärkein uutislähde on tänäkin vuonna Tiktok, mutta sen kasvu on pysähtynyt. Iltapäivälehdet ovat (kysytty tutkimuksessa könttänä) nyt kolmanneksi tärkein uutislähde. Instagram nousi niiden ohi hiuksenhienosti. Tutkimusraportissa arvellaan, että Tiktokin lisäksi iltapäivälehtien hienoiseen laskutrendiin vaikuttaa niiden muuttuminen osittain maksulliseksi.

Tutkimuksesta selviää myös, että ”joitakin uutisaiheita” välttelemien määrä ikäryhmässä on kasvanut vuodesta 2023 eteenpäin. Välteltävät uutiset liittyvät useimmiten sotaan, väkivaltaan ja negatiivisuuteen.

Tutkimuksessa kysyttiin myös uutisaiheista, jotka kiinnostavat eniten (oma kommenttini: tällaisen selvittäminen yksinomaan kysymällä on mielestäni hyvin haastavaa). Esimerkiksi mielenterveyteen, terveyteen, hyvinvointiin ja ihmissuhteisiin liittyvät aiheet kiinnostavat enemmän tyttöjä kuin poikia, kun taas vaikkapa tekoälyyn liittyvät aiheet kiinnostavat enemmän poikia kuin tyttöjä. Poikia kiinnostaa tyttöjä enemmän myös mm. isot ajankohtaiset uutisaiheet Suomessa sekä urheiluun ja liikuntaan liittyvät aiheet.

Tutkimuksen mukaan 13–18-vuotiaista nuorista uutisia ylipäänsä seuraa päivittäin 42 prosenttia. Osuus on kasvanut muutamaan edellisvuoteen verrattuna. Tutkimusraportissa arvellaan, että yksi syy on yksinkertaisesti se, että maailmalla tapahtuu paljon ja isoja asioita.

Tutkimus päivittyy Uutismedian liiton sivuille tämän päivän aikana.

Normaali
mediatoimiala, Strategia ja liiketoiminta

12 kuvanostoa vuoden kiinnostavimmasta mediatrendiraportista (Journalism and Technology Trends and Predictions 2026)

Oxfordin yliopiston Reuters-instituutin Journalism and Technology Trends and Predictions 2026 -raportti julkaistiin tänään. Raportti sisältää laajalti sekä dataa (esim. Chartbeatin pitkät trendit uutismedian Google Discover ja Google Search -liikenteen laskusta) että perinteisesti osumatarkan kyselytutkimuksen kolmellesadalle mediajohtajalle yli 50 maasta, myös Suomesta.

1. Googlen hakukone- ja Discover-liikenne uutismediaan laskussa, Facebook nousussa

2. ChatGPT-liikenne kovassa kasvussa, mutta yhä marginaalista

3. Näin ajattelevat mediapomot: tällaista sisältöä lisää AI-aikana, tällaista vähemmän

4. Näihin alustoihin uutismediat aikovat satsata enemmän, näihin vähemmän

5. Vaikuttajien rooli pohdituttaa – näin uutismediat aikovat toimia

6. AI-tauhka vahvistaa journalismia – vaikka samalla heikentääkin

7. Nämä AI:n käyttökohteet ovat uutismedialle tärkeimpiä 2026

8. Uutismedian AI-hankkeet vähentäneet ihmistyövoimaa harvoin, osassa lisätty

9. Ansaintamallien tärkeys 2026

10. Kehityksen fokus uutismediassa: nykyiset tuotteet vs. uudet tuotteet

11. Kehityksen isoimmat esteet uutismediassa

12. Mediapomot: Usko journalismin tulevaisuuteen on kovalla koetuksella tekoälyn aikakaudella – luottoa paljon vähemmän kuin 2022


Normaali