A screenshot of the list and some of the sources. A scrollable list can be found at the end of this blog.
I was asked to do this list in English as well and not just in Finnish, so here you go: in this blog you can now find an updating list of GenAI tools and products in media, both in English and in Finnish. My name is Kalle Pirhonen, and I work as an AI producer in Ilta-Sanomat, a Finnish tabloid owned by Sanoma Media Finland. I guess you could call me a media analyst as well because this blog is just a hobby of mine and media analysis was a part of my previous job at the Finnish Broadcasting Company.
I am updating this list using several publicly available sources such as press releases from media companies, media industry events, publications, and newsletters, LinkedIn (e.g. Ezra Eeman’s Wayfinder and Martin Schori’s Aftonbladet’s AI Hub Buzz), Nordic AI Journalism network, Wan-Ifra, INMA, Reuters Institute, Thomson Reuters Foundation, JournalismAI website (Case studies), Newsroom Robots podcast etc. In the list I’ve also included media industry value chain placement for the examples and also, whether the example is mostly about text, audio or video.Please note that the dates are clickable links to the source.
I will update the list continuously in this blog.My motive for making this list is to simply put all the interesting examples in one place because they are scattered over the internet. My apologies if you detect some mistakes – if you notice any or want to tip me about some new great examples or sources for updating this list, please contact me via Linkedin here!
The List in English – scrollable horizontally and vertically & with clickable links (works best on computer, not by phone):
The List in Finnish – Finnish examples are highlighted green:
***
The name of this blog, ”Numeroiden takaa”, means ”Behind numbers” and it deals with the media industry’s operating environment. I’ve written the blog mainly in Finnish since 2017.
Amerikkalaisfuturisti Amy Webbin Future Today -instituutti on julkaissut massiivisen, tänä vuonna tasan 1000-sivuisen 2025 Tech Trends -raportin, jossa käydään läpi teknologian tulevaisuuden suuntaviivoja.
Tiivistän tähän blogiin kaksi osiota, joista toinen liittyy tekoälyn kehitykseen ja toinen uutismediaan.
Tekoälyn kehityksessä raportti nostaa esiin muun muassa nämä kehityskulut:
Tekoäly alkaa toimia kuin käyttöjärjestelmä – suuret kielimallit (LLM) muuttuvat alustoiksi, jotka pyörittävät monia sovelluksia taustalla. Käyttäjän ei tarvitse enää erikseen avata AI-työkalua, vaan se tulee osaksi kaikkea tekemistä (osaksihan näin on jo tapahtunut).
Autonomiset tekoälymallit ottavat enemmän päätäntävaltaa – LAM-mallit (”Large Action Models”) eivät ainoastaan suosittele päätöksiä, vaan alkavat tehdä niitä itsenäisesti. Tämä olisi askel eteenpäin tekoälyagenteista, joiden luominen vaatii ihmiseltä vielä toistaiseksi jonkin verran aktiivisuutta.
Kun Yhdysvallat ja Kiina käyvät “tekoälyn kylmää sotaa”, se vaikuttaa suoraan esimerkiksi teknologiasääntelyyn ja yritysten innovaatioihin.
Uutismedian tulevaisuutta raportti pitää epävarmana. Se ennakoi muun muassa näitä kehityskulkuja:
Journalismi siirtyy yhä enemmän maksumuurien taakse tai lahjoituspohjaiseksi.
Mediatalot joutuvat kehittämään uusia ansaintamalleja, kun somen tuoma liikenne verkkosivuille vähenee (ja on jo vähentynyt). Lisäksi, kun ihmiset lukevat yhä useammin tekoälyn koostamia uutistiivistelmiä tekoälypalveluista tai Googlesta, se vähentää alkuperäisten juttujen klikkauksia.
Faktantarkistus vaatii entistä älykkäämpiä keinoja, koska tekoäly.
Yhä useammat uutismediat tarjoavat tekoälypohjaisen haun ja äänikäyttöliittymien avulla personoituja, keskustelunomaisia kokemuksia, mikä lisää käyttäjien sitoutumista.
Tekoälyn luomat avatarit avaavat uutismedioille uusia jakelukanavia, mikä auttaa kustantajia tavoittamaan uusia yleisöjä ja suojelemaan toimittajia vaarallisilla alueilla.
Esimerkiksi Venezuelassa toimittajat ovat käyttäneet tekoälyavatareja salatakseen henkilöllisyytensä ja raportoidakseen tapahtumista uhkauksista huolimatta.
Perussa puolestaan tekoälyavatareja on käytetty tavoittamaan aliedustettuja ryhmiä: San Marcosin yliopisto kehitti tekoälyuutisankkurin, joka kertoo Tiktokissa uutisia vähemmistökieli ketšuaksi, joka oli aikoinaan inkavaltakunnan pääkieli.
Global Media Awardsissa eniten palkintoehdokkaita 199 ehdokkaan joukossa on Intiasta (22) ja Norjasta (21). Suomesta ehdokkaita on kaksi. Toinen on Keskisuomalainen kategoriassa “Best New Digital Product”. Keskisuomalaisen 22 paikallista uutissovellusta jakavat saman teknologian, joten niiden teknistä ylläpitoa hoitamaan tarvitaan konsernin mukaan vain kaksi henkilöä – ensimmäiset 19 sovellusta julkaistiin sekä Androidille että iOsiin vain kolmessa kuukaudessa. Sovelluksia ladattiin 367 000 kertaa vuonna 2024.
Vaikka Alma Median hanke hyödyntää generatiivista tekoälyä, se ei ollut ehdolla varsinaisten tekoälyhankkeiden kategorioissa, joita olivat ”Best Use of AI for Internal Productivity” ja ”Best Use of AI in Customer-Facing Products”. Tässä noiden kategorioiden ehdokkaat.
TOIMITUSTEN SISÄISET TEKOÄLYTYÖKALUT
”Best Use of AI for Internal Productivity” (suorat linkit ehdokkaiden pidempiin englanninkielisiin kuvauksiin löydät täältä):
A Gazeta do Espírito Santo, Brasilia: Tekoälyn avulla tehdään videoita tekstimuotoisista elokuva-arvosteluista.
Amedia, Norja: Amedia sai puolet toimittajistaan käyttämään säännöllisesti tekoälyä yksinkertaisilla ratkaisuilla, jotka helpottavat päivittäistä työtä.
Badischer Verlag, Saksa: BZ.Echo on toimituksen monipuolinen tekoälytyökalu: otsikointia, optimointia, versiointia, luonnosten generointia. Toimittajien ajansäästöä kuvataan merkittäväksi.
Hearst Newspapers, Yhdysvallat: Hearst käyttää tekoälyä julkishallinnon päätösten seuraamiseen, mikä tekee prosessista sujuvamman ja aikaa säästävän. Työkalu on lisännyt skuuppien määrää.
Russmedia, Itävalta: Tekoälypohjainen julkaisujärjestelmä mm. automatisoi otsikoiden luomisen, artikkelien kategorisoinnin ja tekstin tiivistämisen, kieliopin tarkistuksen ja tyyliehdotukset. Toinen työkalu tuottaa reaaliaikaisia päivityksiä kriittisistä aiheista, kuten liikennekatkoista ja kunnallisista päätöksistä. Räätälöidyt GPT-mallit automatisoivat monimutkaisia tehtäviä kuten tekijänoikeustarkistuksia ja eettistä ohjeistusta.
Constructive Institute, Tanska: News Mirror -työkalu hyödyntää tekoälyä auttaakseen toimitusta ns. rakentavan journalismin teossa, mikä parantaa sisältöjen monipuolisuutta.
KG Media, Indonesia: AI Media Intelligence for SDGs -projekti käyttää tekoälyä kestävän kehityksen tavoitteiden seurantaan ja raportointiin.
Ringier, Sveitsi: Floorian on tekoälyavusteinen automaattinen pohjahinnan hallintajärjestelmä ohjelmalliseen mainontaan.
Schibsted, Norja: Tekoälypohjainen User Interest Predictions (UIP) -järjestelmä tunnistaa käyttäjien kiinnostuksen kohteita yli brändirajojen. UIP luokittelee ja ennustaa käyttäjien kiinnostuksen kohteita heidän selaushistoriansa perusteella.
United Daily News Group, Taiwan: AiAssist-hanke paransi tuottavuutta, kustannustehokkuutta ja yleisön sitoutumista. Tekoälyn integrointi on myös yhdistänyt eri tiimejä ja luonut yhteistyöhön perustuvan mallin uutistoimitukseen.
KULUTTAJATUOTTEET JA TEKOÄLY
”Best Use of AI in Customer-Facing Products” (suorat linkit ehdokkaiden pidempiin englanninkielisiin kuvauksiin löydät täältä):
Amar Ujala, Intia: Asiakaspalveluchatbot.
Hearst Newspapers, Yhdysvallat: Kamala Harrisiin liittyviin kysymyksiin vastaava chatbot.
NTM, Ruotsi: Tekoälyvetoinen audioratkaisu, jonka tavoitteena on houkutella nuorempia yleisöjä ja syventää nykyisten tilaajien sitoutumista. Se tunnistaa luetuimmat artikkelit, tiivistää ne tekstiksi ja muuntaa ne audiolähetyksiksi ElevenLabsin ääniteknologian avulla.
Stampen Media, Ruotsi: Neljä tekoälypohjaista laskuria, jotka liittyvät henkilökohtaiseen talouteen: asuntolainan korkolaskuri, asuntojen hintojen vertailu, verolaskuri, lainanlyhennyslaskuri.
Stuff Group, Uusi-Seelanti: Democracy.AI etsii potentiaalisia uutisaiheita päätöksentekodokumenteista. Pilottialueella Waikato Times lisäsi juttumääräänsä 25:llä viikossa, ja digitaaliset tilaukset yli kaksinkertaistuivat. (ei ole kuluttajatuote, mutta on tässä kategoriassa, koska työkalulla tehdyille jutuille tehtiin verkkosivuille oma osionsa)
Prisa, Espanja: VerificAudio käyttää tekoälyä äänitallenteiden autenttisuuden varmistamiseen, mikä parantaa sisällön luotettavuutta.
Ringier, Sveitsi: Beobachter-chatbot tarjoaa juridista neuvontaa tekoälyn avulla.
Ringier Axel Springer, Puola: AI-Powered Travel Planner uudistaa sisältömarkkinointia tekoälyn avulla. Botti helpottaa matkasuunnittelua.
Schibsted Media, Ruotsi(Norja): Ruotsalaisen iltapäivälehti Aftonbladetin EU-vaaliapuri ja USA-vaaliapuri.
Stuff Group, Uusi-Seelanti: Tekoälyn avulla käännetään uutisia maoriksi.
Termiä tekoälyagentti käytetään nykyään melko hövelisti, mutta alun perin sillä on viitattu tekoälyn kykyyn hoitaa peräkkäisiä tehtäviä automaattisesti.
Tässä kirjoituksessa käsittelemäni esimerkki on tehty lontoolaisen startupin Convergence AI:n Proxy-työkalulla, jolle antamani komento oli seuraava:
Käy läpi suomalaismedioiden Ilta-Sanomat, Iltalehti, Yle, Helsingin Sanomat ja Keskisuomalainen verkkosivujen osa, joka kertoo luetuimmat jutut sillä hetkellä. Tämän jälkeen laadi taulukko, joka sisältää kunkin median nimen, viisi luetuinta otsikkoa, niiden keskimääräisen merkkimäärän (ilman välilyöntejä) sekä kolme pointtia, mitkä seikat yhdistävät kunkin tiedotusvälineen luetuimpia juttuja.
”Normaali” keskusteleva tekoälytyökalu ei kykenisi tekemään tämänkaltaista moniosaista tehtävää, mutta Proxyllä tässä kesti noin viisi minuuttia, eikä se tarvinnut täsmentäviä ohjeita, mitä se joskus kysyy. Proxyn tekoäly siis käytännössä käy promptissa mainituilla sivustoilla ja etsii niiden luetuimmat-osiot. Muutaman kohdalla tekoäly meni niille googlaamalla ensin ”Iltalehti luetuimmat”, osan kohdalla menemällä suoraan palvelun etusivulle ja etsimällä sieltä luetuimmat-osion. Proxy tarvitsi tehtävän toteuttamiseen 17 vaihetta, joista viimeinen oli pyytämäni taulukko. Kauneusvirhe oli se, että Proxy ei kyennyt tekemään taulukkoa täydellisenä Markdown-versiona keskustelunäkymään, eikä liitetiedostona, vaan tiedot oli itse kopioitava käsin tässä tapauksessa Google Sheetsiin:
Proxyn työstönäkymä näytti tältä:
Huono asia perinteisen median kannalta on ainakin se, että Proxy näyttäisi ohittavan sivustojen blokkausyritykset tekoälyille mm. ottamalla sivustoilta kuvakaappauksia. Median vinkkelistä tekoälyagenteille on helppo nähdä myös mahdollisuuksia, vaikkapa tutkivien toimittajien omiin seuranta-alueisiin erikoistuneiden tekoälyapureiden rakentamiseen. Kävin tätä puolta hieman enemmän läpi aiemmassa blogikirjoituksessani.
Vuoden 2024 luetuimpien uutisjuttujen otsikoissa oli keskimäärin 75 merkkiä (ilman välilyöntejä), kun sama luku vuonna 2017 oli 58 merkkiä. Otsikkopituudet ovat joka vuosi kasvaneet.
Tiedot ilmenevät vertailtaessa analytiikkayhtiö Chartbeatin luetuimpien uutisjuttujen listauksia vuosilta 2017–2024. Juttuja todella voi sanoa luetuimmiksi, sillä ne perustuvat Chartbeatin laajaan yli 5000 asiakkaan verkostoon, ja mittarina on käytetty lukuaikaa eikä klikkauksia. Suurin osa on englanninkielisiä.
Vuoden 2024 luetuimpiin juttuihin pääset täältä. Sivun alaosasta kohdasta ”Most Engaging Stories Archive” pääset vuosiarkistoihin. Huomioitavaa on myös, että nykyään verkkojutuilla voi olla useita otsikoita, esimerkiksi hakukoneita varten omansa ja uutisetusivuilla omansa.
Blogin pääkuva: sanapilvi kuvastaa vuosien 2017–2024 luetuimpien juttujen yleisimpiä sanoja. Graafi on laadittu Chartbeatin listojen otsikoista. Graafista puuttuu vuosi 2020, jolloin listauslogiikka oli erilainen.
Tämä blogikirjoitus sai kimmokkeensa Brian Morrisseyn The Rebooting -uutiskirjeestä, jossa pohditaan, miten verkon uutisartikkeli uudistuu ajassa, jossa tekoäly nopeuttaa teknologista kehitystä ja on mullistamassa muun muassa hakukoneiden toimintaa.
Verkon “uutisjuttu” on ollut perusrakenteeltaan aika lailla samankaltainen vuosikaudet. 2010-luvun lopulla alkoivat yleistyä kokeilut somekerronnasta inspiraationsa saaneilla ns. kortti- tai tarinajutuilla. Muutaman viime vuoden aikana artikkeleita on myös voinut alkaa halutessaan kuunnella, mutta isossa kuvassa useimmat nettijutut eivät ole merkittävästi muuttuneet: niissä on kuvaa ja tekstiä.
Moni uutismedia-alaa seurannut muistaa yli kymmenen vuoden takaa Circa-palvelun lupauksen ajatella artikkelia kokonaan uusiksi “atomisoimalla” tekstin pieniksi haarukkapaloiksi, jotka esitetään käyttäjälle yksi kerrallaan, mutta käyttäjien suosikiksi siitä ei lopulta ollut.
Generatiivisen tekoälyn myötä mahdollisuuksia innovaatioihin on nyt enemmän. Ehkä aikakin on kypsempi muutoksille.
Every.to. Tämä samannimisen vuonna 2020 perustetun media- ja teknologiayhtiön sivusto on oma suosikkini, koska se ottaa artikkelikehityksessään huomioon, että iso osa uutisten kuluttajista haluaa yhä kuluttaa uutisia myös tekstipainotteisesti. Se on sisällyttänyt juttuihinsa sisäänrakennetun chatikkunan, jossa voi paitsi keskustella sisällöstä, myös saada läpinäkyvyyden hengessä näkyviin juttujen taustalla olevan raakamateriaalin kuten haastattelut (klikkaamalla “View all sources”). Käyttökokemus on hyvin sujuva. Samaa ei mielestäni voi sanoa palveluista, joissa koko uutiskokemus on rakennettu chattaamisen ympärille. Tällaisessa mallissa kuluttaja ei välttämättä koe tuttuutta, vaan vieraita elementtejä on liikaa (ks. kohta 3.).
Kun Time-lehti esitteli vuoden 2024 henkilön Donald Trumpin, jutun saattoi paitsi kuunnella, siitä voi myös keskustella joko puhumalla tai chättäämällä. Summarize-nappulaa klikkaamalla jutun saa luettavakseen joko alkuperäispituudella, keskipitkänä tai lyhyenä. Tiivistelmät tekee tekoäly. Artikkelin alun navigaatiovalikon ”TIME AI”-painiketta painamalla tulee esiin laajempi näkymä, josta voi halutessaan vielä kääntää jutun haluamalleen kielelle.
Curio. Audiojournalismiyritys Curion uutissovellus julkaistiin alun perin Rio-nimellä maaliskuussa 2024. Sovellus tarjoaa pääsyn luotettujen uutisbrändien sisältöihin ja mahdollistaa niistä kyselemisen chat-pohjaisessa käyttöliittymässä. Sovelluksessa voi myös luoda itselleen kuunneltavaksi äänisisällön eri uutisaiheista. Valitsin tämän kolmanneksi esimerkiksi en sujuvan käyttökokemuksen vuoksi (koska sitä se ei ole, mikä johtuu ennen muuta siitä, että normiartikkeleihin tottuneelle sukupolvelle kokemus on ehkä liiankin mullistava), vaan siksi, että tässä “uutisartikkeli” on ajateltu siinä mielessä täysin uusiksi, että vaihtoehtoja on käytännössä kolme: 1) juttelet uutisaiheesta botin kanssa ja vastaukset toimivat käyttäjälle “artikkelina”, 2) botti linkkaa vastauksissan suoraan luotettujen uutistoimijoiden perinteisiin artikkeleihin, 3) botti luo haluamastasi uutisaiheesta “audiojakson”, kuten se sitä itse kutsuu. Kokeilin tätä viimeisintä ominaisuutta tänä aamuna tuoreimpien Syyria-uutisten kohdalla. Botti generoi 19 minuutin audion (jota en loppuun jaksanut kuunnella), mutta alun perusteella laatu vaikutti erinomaiselta.
+ Bonus: Particle on syytä noteerata, mutta sitä ei pääse vielä Suomessa kokeilemaan, joten vaikea luonnehtia omakohtaisesti sen enempää. Toimintalogiikka kuulostaa kuitenkin uudenlaiselta: Particle kertoo ydinajatuksekseen sisältöjen ryhmittelyn ”yhdeksi tarinaksi yhteen näkymään”, mikä tarkoittaa eri lähteiden uutisten kokoamista tekoälyavusteisesti ryppäiksi sen sijaan, että yksittäiset jutut eri aiheista olisivat fiidissä sekaisin. Particlessa käyttäjä voi räätälöidä omaa algoritmiaan seuraamalla paitsi tiettyjä aiheita, myös tiettyjä henkilöitä tai paikkoja. Sovellus ei tee omia uutisia, vaan käytännössä tarjoaa tiivistelmiä perinteisten medioiden jutuista. Valittavana on viisi tiivistelmätyyppiä, kuten ”selitä kuin olisin 5-vuotias”, ”vain faktat”, ”tiivistelmä eri kielillä”, tai mikä tahansa uutisiaihe äänitiivistelmänä. Kiinnostavin tiivistelmätyyppi lienee ”Opposite Sides” eli uutisaiheen esittely jutun edustaman poliittisen näkökulman mukaan – eli mihin suuntaan kallellaan minkäkin median jutun voi tulkita olevan ja miksi. Sovellus toimii toistaiseksi vain Yhdysvalloissa ja iPhonessa, eikä sitä ole saatavissa Suomessa.
Helsingin Sanomien kehitysjohtaja Esa Mäkinen avasi Tampereen yliopiston luennolla tiistaina, missä tekoälyn kehityksessä yleisesti mennään ja erityisesti, miten se vaikuttaa media-alaan nyt ja tulevaisuudessa.
Tiivistän tähän blogiin väliotsikoiksi eräitä teemoja, joista Mäkinen puhui. Otsikoiden jälkeiset sitaatit ovat Mäkisen.
Median arvoketjun muutos & tekoäly ja tulevaisuus
“Journalistinen prosessi pitää pilkkoa palasiksi, jotta voidaan keskustella, mitä tekoäly mahdollistaa tai ei mahdollista. Olemme hahmotelleet [HS:ssä] tällaista karkeaa jakoa, jossa toimittajan työvaiheista ideointiin kuluu 10 prosenttia, tiedonhankintaan ja haastatteluihin 40 prosenttia, jutun kirjoitukseen tai muuhun tuottamiseen noin 30 prosenttia, editointiin 10 prosenttia ja julkaisuun 10 prosenttia ajasta. Jos tästä katsotaan, mitä voidaan automatisoida, se on etenkin tuo tiedonhankinta. Monissa medioissa on nykyään esimerkiksi jonkinlainen vehje, jolla litteroidaan haastatteluja – HS:llä ja Almalla Good Tape ja Ylellä itserakennettu systeemi.”
“Mutta toimittajan työprosessi ei ole suinkaan ainoa asia [arvoketjussa]. Kyse on siitä, miten median koko arvoketju muuttuu. Arvoketjussa on tiedonhankintaa, tuotantoa, jakelua ja kulutusta. Tiedonhankinta ja sisällöntuotanto olivat tuolla toimittajan työprosessissa, mutta kun mennään jakeluun ja kulutukseen, niin siellä mediataloilla ei ole välttämättä paljoa vaikutusmahdollisuutta siihen. Tekoälyn kehitys ei välttämättä vie meitä tulevaisuuteen, jossa olemme jonkin arvoketjun osia esimerkiksi niin, että käyvätkö ihmiset meidän palveluissamme, jotta voimme myydä heille tilauksia tai mainoksia.”
“Mitä media itse juuri nyt tekoälyllä tekee, tapahtuu etenkin tiedonhankinnan ja sisällöntuotannon saralla. Hyvin vähän näkyy jakeluun ja kulutukseen liittyviä innovaatioita. Esimerkiksi Samsungin kännyköissä on nyt vakiona selain, joka tekee artikkeleista tiivistelmiä. Tekoälyn avulla tiivistelmiä teki myös Artifact-sovellus, mutta sen toiminta on loppunut. Tämä on ehkä se keskeinen kysymys, johon en osaa vastata, että miltä se hevoskärryistä autoksi muuttuminen [viittaus aiempaan alustukseen] media-alalla tulee näyttämään. Jonkinlainen muutos varmasti tapahtuu 3–5 vuoden säteellä, mutta jos joku sanoo, että hänellä on varmaa tietoa, sanoja vähintäänkin liioittelee omaa osaamistaan.”
Miten toimittajan kannattaisi varautua näihin muutoksiin?
[tätä vastausta edelsi taustoitus digimuutoksesta kuten printti-digi-siirtymästä digin muutokseen, jossa digin sisällä tapahtuu paljon kehityskulkuja]
”Pitäisi katsoa paljon pystyvideoita ja tehdä niitä itse, pitäisi kuunnella paljon podcasteja ja tehdä niitä itse, ja kolmanneksi pitäisi opetella käyttämään Anthropicin Claudea tai muita vastaavia tekoälytyökaluja itse [läsnäolleista opiskelijoista noin puolet oli käyttänyt tekoälytyökaluja]. Eli suosittelen hankkimaan maksullisen chatpalvelun ja käyttämään sitä opiskelussa mahdollisimman paljon.”
Liquid Content vs. pink slime
Mäkinen viittasi alustuksessaan syväoppivaa tekoälyä tutkivan Googlen Deepmindin luovan johtajan Matthie Lorrainin ajatukseen “liquid contentista” eli käytännössä sisältöjen muokkautuvuuteen eri päätelaitteilla. Lorrainin ajattelussa tämä mullistaa sen, miten mediaa jaellaan tai kulutetaan tulevaisuudessa. Mäkinen:
Liquid contentiin liittyvä esimerkki on intialainen startup, joka lupaa tuottavansa videon mistä tahansa artikkelista viidessä minuutissa, joka sisältää myös ihmistoimittajan faktantarkistukseen käyttämän ajan. Norjalainen VG tekee jo aika paljon tämänkaltaista. Oslossa junissa ja kuntosaleilla on VG:n videotauluja, joissa on heidän artikkeleistaan tehtyä sisältöä. Lopputuotteet ovat aika yksinkertaisia, eivät valtavan ihmeellisiä asioita, mutta todennäköisesti katsojan kannalta riittävän hyviä. Ja ne pitävät paikkansa.
”Tekoäly mahdollistaa sisällön muodon muuttamisen toiseen suhteellisen helposti. Kunnianhimoisimmassa ajattelussa se on kuluttajan päätelaite, joka määrittelee, miten sisältö mukautuu kulloiseenkin käyttötarpeeseen osittain tai täysin automaattisesti.”
”Toinen puoli on ’pink slime’, eli ajatus jossa internet täyttyy geneerisestä roskasta. Jenkeissä on paljon sivustoja, jotka ottavat jotain random urheilutuloksia tai tiedotteita paikallisilta alueilta ja leipovat niistä semiuskottavan näköisen median. Instassa näkyy paljon sisältöjä, joista huomaa, että ne on tehty tekoälyllä…on blurrit taustat ja etualalla virheetön ihminen. Pink slime tulee täyttämään ensimmäiseksi todennäköisesti somen. Kun kysytään miten pärjäämme tulevaisuudessa, niin tuollaisessa maailmassa, jossa kaikki sisältö on vapaasti liikkuvaa, medioiden rooli kapenee yhdenlaiseksi. Voi toisaalta olla sellainenkin tilanne, että luotettava sisältö päätyykin yhtäkkiä merkittävään asemaan.”
”Kuvan todistusvoima on jo hävinnyt”
Helsingin Sanomat on aiemmin linjannut, että se ei julkaise tekoälyllä tehtyjä kuvia, mutta Mäkisen mukaan lopulta tuli eteen tapaus, jossa ”sellainen oli pakko julkaista”. Tässä tapauksessa kuvan päälle poltettiin merkintä, josta asia selviää. Näin merkintä näkyy myös, jos kuvaan päätyy suoraan hakukoneen kautta.
Mäkisen mielestä kielimallit olivat jo vuosi sitten kehittyneet siihen pisteeseen, että se tekee niin sanotusti virheetöntä jälkeä.
”Ne ovat niin hyviä, että ei ole mitään keinoa enää erottaa…kuvan todistusvoima on jo hävinnyt, mutta emme ole vielä sitä yhteiskuntana konkreettisesti ymmärtäneet.”
Mihin toimittajia tarvitaan?
”Kehitys, jossa tehdään vähemmällä enemmän, johtaa uusiin ammatteihin ja innovaatioihin, joita emme osaa tällä hetkellä kuvitella. Tällä hetkellä toimittajia tarvitaan keksimään niitä uusia toimenkuvia. Työmäärä ei välttämättä vähene, mutta työn luonne tulee muuttumaan toisenlaiseksi. Toinen vastaus on klassiset journalistiset hyveet. Toimittajia tarvitaaan edelleen siihen, kun maailmassa tapahtuu paljon asioita, joista ei ole saatavissa digitaalista jälkeä, kuten läsnäolo Ukrainassa. Ne jotka ovat olleet keikoilla, tietävät, että se on hidasta ja aikaavievää. Uskon, että saamme tehdä tulevaisuudessa enemmän [tätä], kun taas koneet tekevät töitä, joita emme oikeastaan haluaisikaan tehdä.”
Helsingin Sanomien tilauksista vastaava uutispäällikkö Jaakko Kangasluoma avasi Tampereen yliopiston luennolla tiistaina, millä eri tavoilla lehdessä mitataan ja analysoidaan sisältöjä.
“Perusyksikkö. Varsinkin jos teemme isotöisen jutun, sen pitää löytää lukijansa. [Mainitsee esimerkkijutun, jonka käyntimäärät ‘vuoden kovimpia’] tässä oli 429 000 käyntiä – joka ei siis vielä tarkoita eri ihmisiä – ja mukana on myös muuritörmäyksiä eli heitä jotka ovat avanneet mutta jättäneet lukematta jutun, mutta jutun lukeneita suomalaisia oli arviolta 250–300 000, mikä on todella hyvä.”
Timantit
“Timanttiluku kertoo, miten jutun maksumuuri on tuottanut tilauksia. [esimerkkijuttu tuotti] 1560 timanttia, joka on jo tosi hyvä. 100–200 timanttia katsotaan jo onnistuneeksi jutuksi. Lähtökohta on että yksi näytetilaus, joka on ilmainen, on yhden timantin arvoinen. Yksi maksullinen tilaus voi tuottaa 5–50 timanttia, [koska tilausvaihtoehtoja on erilaisia]. Jos ihminen maksumuuriin törmättyään ottaa jonkun muun kuin kaikkein halvimman ja lyhimmän tilauksen, voi ehkä ajatella, että hänellä on jonkinlainen ajatus myös pysyä tilaajana. Jos me julkaistaan 100–130 maksullista juttua viikossa, tilauksia tulee hyvin pieninä virtoina. Koko potti ratkaisee.”
Timanttikonversio
“Timanttikonversio on luku, jota seuraamme tosi tarkkaan. Se kertoo muuritörmäysten ja timanttien suhteen. Se auttaa ymmärtämään, miten juttu osui tilaajiin. Siinä on tosi isoja sisällöllisiä eroja, joita seuraamalla voidaan oppia paljon esimerkiksi siitä, millaiset aiheet kolahtavat tai minne maksumuuri pitää jutussa laittaa.”
Käytetty aika
“Käsitys lukemisen laadusta on se, mistä me paljon puhutaan. Kaiken ei tarvitse olla massaa ja vyöryttää meille timantteja. [Tässä esimerkkijutussa] tilaajien keskimääräinen lukuaika oli 7–8 minuuttia, mikä on hyvä lukuaika. Se oli 13 000 merkin juttu, joka piti tilaajat hyvin otteessaan.”
Skrollisyvyys
“Skrollisyvyys tarkoittaa, kuinka pitkälle lukijat lukevat juttuja – esimerkiksi, kuinka suuri osa loppuun asti. Oleellista on, että pääsemme vertailemaan juttujen eroja ja pohtimaan sitä, että jos esimerkiksi jossain jutussa lukeminen on alkanut hyvin ja otsikko on kiinnostanut, mutta sitten romahtanut puolessavälissä, niin minkä takia lukeminen on jätetty kesken. Sieltä löytyy kerronnallista parannettavaa ja muuta oppia. Kerran romahdus johtui siitä, että oli laitettu kolme kuvaa peräkkäin jutun keskelle, jolloin lukija luuli, että juttu loppuu siihen.”
Pitopisteet
“Olemme luoneet tällaisen kuin pitopisteiden mittarin. Sillä mitataan tilaajien tyytyväisyyttä. Eli jos tietty määrä tilaajia käy lukemassa, lukee sitä riittävän pitkään [ajallisesti] ja lukee sitä loppuun, juttu saa silloin täydet pitopisteet. Hyvien pitopisteiden jutut voivat olla hyvin erilaisia.”
Kuten alalla yleensäkin, Kangasluoman mukaan Helsingin Sanomissa seurataan myös reaaliaikaista analytiikkaa, kuten sitä, montako ihmistä jutuissa on ollut edellisten viiden minuutin aikana, tai sitä, moniko selain on nähnyt etusivun otsikon edellisten viiden minuutin aikana. Otsikointiin käytetään paljon aikaa. Yhdestä jutusta saattaa pyöriä etusivulla 6–7 eri otsikkoversiota ja datasta voidaan katsoa, kuinka monta prosenttia otsikon nähneistä klikkaa sitä.
“Se on tavallaan armotonta, mutta ilman mittaamista emme ymmärrä, mitä tilaajat haluavat. Samaan aikaan tulee myös epäonnistumisia, ja nekin pitää vaan lusia. On tehty suurella panoksella isoja juttuja, joihin kukaan ei ole koskenutkaan. Se on pelin henki, mutta epäonnistuminen on kivempi ottaa vastaan yhdessä porukalla”.
Mistä media-alalla puhuttiin vuonna 2017? No ainakin Facebook-videoista. Tuolloin FB:n potentiaaliin suhtauduttiin mediataloissa vielä toiveikkaasti. Yhdenlainen ajankuva koko toimialalta – on kyse sitten uutisista tai suoratoistosta – piirtyy blogikirjoituksistani, joita olen tehnyt seitsemän vuoden ajan.
Kokosin luetuimmat blogikirjoitukseni samaan pakettiin, vuosi kerrallaan. Klikkaa otsikkoa lukeaksesi jutun (avautuu uuteen ikkunaan).
Pidemmittä johdannoitta listaan tähän lähdelinkkeineen esimerkkejä tekoälytyökaluista, joita mediataloissa käytetään toimituksellisen työn apuna. Lista perustuu julkisesti löydettävissä oleviin lähteisiin, jotka olen linkannut asiayhteyteen. Lista on uutistoimituspainotteinen, vaikka työkaluja käytetään muuhunkin.
SUOMI
Alma Media – mm. “vastaväittelijä”-toiminto, tekstin muuttaminen puheeksi koneäänen avulla, tekstien tiivistäminen, kuvatekstien automaattinen luominen, kääntäminen…
Alma Median vuoden 2024 puolivuotiskatsauksessa todetaan, että uusi AI-tiimi aloitti työnsä “ja ensimmäiset toimituksellista työtä avustavat työkalut otettiin käyttöön”.
Sanoma – tiivistäminen, ennakoiva otsikkoanalytiikka ja ehdotukset toimittajille…
Helsingin Sanomien ja Ilta-Sanomien yhteinen tekoälytiimi aloitti työnsä alkuvuonna 2024. Sen tehtävänä on “testata, ideoida ja myös kriittisesti arvioida omaan työhön vaikuttavia työkaluja”. Työkaluista ei ole kovin paljoa julkisesti saatavilla olevaa tietoa. Joitain esimerkkejä on mainittu Sanoman toimitusjohtajan Rob Kolkmanin esityksessä vuodelta 2024 (sivu 13).
Washington Post – “Neulaa-heinäsuovasta-etsijä” laajojen tietomassojen käsittelyyn
Washington Post julkaisi 18. elokuuta ensimmäisen jutun, joka perustuu uuden Haystacker-nimisen tekoälytyökalun käyttöön. Työkalu mahdollistaa suurten tietomäärien seulomisen ja niistä erilaisten ilmiöiden ja trendien havaitsemisen. WP:n teknologiajohtajan mukaan kaupalliset yleiskäyttöiset työkalut eivät pysty vastaavaan. Toistaiseksi työkalua käyttävät visuaalisen journalismin tekijät ja datajournalistit.
Ensimmäinen Haystackerilla tehty juttu käsitteli 700:aa maahanmuuttoa käsittelevää vaalimainosta ja sitä, miten kuvia tai tekstiä oli manipuloitu harhaanjohtavien väitteiden luomiseksi. Haystacker mm. otti automaattisesti stillejä mainosvideoista.
WP:n mukaan Haystackeria voidaan käyttää missä tahansa suuressa tietoaineistossa, joka on käytettävissä joko julkisen rajapinnan kautta tai toimitukselle suoraan annettuna.
+ bonus: aihetarjonnan monipuolisuusmittari eliamerikkalaisten yliopistotutkijoiden kehittämä Media Bias Detector
Nimestään huolimatta tämä työkalu ei ota kantaa uutisjuttujen puolueettomuuteen, vaan mittaa käytännössä juttuaiheiden tarjonnan monipuolisuutta: sitä, montako juttuartikkelia mistäkin aihepiiristä on tietyllä ajanjaksolla kussakin mediassa ollut. Tekoälyn rooli työkalussa on tehdä sellaista sisältöanalyysiä, jota vielä muutama vuosi sitten teki ihminen. Esimerkkikuva alla.