Strategia ja liiketoiminta

Julkiset hankinnat, yhdistystiedot, kuntapäätökset, sh-piirin päätökset ja tiedotemaininnat automaattisesti mailiisi: Näin rakennat toimittajan Varkaus-haravan

Olen tässä blogissa aiemminkin kertonut kokeiluistani brittiläisen, nopeasti kasvavan startupin Convergence AI:n Proxy-työkalulla, jolla voi helposti rakentaa nettiä automaattisesti koluavan tekoälyagentin ja lähetyttää sen hakemat tulokset omaan sähköpostiinsa vaikkapa kerran viikossa.

Tämä uusin testi on tähänastisista pisimmälle viety: halusin havainnollistaa, mihin kaikkeen Proxy pystyy samaan aikaan – vai pystyykö, ja miten laadukkaalla lopputuloksella. Otin esimerkkikunnaksi syntymäkuntani Varkauden ja annoin Proxylle seuraavan pitkän kehotteen:

”Haluan rakentaa toiminnon, jossa on viisi eri osaa. Ota näitä toimintoja toteuttaessasi huomioon, että toimit kuten huippuluokan tutkiva journalisti, joka on erityisen taitava hakemaan tietoa sekä tekemään tietojen perusteella uutisia etenkin paikallisista asioista Suomessa.

Osa 1: Tiivistä Varkauden kaupunginhallituksen seuraavan kokouksen esityslistan asiat siten, että arvioit, millä listan asialla voisi olla mahdollisesti uutisarvoa. Uutisarvoa arvioidessasi otat huomioon ainakin nämä seikat: kuinka paljon löydös poikkeaa aiemmasta datasta, kuinka moni ihminen tai yritys on asianosainen, onko aiheesta jo olemassa keskustelua somessa tai muissa uutislähteissä, ovatko vastaavat aiheet aiemmin päätyneet uutisotsikoihin tai sisältääkö asia mahdollisesti jonkinlaista kitkaa. Pidä erittely tiivinä, kerro sen yhteydessä esityslistan julkaisupäivämäärä ja linkkaa lähdesivulle.

Varkauden esityslistat, pöytäkirjat, viranhaltijapäätökset ja kuulutukset löydät täältä: https://varkaus.fi/fi/sivu/osallisuus-ja-paatoksenteko/paatoksenteko

Osa 2: Varkaus kuuluu Pohjois-Savon hyvinvointialueeseen. Tee edellämainittu erittely myös hyvinvointialueen aluehallituksen tulevan kokouksen esityslistalle huomioiden kohdat, joissa mainitaan Varkaus. Voit myös arvioida, mikäli jokin esityslistan asia olisi Varkauden kannalta erityisen tärkeä, vaikka Varkautta ei mainittaisikaan. Listat löytyvät täältä: https://pshyvinvointialue.fi/esityslistat-ja-poytakirjat

Osa 3: Hae yhdistysrekisterin julkisesta hausta (https://yhdistysrekisteri.prh.fi/) tiedot siitä, milloin Varkaus-nimiseen kaupunkiin on viimeksi (huom: huomioi Varkautta koskevista hakutuloksista viimeisin rekisteröintipäivä eli vain tuorein merkintä kaikista) perustettu jokin yhdistys, ja kerro tiedot yhdistyksestä tiedot tiiviisti. Kerro myös yhdistysmerkinnän julkaisupäivämäärä ja linkkaa lähdesivulle.

Osa 4: Hae julkisia hankintoja listaavalta Hilma-sivustolta viimeisin merkintä, jossa Varkaus-niminen kaupunki on mukana. Kerro merkinnän julkaisupäivämäärä sekä tiedot merkinnästä muutamalla virkkeellä siten, että siitä ymmärtää helposti, mistä hankinnassa on kyse.

Osa 5: Kerro tiiviisti kolme tuoreinta merkintää STT:n julkaisemista lehdistötiedotteista, joissa mainitaan Varkaus-niminen kaupunki. Kerro merkinnän julkaisupäivämäärä ja tiedot merkinnästä hyvin tiiviisti siten, että siitä ymmärtää helposti, mistä on kyse. STT:n lehdistötiedotteet löytyvät täältä: https://www.sttinfo.fi/

Tee kaikista edellämainituista kohdista esitystavaltaan suurin piirtein yhdenmukaisia esimerkiksi bullet pointein jäsentäen. Käytä mahdollisimman selkeää ja kansantajuista suomen kieltä. Kokoa kaikki tulokset samaan vastaukseen, kiitos.”

Muutama huomio kehotteesta. Annoin Proxylle valmiiksi muutaman linkin suoraan, vaikka se olisi löytänyt ne itsekin, mutta olen huomannut, että linkkien vinkkaaminen nopeuttaa sen toimintaa.

Huomiona itse testistä: tässäkään asiassa kone ei korvaa journalistista silmää – mikään kehote ei ole niin täydellinen, että se hoksaisi kaikki mahdolliset uutisarvoiset aiheet. Työtä se toki helpottaa. Mutta mikä tärkeintä ja sanon tämän, vaikka on itsestään selvää: tekoäly ei tietenkään kaivele sellaisia potentiaalisia uutisaiheita, joiden jäljille ei pääse digitaalisista lähteistä.

Tässä Proxyn antama vastaus:

Kokeilin tässä testissä sekä Proxyn maksullisen tilauksen (20e/kk) sisältämää Deepwork-toimintoa että ilmaista. Deepwork oli ehkä jopa huonompi tähän tarkoitukseen, koska se esitti tarpeettoman paljon täsmentäviä kysymyksiä, vaikka ilmankin niitä tulos oli samankaltainen. Ilmaiseksi tällaisia agentteja voi tehdä Proxyllä yhden päivässä – niistäkin voit kyllä tilata sähköpostin tulemaan itsellesi säännöllisesti.

On syytä huomioida, että kaikki ei aina mene odotetusti: tietoja tarkistaessani huomasin, että yhdistyshaussa tekoäly ei ollut hakenut tuoreinta merkintää (joka olisi ollut vuodelta 2021 eikä 2019), eikä se useista täsmennyspyynnöistä huolimattakaan kyennyt ottamaan tuoreinta merkintää mukaan. Voi myös hyvin olla, että tuloksista puuttuu edelleen jotakin olennaista, mitä en vain hoksaa. Pintapuolisesti katsottuna tekoäly tiivisti kunnanhallituksen ja hyvinvointialueen hallituksen esityslistat kertaheitolla melko hyvin. STT:n tiedotehausta se ei poiminut tuoreinta, vaan kolmanneksi tuoreimman, mutta tämä saattoi johtua antamastani kehotteesta, jossa pyysin tekoälyä arvioimaan uutisarvoa (tuoreemmat tiedotteet liittyivät Voice of Finland -ohjelmaan, johon osallistuu Varkaudesta kotoisin oleva kilpailija, mitä tekoäly ei tässä ehkä tulkinnut uutisarvoiseksi – mitä se paikallislehdelle kuitenkin varmasti olisi). Myös julkisten hankintojen merkintä meni tekoälyltä kerralla oikein.

Normaali
Strategia ja liiketoiminta

Alma Median tekoälyhanke Global Media Awardsin palkintoehdokkaaksi, Intia ja Norja ehdokkuusrohmuja – tässä tiivistelmä kaikista ehdokkaista

Alma Median tekoälytyökalu, joka arvioi Iltalehden juttujen herättämät tunnetilat ja havaitsi että inspiroivilla jutuilla on paras tilaajapito, on yksi palkintoehdokkaista kansainvälisen uutismediajärjestön INMA:n Global Media Awardsin listalla kategoriassa “Best Innovation in Newsroom Transformation”.

Työkalun tavoitteena on ehkäistä uutisten välttelyä ja sitä on tarkoitus laajentaa muihinkin Alman uutisbrändeihin. Tarkoituksena on seuraavaksi yhdistää työkalun tuomaa ymmärrystä uutispalveluiden suosittelujärjestelmiin. Lehden mukaan kuukausittaiset sivulatausmäärät ovat nousseet työkalun käyttöönoton jälkeen.

Global Media Awardsissa eniten palkintoehdokkaita 199 ehdokkaan joukossa on Intiasta (22) ja Norjasta (21). Suomesta ehdokkaita on kaksi. Toinen on Keskisuomalainen kategoriassa “Best New Digital Product”. Keskisuomalaisen 22 paikallista uutissovellusta jakavat saman teknologian, joten niiden teknistä ylläpitoa hoitamaan tarvitaan konsernin mukaan vain kaksi henkilöä – ensimmäiset 19 sovellusta julkaistiin sekä Androidille että iOsiin vain kolmessa kuukaudessa. Sovelluksia ladattiin 367 000 kertaa vuonna 2024.

Vaikka Alma Median hanke hyödyntää generatiivista tekoälyä, se ei ollut ehdolla varsinaisten tekoälyhankkeiden kategorioissa, joita olivat ”Best Use of AI for Internal Productivity” ja ”Best Use of AI in Customer-Facing Products”. Tässä noiden kategorioiden ehdokkaat.

TOIMITUSTEN SISÄISET TEKOÄLYTYÖKALUT

”Best Use of AI for Internal Productivity” (suorat linkit ehdokkaiden pidempiin englanninkielisiin kuvauksiin löydät täältä):

  • A Gazeta do Espírito Santo, Brasilia: Tekoälyn avulla tehdään videoita tekstimuotoisista elokuva-arvosteluista.
  • Amedia, Norja: Amedia sai puolet toimittajistaan käyttämään säännöllisesti tekoälyä yksinkertaisilla ratkaisuilla, jotka helpottavat päivittäistä työtä.
  • Badischer Verlag, Saksa: BZ.Echo on toimituksen monipuolinen tekoälytyökalu: otsikointia, optimointia, versiointia, luonnosten generointia. Toimittajien ajansäästöä kuvataan merkittäväksi.
  • Hearst Newspapers, Yhdysvallat: Hearst käyttää tekoälyä julkishallinnon päätösten seuraamiseen, mikä tekee prosessista sujuvamman ja aikaa säästävän. Työkalu on lisännyt skuuppien määrää.
  • Russmedia, Itävalta: Tekoälypohjainen julkaisujärjestelmä mm. automatisoi otsikoiden luomisen, artikkelien kategorisoinnin ja tekstin tiivistämisen, kieliopin tarkistuksen ja tyyliehdotukset. Toinen työkalu tuottaa reaaliaikaisia päivityksiä kriittisistä aiheista, kuten liikennekatkoista ja kunnallisista päätöksistä. Räätälöidyt GPT-mallit automatisoivat monimutkaisia tehtäviä kuten tekijänoikeustarkistuksia ja eettistä ohjeistusta.
  • Constructive Institute, Tanska: News Mirror -työkalu hyödyntää tekoälyä auttaakseen toimitusta ns. rakentavan journalismin teossa, mikä parantaa sisältöjen monipuolisuutta.
  • KG Media, Indonesia: AI Media Intelligence for SDGs -projekti käyttää tekoälyä kestävän kehityksen tavoitteiden seurantaan ja raportointiin.
  • Ringier, Sveitsi: Floorian on tekoälyavusteinen automaattinen pohjahinnan hallintajärjestelmä ohjelmalliseen mainontaan.
  • Schibsted, Norja: Tekoälypohjainen User Interest Predictions (UIP) -järjestelmä tunnistaa käyttäjien kiinnostuksen kohteita yli brändirajojen. UIP luokittelee ja ennustaa käyttäjien kiinnostuksen kohteita heidän selaushistoriansa perusteella.
  • United Daily News Group, Taiwan: AiAssist-hanke paransi tuottavuutta, kustannustehokkuutta ja yleisön sitoutumista. Tekoälyn integrointi on myös yhdistänyt eri tiimejä ja luonut yhteistyöhön perustuvan mallin uutistoimitukseen.

KULUTTAJATUOTTEET JA TEKOÄLY

”Best Use of AI in Customer-Facing Products” (suorat linkit ehdokkaiden pidempiin englanninkielisiin kuvauksiin löydät täältä):

  • Amar Ujala, Intia: Asiakaspalveluchatbot.
  • Hearst Newspapers, Yhdysvallat: Kamala Harrisiin liittyviin kysymyksiin vastaava chatbot.
  • NTM, Ruotsi: Tekoälyvetoinen audioratkaisu, jonka tavoitteena on houkutella nuorempia yleisöjä ja syventää nykyisten tilaajien sitoutumista. Se tunnistaa luetuimmat artikkelit, tiivistää ne tekstiksi ja muuntaa ne audiolähetyksiksi ElevenLabsin ääniteknologian avulla.
  • Stampen Media, Ruotsi: Neljä tekoälypohjaista laskuria, jotka liittyvät henkilökohtaiseen talouteen: asuntolainan korkolaskuri, asuntojen hintojen vertailu, verolaskuri, lainanlyhennyslaskuri.
  • Stuff Group, Uusi-Seelanti: Democracy.AI etsii potentiaalisia uutisaiheita päätöksentekodokumenteista. Pilottialueella Waikato Times lisäsi juttumääräänsä 25:llä viikossa, ja digitaaliset tilaukset yli kaksinkertaistuivat. (ei ole kuluttajatuote, mutta on tässä kategoriassa, koska työkalulla tehdyille jutuille tehtiin verkkosivuille oma osionsa)
  • Prisa, Espanja: VerificAudio käyttää tekoälyä äänitallenteiden autenttisuuden varmistamiseen, mikä parantaa sisällön luotettavuutta.
  • Ringier, Sveitsi: Beobachter-chatbot tarjoaa juridista neuvontaa tekoälyn avulla.
  • Ringier Axel Springer, Puola: AI-Powered Travel Planner uudistaa sisältömarkkinointia tekoälyn avulla. Botti helpottaa matkasuunnittelua.
  • Schibsted Media, Ruotsi (Norja): Ruotsalaisen iltapäivälehti Aftonbladetin EU-vaaliapuri ja USA-vaaliapuri.
  • Stuff Group, Uusi-Seelanti: Tekoälyn avulla käännetään uutisia maoriksi.
Normaali
Yleisön ymmärtäminen & analytiikka

Tämä harjoitus vei tekoälyagentilta 4 minuuttia – kolusi itse viiden median otsikot, laski merkkimäärät, analysoi sisältöä ja teki taulukon

Termiä tekoälyagentti käytetään nykyään melko hövelisti, mutta alun perin sillä on viitattu tekoälyn kykyyn hoitaa peräkkäisiä tehtäviä automaattisesti.

Tässä kirjoituksessa käsittelemäni esimerkki on tehty lontoolaisen startupin Convergence AI:n Proxy-työkalulla, jolle antamani komento oli seuraava:

Käy läpi suomalaismedioiden Ilta-Sanomat, Iltalehti, Yle, Helsingin Sanomat ja Keskisuomalainen verkkosivujen osa, joka kertoo luetuimmat jutut sillä hetkellä. Tämän jälkeen laadi taulukko, joka sisältää kunkin median nimen, viisi luetuinta otsikkoa, niiden keskimääräisen merkkimäärän (ilman välilyöntejä) sekä kolme pointtia, mitkä seikat yhdistävät kunkin tiedotusvälineen luetuimpia juttuja.

”Normaali” keskusteleva tekoälytyökalu ei kykenisi tekemään tämänkaltaista moniosaista tehtävää, mutta Proxyllä tässä kesti noin viisi minuuttia, eikä se tarvinnut täsmentäviä ohjeita, mitä se joskus kysyy. Proxyn tekoäly siis käytännössä käy promptissa mainituilla sivustoilla ja etsii niiden luetuimmat-osiot. Muutaman kohdalla tekoäly meni niille googlaamalla ensin ”Iltalehti luetuimmat”, osan kohdalla menemällä suoraan palvelun etusivulle ja etsimällä sieltä luetuimmat-osion. Proxy tarvitsi tehtävän toteuttamiseen 17 vaihetta, joista viimeinen oli pyytämäni taulukko. Kauneusvirhe oli se, että Proxy ei kyennyt tekemään taulukkoa täydellisenä Markdown-versiona keskustelunäkymään, eikä liitetiedostona, vaan tiedot oli itse kopioitava käsin tässä tapauksessa Google Sheetsiin:

Proxyn työstönäkymä näytti tältä:

Huono asia perinteisen median kannalta on ainakin se, että Proxy näyttäisi ohittavan sivustojen blokkausyritykset tekoälyille mm. ottamalla sivustoilta kuvakaappauksia. Median vinkkelistä tekoälyagenteille on helppo nähdä myös mahdollisuuksia, vaikkapa tutkivien toimittajien omiin seuranta-alueisiin erikoistuneiden tekoälyapureiden rakentamiseen. Kävin tätä puolta hieman enemmän läpi aiemmassa blogikirjoituksessani.

Normaali
Strategia ja liiketoiminta

Näin helposti (ja ilmaiseksi) syntyi tekoälyagentti, joka pyörii puolestani netissä sukututkimusharrastustani varten

Tekoälyagenttien yleistymisen vaikutukset media-alaan ja esimerkiksi tutkivien journalistien tekoälytyökaluihin ovat tämänkin kokeilun perusteella ilmeiset. Riskitkin on helppo nähdä.

Tekoälybotit on suunniteltu pääasiassa vuorovaikutukseen ihmisten kanssa, kun taas tekoälyagentit pystyvät suorittamaan monimutkaisia ja peräkkäisiä tehtäviä itsenäisesti – käytännössä esimerkiksi käymään erilaisissa tietokannoissa puolestasi ja parhaimmillaan lähettämään tulokset ajastettuna sähköpostiisi vaikka maanantaiaamuisin kello 9.

En ole itse teknologian syväosaaja, vaan pikemminkin teknologiaan kriittis-innostuneesti suhtautuva umpihumanisti, joten päätin kirjata kokeiluni talteen myös tänne blogiin.

Kokeilin tekoälyagentin luomiseen ensin Zapier AI -nimistä palvelua, mutta se oli omaan makuuni hieman liian monimutkainen. Hollannin yleisradion strategiajohtajan Ezra Eemanin Wayfinder-uutiskirjeestä bongasin brittiläisen startupin Convergence AI:n Proxy-nimisen uuden palvelun, joka osoittautui käytettävyydeltään niin helpoksi, että se hakkasi Zapierin mennen tullen. Proxyä voi toistaiseksi käyttää useamman kerran päivässä ilmaiseksi.

Maksullisista tekoälytyökaluista käytän itse tällä hetkellä päivittäin Perplexityä (noin 20e/kk), mutta siinä ei vielä tällaista agentinluomismahdollisuutta ole – tosin veikkaan, että pian on, sillä alusta päivittää mm. kielimallejaan ja ominaisuuksiaan koko ajan, viimeisimpänä Deep Researchillä, joka leipoo aiheesta kuin aiheesta pelottavan hyviä akateemisen tason analyysejä lähdeviitteineen.

Convergence AI:n Proxy toimii pelkistettynä näin:

  1. Mene osoitteeseen Convergence.ai.
  2. Luo tunnus ja salasana, kirjaudu.
  3. Kuvaile chat-ikkunassa, mitä haluat tehdä. Lähtöteksti on englanniksi, mutta voit keskustella normaalisti suomeksi. Valittavana on myös oletustehtäviä, kuten erilaiset uutistiivistelmät.
  4. Voit täsmentää ohjeita matkan varrella.
  5. Harrastan sukututkimusta, joten kokeilin siihen liittyvällä esimerkillä. Pyysin Proxyä hakemaan tietoa Kansalliskirjaston vanhojen lehtien digitoidusta tietokannasta siten, että saisin tiivistelmän aina tuoreimmista lisäyksistä, joissa sukunimeni mainitaan. Näin keskusteluni eteni:

“Mene osoitteeseen digi.kansalliskirjasto.fi, etsi tietoa nimellä “Pirhonen”, jäsennä tulokset muotoon “viimeksi lisätyt” ja kerro tuoreimmat 3 tulosta bullet pointeina niin, että mainitset lehden nimen, lehden julkaisupäivämäärän sekä lyhyesti kontekstin, jossa nimi Pirhonen esiintyy.”

Tällä komennolla sain ensin englanninkielisen tuloksen, joten täsmensin:

“Voisitko antaa tulokset suomen kielellä”.

Tämän jälkeen sain tuloksen, joka ei kuitenkaan ole aivan sitä mitä tarkoitin eli viimeksi lisätyt eivät ole ensin:

Täsmensin komentoa lisää:

“Muuta hakuasetuksia oikeasta yläkulmasta muotoon ’Viimeksi’ lisätyt, jolloin hakutuloksissa näkyy viimeksi lisätty tulos.

Tämän jälkeen sain tuloksen, joka oli muuten ok, mutta halusin konteksti-kohdasta vielä hieman selkeämmän:

“Kerro kontekstista hieman tarkemmin niin, että asiayhteyden ymmärtää paremmin.”

Tämän jälkeen Proxy antoi juuri oikeanlaisen ja kaipaamani tuloksen:

Halutessani voisin pyytää Proxyä tekemään saman haun vaikkapa joka maanantai ja lähettämään tulokset sähköpostiini. Tämä toiminto ei kuitenkaan näytä käytännössä toimivan ainakaan vielä täydellisesti, vaikka joihinkin oletustehtäviin Proxy sitä jo tarjoaa. Tuloksen Proxy kyllä lähettää sähköpostiin, mutta ei ajastettuna, vaan pienellä viiveellä kunkin haun jälkeen.

Uhkia ja mahdollisuuksia

Joka tapauksessa on helppo nähdä, millaisia sekä mahdollisuuksia että uhkia tekoälyagentit tuovat media-alalle. Tulevaisuudessa agenttimaisten sisällönkuluttajien osuus epäilemättä kasvaa – mistä tiedät, onko taustalla oikea ihminen vai ei, suoraan tai välillisesti? Agentit myös käyttävät surutta medioiden tekijänoikeudellista sisältöä, mikä taitaa valitettavasti olla tuulimyllyjä vastaan taistelemista. Kyyninen voisi myös sanoa, että joissain medioissa tekoälyn tekemää sisältöä kuluttaa pian – tekoäly. Mihin jäi ihminen.

Riskinä on myös tietoturva. Jotta agentit pystyvät toimimaan, niille on annettava pääsy niihin järjestelmiin joissa haluat niiden toimivan, kuten vaikkapa kalenteriisi. Tässä kohtaa huomaan itse, että raja tulee vastaan, kun käytän kaupallisia ei-suljetussa järjestelmässä olevia työkaluja: en mielelläni anna niille pääsyä mihinkään, mihin ei ole pakko, koska en luota niihin tarpeeksi.

Mitä tulee mediaan ja etenkin journalismiin, agenteissa on helppo nähdä isoja mahdollisuuksia esimerkiksi tutkivien toimittajien työkaluihin: voit rakentaa helposti esimerkiksi agentin, joka kahlaa puolestasi tietoa haluamaltasi seuranta-alueelta. Tähän suuntaan jotkut mediat ovatkin jo omia tekoälytyökalujaan vieneet. Mahdollisuuksia on myös esimerkiksi personoitujen uutiskirjeiden tuunaamisessa – sellainen kun on helppo rakentaa jo nyt itse täysin haluamakseen, kuten tämäkin kokeilu osoitti.

Lue myös: Dagens Media listasi ruotsalaismedian TOP15 tekoälytyökalut – tässä esimerkit linkkeineen.

Normaali
Strategia ja liiketoiminta

Dagens Media listasi ruotsalaismedian TOP15 tekoälytyökalut – tässä esimerkit linkkeineen

Dagens Media on ruotsalainen Bonnier Newsin omistama media-alaa seuraava lehti, joka vaatii tilauksen, mutta ensimmäinen kuukausi on ilmainen. Tiivistän tähän blogiin yhden kiinnostavan artikkelin sisällön, jossa kerrotaan esimerkkejä toimitusten tekoälytyökaluista sekä asiakkaille näkyvistä hankkeista. Vinkki: Lehti on juuri alkanut julkaista Linkedinissä Dagens Media Insikt -uutiskirjettä, josta tämäkin löytyi. Uutiskirjeen toinen kiinnostava artikkeli rankkaa pisteytysjärjestelmällä mediatalojen asiakaspalvelubotit (mm. TV4, Storytel, Bonnier News, Nextstory).

Dagens Media: 15 esimerkkiä toimitusten tekoälyapureista tai asiakkaille näkyvistä tekoälyhankkeista

Käännökset ja tiivistelmät on tehty tekoälyllä. Oikeellisuuden tarkasti ihminen eli minä. Alkuperäinen juttu löytyy täältä. Olen mahdollisuuksien mukaan linkannut kunkin median työkalua käsittelevään juttuun tai itse työkaluun, mikäli kyse on asiakkaille tarkoitetusta sellaisesta, eikä toimituksen sisäisestä työkalusta.

Talargranskningen (Helsingborgs Dagblad):
Työkalu puhdistaa ja jäsentää kuntien päätäntäelinten kokousten vaikeaselkoiset lokitiedostot helposti analysoitavaan muotoon. Tekoäly muuntaa tekniset tiedostot luettavaksi dataksi, tunnistaen ja erotellen puheenvuorot, puhujat ja aiheet. Tämä mahdollistaa esimerkiksi tilastojen luomisen puheajan jakautumisesta eri puolueiden tai henkilöiden kesken. Työkalun avulla HD teki artikkelisarjan poliitikkojen aktiivisuudesta ja julkaisi koko materiaalin tietokantana lukijoiden tutkittavaksi.

Mitt i bruset AI (Dagens Industri/Di Digital):
Työkalu vastaa käyttäjien kysymyksiin erityyppisten elinkeinoelämän johtajien haastattelujen pohjalta. Järjestelmä on koulutettu Dagens Industrin tekemien haastattelujen sisällöllä. Käyttäjät voivat esittää kysymyksiä esimerkiksi johtamisesta tai siitä, miten menestyä. Tekoäly etsii ja yhdistelee olennaista tietoa haastatteluista muodostaakseen vastauksen. Tämä mahdollistaa vuorovaikutuksellisen tavan tutustua haastattelujen sisältöön ja saada käytännön vinkkejä yritysjohtajilta.

Valkompisen (Aftonbladet):
Työkalu vastaa EU-vaaleihin liittyviin kysymyksiin Aftonbladetin toimittajien kokoaman tietokannan perusteella. Käyttäjät voivat kysyä esimerkiksi puolueiden kannoista tai EU:n toiminnasta, ja tekoäly muodostaa vastaukset. Valkompisen vastasi yli 150 000 kysymykseen EU-vaalien 2024 yhteydessä.

Chef GPT (Tidningen Chef):
Työkalu luo käyttäjille johtamiseen liittyviä artikkeleita Chef-lehden 10 vuoden juttuarkistosta. Se käyttää RAG-tekniikkaa (Retrieval Augmented Generation), joka yhdistää tiedonhaun ja tekstin generoinnin. Käyttäjä voi kysyä esimerkiksi ”Miten pidän tehokkaan kehityskeskustelun?”, ja työkalu etsii olennaista tietoa arkistosta ja muodostaa sen pohjalta uuden artikkelin otsikoineen, ingresseineen ja AI-generoituine kuvineen. Käyttäjä voi esimerkiksi etsiä ratkaisuja tietyntyyppiseen johtamistilanteeseen, johon tekoäly tekee ratkaisuksi uuden artikkelin arkistomateriaalin pohjalta.

Aftonbladet Podcast Studio (Aftonbladet):
Työkalu tuottaa automaattisesti uutispodcasteja toimittajien valitsemista aiheista. Järjestelmä tiivistää valitut uutisartikkelit, luo käsikirjoituksen ja tuottaa valmiin podcast-jakson käyttäen tekoälyääntä. Toimittajat valvovat prosessia ja varmistavat journalistisen laadun. Koko tuotanto tapahtuu alle 15 minuutissa. Tämä on mahdollistanut ”Update”-nimisen päivittäisen uutispodcastin tuotannon, joka on kerännyt noin miljoona kuuntelukertaa syyskuusta 2024 lähtien.

Aftonbladet Daily Arabic (Aftonbladet ja Alkompis):
Työkalu kääntää Aftonbladetin suositun Daily-podcastin arabiaksi. Tekoäly kääntää ensin podcastin tekstin, minkä jälkeen toimittajat tarkistavat ja korjaavat käännöksen. Lopuksi teksti muunnetaan puheeksi tekoälyäänen avulla. Tämä mahdollistaa nopean ja kustannustehokkaan tavan tuottaa arabiankielistä uutissisältöä viikoittain. Podcastin avulla Aftonbladet tavoittaa arabiankielistä yleisöä, joka muuten jäisi kielimuurin takia tavoittamatta.

Lyssna på Hippson (Hippson/Everysport):
Työkalu muuntaa Hippson-lehden artikkelit äänimuotoon AI-generoidulla äänellä (esimerkki). Järjestelmä on koulutettu lehden päätoimittajan äänellä. Se analysoi artikkelin tekstin, optimoi sen puhuttavaan muotoon ja luo äänitiedoston, joka kuulostaa päätoimittajan lukemalta.

Lyssna på toppnyheter (NTM Media):
Työkalu koostaa ja lukee ääneen UNT.se-sivuston (Upsala Nya Tidning) viisi luetuinta uutista tunnin välein. Se kerää suosituimmat uutiset, tiivistää ne sopivaan muotoon ja luo niistä äänitetyn uutislähetyksen tekoälyäänen avulla. Järjestelmä tuottaa lähetyksen automaattisesti joka tunti klo 7-23, sisältäen intron ja outron. Toimitus tarkistaa jokaisen lähetyksen ennen julkaisua. Tämä mahdollistaa jatkuvan, ajantasaisen uutisvirran kuuntelijoille ja vie mediataloa lähemmäs ”fluid content”-ajattelua, jossa sama sisältö mukautuu eri formaatteihin.

Nyhetskollen (HD-Sydsvenskan):
Työkalu tiivistää yön ja aamun uutiset podcastia varten. Se analysoi useita uutisartikkeleita, tunnistaa tärkeimmät tiedot ja muodostaa niistä tiivistelmän, joka sopii ääneen luettavaksi podcastissa. Työkalu muotoilee tekstin puhekielisemmäksi ja varmistaa, että kaikki numerot ja lyhenteet on kirjoitettu auki oikeaa ääntämistä varten. Tämä säästää toimittajien aikaa kiireisessä aamutyössä ja mahdollistaa nopean uutiskatsauksen tuottamisen.

AI-kompisen (NTM Media):
Työkalu generoi otsikoita ja nostoja artikkeleihin. Järjestelmä on integroitu NTM:n toimitusjärjestelmään. Se analysoi artikkelin sisällön ja luo ehdotuksia pääotsikolle, alaotsikolle sekä printtijulkaisun nostoille. Toimittajat voivat käyttää ehdotuksia lähtökohtana ja muokata niitä tarpeen mukaan.

Automatiserad verifiering av spelare (Eliteprospects):
Työkalu tarkistaa pelaajien henkilöllisyyden automaattisesti. Se vertaa käyttäjien lähettämiä henkilötietoja ja dokumentteja Eliteprospects-sivuston tietokantaan. Jos tiedot täsmäävät, profiili voidaan verifioida automaattisesti. Epäselvissä tapauksissa tai huipputason pelaajien kohdalla järjestelmä ohjaa tapauksen manuaaliseen käsittelyyn. Tämä on säästänyt huomattavasti asiakaspalvelun aikaa.

SEO-contentgenerator (Everysport Media Group):
Työkalu luo hakukoneoptimoitua sisältöä urheiluaiheista Eliteprospects-sivustolle. Se yhdistää SEO-analyysin ja tekstin luomisen. Ensin se tunnistaa avainsanoja, joilla sivusto voisi parantaa hakukonenäkyvyyttään. Sitten se luo näihin avainsanoihin perustuvaa sisältöä, kuten otteluraportteja tai pelaajaesittelyjä. Sisältö optimoidaan automaattisesti hakukoneita varten. Tavoitteena on lisätä sivuston orgaanista liikennettä ja parantaa sen sijoituksia hakutuloksissa.

Notisgenerator (Tidningar i Norr):
Työkalu kirjoittaa uutisia poliisin ja ilmatieteen laitoksen tiedotteista. Järjestelmä seuraa reaaliajassa poliisin RSS-syötteitä ja SMHI:n säävaroituksia API:n kautta. Kun uusi tiedote ilmestyy, tekoäly muotoilee siitä uutismuotoisen tekstin. Työkalu on räätälöity huomioimaan paikalliset alueet ja tapahtumien tyypit. Luodut uutiset lähetetään toimitukselle tarkistettavaksi ennen julkaisua. Tämä mahdollistaa pienille paikallistoimituksille (2-5 henkilöä) nopean reagoinnin paikallisiin tapahtumiin ja laajemman uutistarjonnan.

Quizmakaren (Tidningar i Norr):
Työkalu luo tietovisoja julkaistujen artikkelien pohjalta (esimerkki). Se analysoi Tidningar i Norr -konsernin julkaisemia artikkeleita ja luo niiden pohjalta monivalintakysymyksiä. Se voi keskittyä esimerkiksi viikon luetuimpiin artikkeleihin tai tiettyyn aihealueeseen, kuten urheiluun tai lemmikkeihin. Tekoäly luo useita kysymysvaihtoehtoja, joista toimitus valitsee sopivimmat julkaistavaan visaan. Tämä mahdollistaa interaktiivisen sisällön tuottamisen pienillä resursseilla ja lukijoiden sitouttamisen uudella tavalla.

Nyhetsaggregator (Everysport):
Työkalu kerää, luokittelee ja arvioi uutisia eri lähteistä. Se seuraa määriteltyjä RSS-syötteitä ja verkkosivuja, analysoi uutisten otsikoita, tiivistelmiä ja metatietoja tekoälyn avulla, luokitellen uutiset aihepiireittäin ja arvioiden niiden tärkeyden. Järjestelmä myös ryhmittelee samaa aihetta käsittelevät uutiset yhteen, mikä helpottaa kokonaiskuvan muodostamista ajankohtaisista aiheista. Työkalu on vielä testivaiheessa.

Iso kuva: Thomson Reuters -säätiön raportti tekoälytyökalujen käytöstä journalisteilla – kolme nostoa

Laajemman perspektiivin hahmottamiseksi on syytä myös suositella tuoretta Thomson Reuters -säätiön raporttia, johon kysyttiin tekoälytyökalujen käytöstä 221 journalistilta 70 maassa. Ohessa koontigraafi sekä kuva, josta selviää, mitkä ovat yleisimmät tekoälyn käyttökohteet journalisteilla tällä hetkellä sekä kuva, jossa listataan yleisimmät syyt miksi tekoälytyökaluja ei käytetä.

EDIT: lisäys 7.2.2025. Alma Median journalisteille tarkoitetuista työkaluista kerrottiin 5.2. järjestetyssä tapahtumassa laajalti. Niistä voit lukea enemmän Linkedin-postauksestani.

Normaali
Yleisön ymmärtäminen & analytiikka

Data sen kertoo: suosituimpien uutisjuttujen otsikot sen kuin pitenevät

Vuoden 2024 luetuimpien uutisjuttujen otsikoissa oli keskimäärin 75 merkkiä (ilman välilyöntejä), kun sama luku vuonna 2017 oli 58 merkkiä. Otsikkopituudet ovat joka vuosi kasvaneet.

Tiedot ilmenevät vertailtaessa analytiikkayhtiö Chartbeatin luetuimpien uutisjuttujen listauksia vuosilta 2017–2024. Juttuja todella voi sanoa luetuimmiksi, sillä ne perustuvat Chartbeatin laajaan yli 5000 asiakkaan verkostoon, ja mittarina on käytetty lukuaikaa eikä klikkauksia. Suurin osa on englanninkielisiä.

Vuonna 2024 merkkimäärältään pisimpiä (113) otsikoita oli esimerkiksi “An Ohio toddler died after her mom left her home alone while she took a 10-day vacation. A judge called it the ’ultimate act of betrayal”.

Vuoden 2024 luetuimpiin juttuihin pääset täältä. Sivun alaosasta kohdasta ”Most Engaging Stories Archive” pääset vuosiarkistoihin. Huomioitavaa on myös, että nykyään verkkojutuilla voi olla useita otsikoita, esimerkiksi hakukoneita varten omansa ja uutisetusivuilla omansa.

Blogin pääkuva: sanapilvi kuvastaa vuosien 2017–2024 luetuimpien juttujen yleisimpiä sanoja. Graafi on laadittu Chartbeatin listojen otsikoista. Graafista puuttuu vuosi 2020, jolloin listauslogiikka oli erilainen.

Normaali
Strategia ja liiketoiminta

Median arvoketjun muutoksesta “liquid contentiin” – Hesarin tekoälypomo avasi lehden tekoälyajattelua Tampereen yliopiston luennolla

Helsingin Sanomien kehitysjohtaja Esa Mäkinen avasi Tampereen yliopiston luennolla tiistaina, missä tekoälyn kehityksessä yleisesti mennään ja erityisesti, miten se vaikuttaa media-alaan nyt ja tulevaisuudessa.

Luento oli osa journalistiikan työelämäprofessori Laura Saarikosken Journalismin iltapäivä -luentosarjaa, joka on kuunneltavissa suorana yliopiston paikallisradiosta Radio Moreenista.

Tiivistän tähän blogiin väliotsikoiksi eräitä teemoja, joista Mäkinen puhui. Otsikoiden jälkeiset sitaatit ovat Mäkisen.

Median arvoketjun muutos & tekoäly ja tulevaisuus

“Journalistinen prosessi pitää pilkkoa palasiksi, jotta voidaan keskustella, mitä tekoäly mahdollistaa tai ei mahdollista. Olemme hahmotelleet [HS:ssä] tällaista karkeaa jakoa, jossa toimittajan työvaiheista ideointiin kuluu 10 prosenttia, tiedonhankintaan ja haastatteluihin 40 prosenttia, jutun kirjoitukseen tai muuhun tuottamiseen noin 30 prosenttia, editointiin 10 prosenttia ja julkaisuun 10 prosenttia ajasta. Jos tästä katsotaan, mitä voidaan automatisoida, se on etenkin tuo tiedonhankinta. Monissa medioissa on nykyään esimerkiksi jonkinlainen vehje, jolla litteroidaan haastatteluja – HS:llä ja Almalla Good Tape ja Ylellä itserakennettu systeemi.”

“Mutta toimittajan työprosessi ei ole suinkaan ainoa asia [arvoketjussa]. Kyse on siitä, miten median koko arvoketju muuttuu. Arvoketjussa on tiedonhankintaa, tuotantoa, jakelua ja kulutusta. Tiedonhankinta ja sisällöntuotanto olivat tuolla toimittajan työprosessissa, mutta kun mennään jakeluun ja kulutukseen, niin siellä mediataloilla ei ole välttämättä paljoa vaikutusmahdollisuutta siihen. Tekoälyn kehitys ei välttämättä vie meitä tulevaisuuteen, jossa olemme jonkin arvoketjun osia esimerkiksi niin, että käyvätkö ihmiset meidän palveluissamme, jotta voimme myydä heille tilauksia tai mainoksia.”

Mitä media itse juuri nyt tekoälyllä tekee, tapahtuu etenkin tiedonhankinnan ja sisällöntuotannon saralla. Hyvin vähän näkyy jakeluun ja kulutukseen liittyviä innovaatioita. Esimerkiksi Samsungin kännyköissä on nyt vakiona selain, joka tekee artikkeleista tiivistelmiä. Tekoälyn avulla tiivistelmiä teki myös Artifact-sovellus, mutta sen toiminta on loppunut. Tämä on ehkä se keskeinen kysymys, johon en osaa vastata, että miltä se hevoskärryistä autoksi muuttuminen [viittaus aiempaan alustukseen] media-alalla tulee näyttämään. Jonkinlainen muutos varmasti tapahtuu 3–5 vuoden säteellä, mutta jos joku sanoo, että hänellä on varmaa tietoa, sanoja vähintäänkin liioittelee omaa osaamistaan.”

Miten toimittajan kannattaisi varautua näihin muutoksiin?

[tätä vastausta edelsi taustoitus digimuutoksesta kuten printti-digi-siirtymästä digin muutokseen, jossa digin sisällä tapahtuu paljon kehityskulkuja]

”Pitäisi katsoa paljon pystyvideoita ja tehdä niitä itse, pitäisi kuunnella paljon podcasteja ja tehdä niitä itse, ja kolmanneksi pitäisi opetella käyttämään Anthropicin Claudea tai muita vastaavia tekoälytyökaluja itse [läsnäolleista opiskelijoista noin puolet oli käyttänyt tekoälytyökaluja]. Eli suosittelen hankkimaan maksullisen chatpalvelun ja käyttämään sitä opiskelussa mahdollisimman paljon.”

Liquid Content vs. pink slime

Mäkinen viittasi alustuksessaan syväoppivaa tekoälyä tutkivan Googlen Deepmindin luovan johtajan Matthie Lorrainin ajatukseen “liquid contentista” eli käytännössä sisältöjen muokkautuvuuteen eri päätelaitteilla. Lorrainin ajattelussa tämä mullistaa sen, miten mediaa jaellaan tai kulutetaan tulevaisuudessa. Mäkinen:

Liquid contentiin liittyvä esimerkki on intialainen startup, joka lupaa tuottavansa videon mistä tahansa artikkelista viidessä minuutissa, joka sisältää myös ihmistoimittajan faktantarkistukseen käyttämän ajan. Norjalainen VG tekee jo aika paljon tämänkaltaista. Oslossa junissa ja kuntosaleilla on VG:n videotauluja, joissa on heidän artikkeleistaan tehtyä sisältöä. Lopputuotteet ovat aika yksinkertaisia, eivät valtavan ihmeellisiä asioita, mutta todennäköisesti katsojan kannalta riittävän hyviä. Ja ne pitävät paikkansa.

”Tekoäly mahdollistaa sisällön muodon muuttamisen toiseen suhteellisen helposti. Kunnianhimoisimmassa ajattelussa se on kuluttajan päätelaite, joka määrittelee, miten sisältö mukautuu kulloiseenkin käyttötarpeeseen osittain tai täysin automaattisesti.”

”Toinen puoli on ’pink slime’, eli ajatus jossa internet täyttyy geneerisestä roskasta. Jenkeissä on paljon sivustoja, jotka ottavat jotain random urheilutuloksia tai tiedotteita paikallisilta alueilta ja leipovat niistä semiuskottavan näköisen median. Instassa näkyy paljon sisältöjä, joista huomaa, että ne on tehty tekoälyllä…on blurrit taustat ja etualalla virheetön ihminen. Pink slime tulee täyttämään ensimmäiseksi todennäköisesti somen. Kun kysytään miten pärjäämme tulevaisuudessa, niin tuollaisessa maailmassa, jossa kaikki sisältö on vapaasti liikkuvaa, medioiden rooli kapenee yhdenlaiseksi. Voi toisaalta olla sellainenkin tilanne, että luotettava sisältö päätyykin yhtäkkiä merkittävään asemaan.”

”Kuvan todistusvoima on jo hävinnyt”

Helsingin Sanomat on aiemmin linjannut, että se ei julkaise tekoälyllä tehtyjä kuvia, mutta Mäkisen mukaan lopulta tuli eteen tapaus, jossa ”sellainen oli pakko julkaista”. Tässä tapauksessa kuvan päälle poltettiin merkintä, josta asia selviää. Näin merkintä näkyy myös, jos kuvaan päätyy suoraan hakukoneen kautta.

Mäkisen mielestä kielimallit olivat jo vuosi sitten kehittyneet siihen pisteeseen, että se tekee niin sanotusti virheetöntä jälkeä.

”Ne ovat niin hyviä, että ei ole mitään keinoa enää erottaa…kuvan todistusvoima on jo hävinnyt, mutta emme ole vielä sitä yhteiskuntana konkreettisesti ymmärtäneet.”

Mihin toimittajia tarvitaan?

”Kehitys, jossa tehdään vähemmällä enemmän, johtaa uusiin ammatteihin ja innovaatioihin, joita emme osaa tällä hetkellä kuvitella. Tällä hetkellä toimittajia tarvitaan keksimään niitä uusia toimenkuvia. Työmäärä ei välttämättä vähene, mutta työn luonne tulee muuttumaan toisenlaiseksi.
Toinen vastaus on klassiset journalistiset hyveet. Toimittajia tarvitaaan edelleen siihen, kun maailmassa tapahtuu paljon asioita, joista ei ole saatavissa digitaalista jälkeä, kuten läsnäolo Ukrainassa. Ne jotka ovat olleet keikoilla, tietävät, että se on hidasta ja aikaavievää. Uskon, että saamme tehdä tulevaisuudessa enemmän [tätä], kun taas koneet tekevät töitä, joita emme oikeastaan haluaisikaan tehdä.”

Normaali
Yleisön ymmärtäminen & analytiikka

Pitopisteytyksestä timanttikonversioon – Hesarin uutispäällikkö avasi lehden mittaamista Tampereen yliopiston luennolla

Helsingin Sanomien tilauksista vastaava uutispäällikkö Jaakko Kangasluoma avasi Tampereen yliopiston luennolla tiistaina, millä eri tavoilla lehdessä mitataan ja analysoidaan sisältöjä.

Luento oli osa journalistiikan työelämäprofessori Laura Saarikosken Journalismin iltapäivä -luentosarjaa, joka on kuunneltavissa suorana yliopiston paikallisradiosta Radio Moreenista.

Käynnit (Jaakko Kangasluoman sitaatit luennolta radiolähetyksessä kuullun pohjalta)

“Perusyksikkö. Varsinkin jos teemme isotöisen jutun, sen pitää löytää lukijansa. [Mainitsee esimerkkijutun, jonka käyntimäärät ‘vuoden kovimpia’] tässä oli 429 000 käyntiä – joka ei siis vielä tarkoita eri ihmisiä – ja mukana on myös muuritörmäyksiä eli heitä jotka ovat avanneet mutta jättäneet lukematta jutun, mutta jutun lukeneita suomalaisia oli arviolta 250–300 000, mikä on todella hyvä.”

Timantit

Timanttiluku kertoo, miten jutun maksumuuri on tuottanut tilauksia. [esimerkkijuttu tuotti] 1560 timanttia, joka on jo tosi hyvä. 100–200 timanttia katsotaan jo onnistuneeksi jutuksi. Lähtökohta on että yksi näytetilaus, joka on ilmainen, on yhden timantin arvoinen. Yksi maksullinen tilaus voi tuottaa 5–50 timanttia, [koska tilausvaihtoehtoja on erilaisia]. Jos ihminen maksumuuriin törmättyään ottaa jonkun muun kuin kaikkein halvimman ja lyhimmän tilauksen, voi ehkä ajatella, että hänellä on jonkinlainen ajatus myös pysyä tilaajana. Jos me julkaistaan 100–130 maksullista juttua viikossa, tilauksia tulee hyvin pieninä virtoina. Koko potti ratkaisee.”

Timanttikonversio

“Timanttikonversio on luku, jota seuraamme tosi tarkkaan. Se kertoo muuritörmäysten ja timanttien suhteen. Se auttaa ymmärtämään, miten juttu osui tilaajiin. Siinä on tosi isoja sisällöllisiä eroja, joita seuraamalla voidaan oppia paljon esimerkiksi siitä, millaiset aiheet kolahtavat tai minne maksumuuri pitää jutussa laittaa.”

Käytetty aika

“Käsitys lukemisen laadusta on se, mistä me paljon puhutaan. Kaiken ei tarvitse olla massaa ja vyöryttää meille timantteja. [Tässä esimerkkijutussa] tilaajien keskimääräinen lukuaika oli 7–8 minuuttia, mikä on hyvä lukuaika. Se oli 13 000 merkin juttu, joka piti tilaajat hyvin otteessaan.”

Skrollisyvyys

“Skrollisyvyys tarkoittaa, kuinka pitkälle lukijat lukevat juttuja – esimerkiksi, kuinka suuri osa loppuun asti. Oleellista on, että pääsemme vertailemaan juttujen eroja ja pohtimaan sitä, että jos esimerkiksi jossain jutussa lukeminen on alkanut hyvin ja otsikko on kiinnostanut, mutta sitten romahtanut puolessavälissä, niin minkä takia lukeminen on jätetty kesken. Sieltä löytyy kerronnallista parannettavaa ja muuta oppia. Kerran romahdus johtui siitä, että oli laitettu kolme kuvaa peräkkäin jutun keskelle, jolloin lukija luuli, että juttu loppuu siihen.”

Pitopisteet

“Olemme luoneet tällaisen kuin pitopisteiden mittarin. Sillä mitataan tilaajien tyytyväisyyttä. Eli jos tietty määrä tilaajia käy lukemassa, lukee sitä riittävän pitkään [ajallisesti] ja lukee sitä loppuun, juttu saa silloin täydet pitopisteet. Hyvien pitopisteiden jutut voivat olla hyvin erilaisia.”

Kuten alalla yleensäkin, Kangasluoman mukaan Helsingin Sanomissa seurataan myös reaaliaikaista analytiikkaa, kuten sitä, montako ihmistä jutuissa on ollut edellisten viiden minuutin aikana, tai sitä, moniko selain on nähnyt etusivun otsikon edellisten viiden minuutin aikana. Otsikointiin käytetään paljon aikaa. Yhdestä jutusta saattaa pyöriä etusivulla 6–7 eri otsikkoversiota ja datasta voidaan katsoa, kuinka monta prosenttia otsikon nähneistä klikkaa sitä. 

“Se on tavallaan armotonta, mutta ilman mittaamista emme ymmärrä, mitä tilaajat haluavat. Samaan aikaan tulee myös epäonnistumisia, ja nekin pitää vaan lusia. On tehty suurella panoksella isoja juttuja, joihin kukaan ei ole koskenutkaan. Se on pelin henki, mutta epäonnistuminen on kivempi ottaa vastaan yhdessä porukalla”.

Kuvituskuva: Stable Diffusion.

Normaali
Strategia ja liiketoiminta, Yleisön ymmärtäminen & analytiikka

Tervetuloa aikamatkalle media-alalle: TOP25-luetuimmat Numeroiden takaa -blogikirjoitukseni 2017–2024

Mistä media-alalla puhuttiin vuonna 2017? No ainakin Facebook-videoista. Tuolloin FB:n potentiaaliin suhtauduttiin mediataloissa vielä toiveikkaasti. Yhdenlainen ajankuva koko toimialalta – on kyse sitten uutisista tai suoratoistosta – piirtyy blogikirjoituksistani, joita olen tehnyt seitsemän vuoden ajan.

Kokosin luetuimmat blogikirjoitukseni samaan pakettiin, vuosi kerrallaan. Klikkaa otsikkoa lukeaksesi jutun (avautuu uuteen ikkunaan).

2017

Näistä aineksista syntyy hyvä Facebook-video

Analytiikan tulevaisuus on siinä, kenen elämään oikeasti vaikutit, sanoo blogivieras Jaakko Lempinen

Look at these numbers and be amazed – “creating communities is much more interesting than virality”, says Joel Willans, the creator of Very Finnish Problems and co-founder of Ink Tank Media

2018

Kaikkea kaikille on ei mitään kenellekään, muistuttaa Milttonin some- ja digistrategiapomo Niku Hooli

Blogivieras Atte Jääskeläinen: Journalismin julkinen arvo jää höttöpuheeksi, jos sitä ei yritetä mitata

Nyt se tapahtui: FB-sivujen tavoittavuudet laskevat, koska Facebook muutti tapaa, jolla se määrittelee tavoittavuuden

2019

Maailman suurin uutistutkimus taas julki, tässä tärkeimmät havainnot

Näin nuoret kuluttavat uutisia – tuore Reuters-raportti listaa, miten perinteisen median on muututtava

Former Head of Buzz at Buzzfeed Tabatha Leggett now works in Finland so we had a chat about measuring success and the future of media

2020

Tästä syystä FB-sivusi seuraajien määrä on eri kuin tykkääjien

Näin löydät Tiktokin analytiikkatiedot, ja tämän kaiken saat niistä irti

Vaikuttavuuden mittaaminen mediassa – teoria(t), käytäntö ja tulevaisuus

2021

Amy Webbin trendijärkäle julki: Cancel-kulttuurista häivytettyyn todellisuuteen – nämä asiat nousevat mediassa vuonna 2021

Digikasvua, yritysostoja, muutakin kuin mediaa – tässä suomalaisten mediayhtiöiden strategiat pähkinänkuoressa

Tässä Digital News Report 2021:n Suomen-päähavainnot – maailman suurin uutistutkimus taas julki

2022

Reutersin odotettu 2022-ennakointi media-alalle julkaistiin – vertailin myös aiempien kolmen raportin osumatarkkuutta

Pähkinänkuoressa 14+ trendipakettia vuodelle 2023 – tällaisia muutoksia mediaan ennakoidaan

Uutisluottamus pompsahti Suomessa: Digital News Report 2022 on julki – tässä päähavainnot

2023

Yleensä osumatarkan Reuters-instituutin 2023-ennakointi media-alalle julki – tässä 9 poimintaa

Yhdeksän mediayhtiön strategiat superlyhyesti (+suorat linkit koko strategioihin)

ChatGPT: Nämä asiat yhdistävät Helsingin Sanomien, Ilta-Sanomien ja Iltalehden suosituimpia uutisotsikoita

HVOD, AVOD, TVOD, SVOD, BVOD, OTT, FAST…TV-bisneksen lyhenneralli kertoo rahoitusmallien erottelusta ja ilmatilan ottamisesta

2024

800 sivua trendiraportteja vuodelle 2024 pariinkymmeneen slaidiin puristettuna, ole hyvä

19 nostoa mediasta futuristi Amy Webbin 979 sivun trendijärkäleessä

Media-alan kuulumiset suoraan mailiisi? Tässä 17 alaa seuraavaa uutiskirjettä tilauslinkkeineen meiltä ja maailmalta

Normaali
Strategia ja liiketoiminta

5+1 esimerkkiä Suomesta ja maailmalta, millaisia omia tekoälytyökaluja uutismedioissa käytetään

Pidemmittä johdannoitta listaan tähän lähdelinkkeineen esimerkkejä tekoälytyökaluista, joita mediataloissa käytetään toimituksellisen työn apuna. Lista perustuu julkisesti löydettävissä oleviin lähteisiin, jotka olen linkannut asiayhteyteen. Lista on uutistoimituspainotteinen, vaikka työkaluja käytetään muuhunkin.

SUOMI

Alma Media –  mm. “vastaväittelijä”-toiminto, tekstin muuttaminen puheeksi koneäänen avulla, tekstien tiivistäminen, kuvatekstien automaattinen luominen, kääntäminen…

Alma Median vuoden 2024 puolivuotiskatsauksessa todetaan, että uusi AI-tiimi aloitti työnsä “ja ensimmäiset toimituksellista työtä avustavat työkalut otettiin käyttöön”.

Lähteet: Alma Median puolivuotiskatsaus 2024 ja Mediapäivä 2024 -tilaisuus, Suomen Lehdistö.

Yleisradio – YleGPT: mm. tekstimassojen tiivistäminen, otsikoiden generoiminen, kääntäminen, haastattelukysymysten luominen, sisältöprojektien suunnittelu…

Lähde: “Ihmisen ja koneen liitto: Voitto-robotti aurasi tietä YleGPT:lle”

Sanoma – tiivistäminen, ennakoiva otsikkoanalytiikka ja ehdotukset toimittajille…

Helsingin Sanomien ja Ilta-Sanomien yhteinen tekoälytiimi aloitti työnsä alkuvuonna 2024. Sen tehtävänä on “testata, ideoida ja myös kriittisesti arvioida omaan työhön vaikuttavia työkaluja”. Työkaluista ei ole kovin paljoa julkisesti saatavilla olevaa tietoa. Joitain esimerkkejä on mainittu Sanoman toimitusjohtajan Rob Kolkmanin esityksessä vuodelta 2024 (sivu 13).

Lähteet: HS ja IS perustavat yhteisen teko­äly­tiimin, Sanoman toimitusjohtajan Rob Kolkmanin esitys 2024, sivu 13

RUOTSI

Aftonbladet (omistaja norjalainen Schibsted) – Jatkojuttuehdottaja, kuvan tekstikuvailu, väliotsikoija, SEO-optimoija, oikolukija, Tiktok-käsikirjoittaja…

Lähde & kuvia Aftonbladetin käyttämistä työkaluista: Aftonbladet serves up innovation with AI buffet 

YHDYSVALLAT

Washington Post – “Neulaa-heinäsuovasta-etsijä” laajojen tietomassojen käsittelyyn

Washington Post julkaisi 18. elokuuta ensimmäisen jutun, joka perustuu uuden Haystacker-nimisen tekoälytyökalun käyttöön. Työkalu mahdollistaa suurten tietomäärien seulomisen ja niistä erilaisten ilmiöiden ja trendien havaitsemisen. WP:n teknologiajohtajan mukaan kaupalliset yleiskäyttöiset työkalut eivät pysty vastaavaan. Toistaiseksi työkalua käyttävät visuaalisen journalismin tekijät ja datajournalistit.

Ensimmäinen Haystackerilla tehty juttu käsitteli 700:aa maahanmuuttoa käsittelevää vaalimainosta ja sitä, miten kuvia tai tekstiä oli manipuloitu harhaanjohtavien väitteiden luomiseksi. Haystacker mm. otti automaattisesti stillejä mainosvideoista.

WP:n mukaan Haystackeria voidaan käyttää missä tahansa suuressa tietoaineistossa, joka on käytettävissä joko julkisen rajapinnan kautta tai toimitukselle suoraan annettuna.

Lähteet: Axios, Washington Post

+ bonus: aihetarjonnan monipuolisuusmittari eli amerikkalaisten yliopistotutkijoiden kehittämä Media Bias Detector

Nimestään huolimatta tämä työkalu ei ota kantaa uutisjuttujen puolueettomuuteen, vaan mittaa käytännössä juttuaiheiden tarjonnan monipuolisuutta: sitä, montako juttuartikkelia mistäkin aihepiiristä on tietyllä ajanjaksolla kussakin mediassa ollut. Tekoälyn rooli työkalussa on tehdä sellaista sisältöanalyysiä, jota vielä muutama vuosi sitten teki ihminen. Esimerkkikuva alla.

Lähteet: Tech Times, Media Bias Detector (työkalusivu, josta voi selailla kuvanäkymiä).

Normaali