Termiä tekoälyagentti käytetään nykyään melko hövelisti, mutta alun perin sillä on viitattu tekoälyn kykyyn hoitaa peräkkäisiä tehtäviä automaattisesti.
Tässä kirjoituksessa käsittelemäni esimerkki on tehty lontoolaisen startupin Convergence AI:n Proxy-työkalulla, jolle antamani komento oli seuraava:
Käy läpi suomalaismedioiden Ilta-Sanomat, Iltalehti, Yle, Helsingin Sanomat ja Keskisuomalainen verkkosivujen osa, joka kertoo luetuimmat jutut sillä hetkellä. Tämän jälkeen laadi taulukko, joka sisältää kunkin median nimen, viisi luetuinta otsikkoa, niiden keskimääräisen merkkimäärän (ilman välilyöntejä) sekä kolme pointtia, mitkä seikat yhdistävät kunkin tiedotusvälineen luetuimpia juttuja.
”Normaali” keskusteleva tekoälytyökalu ei kykenisi tekemään tämänkaltaista moniosaista tehtävää, mutta Proxyllä tässä kesti noin viisi minuuttia, eikä se tarvinnut täsmentäviä ohjeita, mitä se joskus kysyy. Proxyn tekoäly siis käytännössä käy promptissa mainituilla sivustoilla ja etsii niiden luetuimmat-osiot. Muutaman kohdalla tekoäly meni niille googlaamalla ensin ”Iltalehti luetuimmat”, osan kohdalla menemällä suoraan palvelun etusivulle ja etsimällä sieltä luetuimmat-osion. Proxy tarvitsi tehtävän toteuttamiseen 17 vaihetta, joista viimeinen oli pyytämäni taulukko. Kauneusvirhe oli se, että Proxy ei kyennyt tekemään taulukkoa täydellisenä Markdown-versiona keskustelunäkymään, eikä liitetiedostona, vaan tiedot oli itse kopioitava käsin tässä tapauksessa Google Sheetsiin:
Proxyn työstönäkymä näytti tältä:
Huono asia perinteisen median kannalta on ainakin se, että Proxy näyttäisi ohittavan sivustojen blokkausyritykset tekoälyille mm. ottamalla sivustoilta kuvakaappauksia. Median vinkkelistä tekoälyagenteille on helppo nähdä myös mahdollisuuksia, vaikkapa tutkivien toimittajien omiin seuranta-alueisiin erikoistuneiden tekoälyapureiden rakentamiseen. Kävin tätä puolta hieman enemmän läpi aiemmassa blogikirjoituksessani.
Tekoälyagenttien yleistymisen vaikutukset media-alaan ja esimerkiksi tutkivien journalistien tekoälytyökaluihin ovat tämänkin kokeilun perusteella ilmeiset. Riskitkin on helppo nähdä.
Tekoälybotit on suunniteltu pääasiassa vuorovaikutukseen ihmisten kanssa, kun taas tekoälyagentit pystyvät suorittamaan monimutkaisia ja peräkkäisiä tehtäviä itsenäisesti – käytännössä esimerkiksi käymään erilaisissa tietokannoissa puolestasi ja parhaimmillaan lähettämään tulokset ajastettuna sähköpostiisi vaikka maanantaiaamuisin kello 9.
En ole itse teknologian syväosaaja, vaan pikemminkin teknologiaan kriittis-innostuneesti suhtautuva umpihumanisti, joten päätin kirjata kokeiluni talteen myös tänne blogiin.
Kokeilin tekoälyagentin luomiseen ensin Zapier AI -nimistä palvelua, mutta se oli omaan makuuni hieman liian monimutkainen. Hollannin yleisradion strategiajohtajan Ezra Eemanin Wayfinder-uutiskirjeestä bongasin brittiläisen startupin Convergence AI:n Proxy-nimisen uuden palvelun, joka osoittautui käytettävyydeltään niin helpoksi, että se hakkasi Zapierin mennen tullen. Proxyä voi toistaiseksi käyttää useamman kerran päivässä ilmaiseksi.
Maksullisista tekoälytyökaluista käytän itse tällä hetkellä päivittäin Perplexityä (noin 20e/kk), mutta siinä ei vielä tällaista agentinluomismahdollisuutta ole – tosin veikkaan, että pian on, sillä alusta päivittää mm. kielimallejaan ja ominaisuuksiaan koko ajan, viimeisimpänä Deep Researchillä, joka leipoo aiheesta kuin aiheesta pelottavan hyviä akateemisen tason analyysejä lähdeviitteineen.
Kuvaile chat-ikkunassa, mitä haluat tehdä. Lähtöteksti on englanniksi, mutta voit keskustella normaalisti suomeksi. Valittavana on myös oletustehtäviä, kuten erilaiset uutistiivistelmät.
Voit täsmentää ohjeita matkan varrella.
Harrastan sukututkimusta, joten kokeilin siihen liittyvällä esimerkillä. Pyysin Proxyä hakemaan tietoa Kansalliskirjaston vanhojen lehtien digitoidusta tietokannasta siten, että saisin tiivistelmän aina tuoreimmista lisäyksistä, joissa sukunimeni mainitaan. Näin keskusteluni eteni:
“Mene osoitteeseen digi.kansalliskirjasto.fi, etsi tietoa nimellä “Pirhonen”, jäsennä tulokset muotoon “viimeksi lisätyt” ja kerro tuoreimmat 3 tulosta bullet pointeina niin, että mainitset lehden nimen, lehden julkaisupäivämäärän sekä lyhyesti kontekstin, jossa nimi Pirhonen esiintyy.”
Tällä komennolla sain ensin englanninkielisen tuloksen, joten täsmensin:
“Voisitko antaa tulokset suomen kielellä”.
Tämän jälkeen sain tuloksen, joka ei kuitenkaan ole aivan sitä mitä tarkoitin eli viimeksi lisätyt eivät ole ensin:
Täsmensin komentoa lisää:
“Muuta hakuasetuksia oikeasta yläkulmasta muotoon ’Viimeksi’ lisätyt, jolloin hakutuloksissa näkyy viimeksi lisätty tulos.”
Tämän jälkeen sain tuloksen, joka oli muuten ok, mutta halusin konteksti-kohdasta vielä hieman selkeämmän:
“Kerro kontekstista hieman tarkemmin niin, että asiayhteyden ymmärtää paremmin.”
Tämän jälkeen Proxy antoi juuri oikeanlaisen ja kaipaamani tuloksen:
Halutessani voisin pyytää Proxyä tekemään saman haun vaikkapa joka maanantai ja lähettämään tulokset sähköpostiini. Tämä toiminto ei kuitenkaan näytä käytännössä toimivan ainakaan vielä täydellisesti, vaikka joihinkin oletustehtäviin Proxy sitä jo tarjoaa. Tuloksen Proxy kyllä lähettää sähköpostiin, mutta ei ajastettuna, vaan pienellä viiveellä kunkin haun jälkeen.
Uhkia ja mahdollisuuksia
Joka tapauksessa on helppo nähdä, millaisia sekä mahdollisuuksia että uhkia tekoälyagentit tuovat media-alalle. Tulevaisuudessa agenttimaisten sisällönkuluttajien osuus epäilemättä kasvaa – mistä tiedät, onko taustalla oikea ihminen vai ei, suoraan tai välillisesti? Agentit myös käyttävät surutta medioiden tekijänoikeudellista sisältöä, mikä taitaa valitettavasti olla tuulimyllyjä vastaan taistelemista. Kyyninen voisi myös sanoa, että joissain medioissa tekoälyn tekemää sisältöä kuluttaa pian – tekoäly. Mihin jäi ihminen.
Riskinä on myös tietoturva. Jotta agentit pystyvät toimimaan, niille on annettava pääsy niihin järjestelmiin joissa haluat niiden toimivan, kuten vaikkapa kalenteriisi. Tässä kohtaa huomaan itse, että raja tulee vastaan, kun käytän kaupallisia ei-suljetussa järjestelmässä olevia työkaluja: en mielelläni anna niille pääsyä mihinkään, mihin ei ole pakko, koska en luota niihin tarpeeksi.
Mitä tulee mediaan ja etenkin journalismiin, agenteissa on helppo nähdä isoja mahdollisuuksia esimerkiksi tutkivien toimittajien työkaluihin: voit rakentaa helposti esimerkiksi agentin, joka kahlaa puolestasi tietoa haluamaltasi seuranta-alueelta. Tähän suuntaan jotkut mediat ovatkin jo omia tekoälytyökalujaan vieneet. Mahdollisuuksia on myös esimerkiksi personoitujen uutiskirjeiden tuunaamisessa – sellainen kun on helppo rakentaa jo nyt itse täysin haluamakseen, kuten tämäkin kokeilu osoitti.
Dagens Media: 15 esimerkkiä toimitusten tekoälyapureista tai asiakkaille näkyvistä tekoälyhankkeista
Käännökset ja tiivistelmät on tehty tekoälyllä. Oikeellisuuden tarkasti ihminen eli minä. Alkuperäinen juttu löytyy täältä. Olen mahdollisuuksien mukaan linkannut kunkin median työkalua käsittelevään juttuun tai itse työkaluun, mikäli kyse on asiakkaille tarkoitetusta sellaisesta, eikä toimituksen sisäisestä työkalusta.
Talargranskningen (Helsingborgs Dagblad): Työkalu puhdistaa ja jäsentää kuntien päätäntäelinten kokousten vaikeaselkoiset lokitiedostot helposti analysoitavaan muotoon. Tekoäly muuntaa tekniset tiedostot luettavaksi dataksi, tunnistaen ja erotellen puheenvuorot, puhujat ja aiheet. Tämä mahdollistaa esimerkiksi tilastojen luomisen puheajan jakautumisesta eri puolueiden tai henkilöiden kesken. Työkalun avulla HD teki artikkelisarjan poliitikkojen aktiivisuudesta ja julkaisi koko materiaalin tietokantana lukijoiden tutkittavaksi.
Mitt i bruset AI (Dagens Industri/Di Digital): Työkalu vastaa käyttäjien kysymyksiin erityyppisten elinkeinoelämän johtajien haastattelujen pohjalta. Järjestelmä on koulutettu Dagens Industrin tekemien haastattelujen sisällöllä. Käyttäjät voivat esittää kysymyksiä esimerkiksi johtamisesta tai siitä, miten menestyä. Tekoäly etsii ja yhdistelee olennaista tietoa haastatteluista muodostaakseen vastauksen. Tämä mahdollistaa vuorovaikutuksellisen tavan tutustua haastattelujen sisältöön ja saada käytännön vinkkejä yritysjohtajilta.
Valkompisen (Aftonbladet): Työkalu vastaa EU-vaaleihin liittyviin kysymyksiin Aftonbladetin toimittajien kokoaman tietokannan perusteella. Käyttäjät voivat kysyä esimerkiksi puolueiden kannoista tai EU:n toiminnasta, ja tekoäly muodostaa vastaukset. Valkompisen vastasi yli 150 000 kysymykseen EU-vaalien 2024 yhteydessä.
Chef GPT (Tidningen Chef): Työkalu luo käyttäjille johtamiseen liittyviä artikkeleita Chef-lehden 10 vuoden juttuarkistosta. Se käyttää RAG-tekniikkaa (Retrieval Augmented Generation), joka yhdistää tiedonhaun ja tekstin generoinnin. Käyttäjä voi kysyä esimerkiksi ”Miten pidän tehokkaan kehityskeskustelun?”, ja työkalu etsii olennaista tietoa arkistosta ja muodostaa sen pohjalta uuden artikkelin otsikoineen, ingresseineen ja AI-generoituine kuvineen. Käyttäjä voi esimerkiksi etsiä ratkaisuja tietyntyyppiseen johtamistilanteeseen, johon tekoäly tekee ratkaisuksi uuden artikkelin arkistomateriaalin pohjalta.
Aftonbladet Podcast Studio (Aftonbladet): Työkalu tuottaa automaattisesti uutispodcasteja toimittajien valitsemista aiheista. Järjestelmä tiivistää valitut uutisartikkelit, luo käsikirjoituksen ja tuottaa valmiin podcast-jakson käyttäen tekoälyääntä. Toimittajat valvovat prosessia ja varmistavat journalistisen laadun. Koko tuotanto tapahtuu alle 15 minuutissa. Tämä on mahdollistanut ”Update”-nimisen päivittäisen uutispodcastin tuotannon, joka on kerännyt noin miljoona kuuntelukertaa syyskuusta 2024 lähtien.
Aftonbladet Daily Arabic (Aftonbladet ja Alkompis): Työkalu kääntää Aftonbladetin suositun Daily-podcastin arabiaksi. Tekoäly kääntää ensin podcastin tekstin, minkä jälkeen toimittajat tarkistavat ja korjaavat käännöksen. Lopuksi teksti muunnetaan puheeksi tekoälyäänen avulla. Tämä mahdollistaa nopean ja kustannustehokkaan tavan tuottaa arabiankielistä uutissisältöä viikoittain. Podcastin avulla Aftonbladet tavoittaa arabiankielistä yleisöä, joka muuten jäisi kielimuurin takia tavoittamatta.
Lyssna på Hippson (Hippson/Everysport): Työkalu muuntaa Hippson-lehden artikkelit äänimuotoon AI-generoidulla äänellä (esimerkki). Järjestelmä on koulutettu lehden päätoimittajan äänellä. Se analysoi artikkelin tekstin, optimoi sen puhuttavaan muotoon ja luo äänitiedoston, joka kuulostaa päätoimittajan lukemalta.
Lyssna på toppnyheter (NTM Media): Työkalu koostaa ja lukee ääneen UNT.se-sivuston (Upsala Nya Tidning) viisi luetuinta uutista tunnin välein. Se kerää suosituimmat uutiset, tiivistää ne sopivaan muotoon ja luo niistä äänitetyn uutislähetyksen tekoälyäänen avulla. Järjestelmä tuottaa lähetyksen automaattisesti joka tunti klo 7-23, sisältäen intron ja outron. Toimitus tarkistaa jokaisen lähetyksen ennen julkaisua. Tämä mahdollistaa jatkuvan, ajantasaisen uutisvirran kuuntelijoille ja vie mediataloa lähemmäs ”fluid content”-ajattelua, jossa sama sisältö mukautuu eri formaatteihin.
Nyhetskollen (HD-Sydsvenskan): Työkalu tiivistää yön ja aamun uutiset podcastia varten. Se analysoi useita uutisartikkeleita, tunnistaa tärkeimmät tiedot ja muodostaa niistä tiivistelmän, joka sopii ääneen luettavaksi podcastissa. Työkalu muotoilee tekstin puhekielisemmäksi ja varmistaa, että kaikki numerot ja lyhenteet on kirjoitettu auki oikeaa ääntämistä varten. Tämä säästää toimittajien aikaa kiireisessä aamutyössä ja mahdollistaa nopean uutiskatsauksen tuottamisen.
AI-kompisen (NTM Media): Työkalu generoi otsikoita ja nostoja artikkeleihin. Järjestelmä on integroitu NTM:n toimitusjärjestelmään. Se analysoi artikkelin sisällön ja luo ehdotuksia pääotsikolle, alaotsikolle sekä printtijulkaisun nostoille. Toimittajat voivat käyttää ehdotuksia lähtökohtana ja muokata niitä tarpeen mukaan.
Automatiserad verifiering av spelare (Eliteprospects): Työkalu tarkistaa pelaajien henkilöllisyyden automaattisesti. Se vertaa käyttäjien lähettämiä henkilötietoja ja dokumentteja Eliteprospects-sivuston tietokantaan. Jos tiedot täsmäävät, profiili voidaan verifioida automaattisesti. Epäselvissä tapauksissa tai huipputason pelaajien kohdalla järjestelmä ohjaa tapauksen manuaaliseen käsittelyyn. Tämä on säästänyt huomattavasti asiakaspalvelun aikaa.
SEO-contentgenerator (Everysport Media Group): Työkalu luo hakukoneoptimoitua sisältöä urheiluaiheista Eliteprospects-sivustolle. Se yhdistää SEO-analyysin ja tekstin luomisen. Ensin se tunnistaa avainsanoja, joilla sivusto voisi parantaa hakukonenäkyvyyttään. Sitten se luo näihin avainsanoihin perustuvaa sisältöä, kuten otteluraportteja tai pelaajaesittelyjä. Sisältö optimoidaan automaattisesti hakukoneita varten. Tavoitteena on lisätä sivuston orgaanista liikennettä ja parantaa sen sijoituksia hakutuloksissa.
Notisgenerator (Tidningar i Norr): Työkalu kirjoittaa uutisia poliisin ja ilmatieteen laitoksen tiedotteista. Järjestelmä seuraa reaaliajassa poliisin RSS-syötteitä ja SMHI:n säävaroituksia API:n kautta. Kun uusi tiedote ilmestyy, tekoäly muotoilee siitä uutismuotoisen tekstin. Työkalu on räätälöity huomioimaan paikalliset alueet ja tapahtumien tyypit. Luodut uutiset lähetetään toimitukselle tarkistettavaksi ennen julkaisua. Tämä mahdollistaa pienille paikallistoimituksille (2-5 henkilöä) nopean reagoinnin paikallisiin tapahtumiin ja laajemman uutistarjonnan.
Quizmakaren (Tidningar i Norr): Työkalu luo tietovisoja julkaistujen artikkelien pohjalta (esimerkki). Se analysoi Tidningar i Norr -konsernin julkaisemia artikkeleita ja luo niiden pohjalta monivalintakysymyksiä. Se voi keskittyä esimerkiksi viikon luetuimpiin artikkeleihin tai tiettyyn aihealueeseen, kuten urheiluun tai lemmikkeihin. Tekoäly luo useita kysymysvaihtoehtoja, joista toimitus valitsee sopivimmat julkaistavaan visaan. Tämä mahdollistaa interaktiivisen sisällön tuottamisen pienillä resursseilla ja lukijoiden sitouttamisen uudella tavalla.
Nyhetsaggregator (Everysport): Työkalu kerää, luokittelee ja arvioi uutisia eri lähteistä. Se seuraa määriteltyjä RSS-syötteitä ja verkkosivuja, analysoi uutisten otsikoita, tiivistelmiä ja metatietoja tekoälyn avulla, luokitellen uutiset aihepiireittäin ja arvioiden niiden tärkeyden. Järjestelmä myös ryhmittelee samaa aihetta käsittelevät uutiset yhteen, mikä helpottaa kokonaiskuvan muodostamista ajankohtaisista aiheista. Työkalu on vielä testivaiheessa.
Iso kuva: Thomson Reuters -säätiön raportti tekoälytyökalujen käytöstä journalisteilla – kolme nostoa
EDIT: lisäys 7.2.2025. Alma Median journalisteille tarkoitetuista työkaluista kerrottiin 5.2. järjestetyssä tapahtumassa laajalti. Niistä voit lukea enemmän Linkedin-postauksestani.
Liveurheilu, uutiset, suoratoisto, some, työelämä, teknologia, talous, yhteiskunnat, koko maailma – mihin ne menevät vuonna 2025?
Puristimme Ylen strategiatiimissä 19 valikoitua trendiraporttia tiiviiksi koosteeksi, jonka äärelle voi rauhassa pysähtyä (koostamisessa tekoäly säästi tietenkin isosti aikaa – kiitos NotebookLM, Perplexity, YleGPT). Koosteen lopusta löydät myös kertauksen, mitä vuosi sitten ennakoitiin, ja mikä on toteutunut, mikä ei.
Omia tärppejä tämän vuoden raporteista (tuoreimpana mukana Reuters-instituutin tämän viikon torstaina julkaistu ennakointipaketti):
👉 Videopodcastien nousu – monille kuluttajille podcast on ensisijaisesti videota. 👉 Sosiaalisen videon kasvu syö suoratoistoa. 👉 Urheilussa monikanavainen katselukokemus arkipäiväistyy: suoratoistokatsojat voivat yhä helpommin seurata useita pelejä samanaikaisesti ja valita haluamansa kuvakulmat. 👉 Retail median eli vähittäiskaupan oman mainosverkoston nousu kolkuttelee jopa jo perinteisen television merkitystä. 👉 Tekoälyagentit eli automatisoidut apurit – tulevatko valtavirtaan vai kypsytelläänkö vielä tämä vuosi? 👉 Bundlaus tulee kaikkialle uutismediasta suoratoistoon – kimppatarjouksia voidaan nähdä jopa toistensa kanssa kilpailevilta yrityksiltä. 👉 Haittaako Euroopan poliittinen kuohunta koko mantereen innovointikykyä? 👉 Mihin kaikkeen vaikuttaakaan Yhdysvaltain politiikan uusi suunta? Miten käy esimerkiksi yritysten vastuullisuusponnistelujen? Palkkaako New York Times tänä vuonna jopa trumpilaisen kolumnistin, kuten eräs professori veikkaa?
Teimme vastaavantyyppisen koosteen myös vuosi sitten. Sen löydät täältä.
Vuoden 2024 luetuimpien uutisjuttujen otsikoissa oli keskimäärin 75 merkkiä (ilman välilyöntejä), kun sama luku vuonna 2017 oli 58 merkkiä. Otsikkopituudet ovat joka vuosi kasvaneet.
Tiedot ilmenevät vertailtaessa analytiikkayhtiö Chartbeatin luetuimpien uutisjuttujen listauksia vuosilta 2017–2024. Juttuja todella voi sanoa luetuimmiksi, sillä ne perustuvat Chartbeatin laajaan yli 5000 asiakkaan verkostoon, ja mittarina on käytetty lukuaikaa eikä klikkauksia. Suurin osa on englanninkielisiä.
Vuoden 2024 luetuimpiin juttuihin pääset täältä. Sivun alaosasta kohdasta ”Most Engaging Stories Archive” pääset vuosiarkistoihin. Huomioitavaa on myös, että nykyään verkkojutuilla voi olla useita otsikoita, esimerkiksi hakukoneita varten omansa ja uutisetusivuilla omansa.
Blogin pääkuva: sanapilvi kuvastaa vuosien 2017–2024 luetuimpien juttujen yleisimpiä sanoja. Graafi on laadittu Chartbeatin listojen otsikoista. Graafista puuttuu vuosi 2020, jolloin listauslogiikka oli erilainen.
Tämä blogikirjoitus sai kimmokkeensa Brian Morrisseyn The Rebooting -uutiskirjeestä, jossa pohditaan, miten verkon uutisartikkeli uudistuu ajassa, jossa tekoäly nopeuttaa teknologista kehitystä ja on mullistamassa muun muassa hakukoneiden toimintaa.
Verkon “uutisjuttu” on ollut perusrakenteeltaan aika lailla samankaltainen vuosikaudet. 2010-luvun lopulla alkoivat yleistyä kokeilut somekerronnasta inspiraationsa saaneilla ns. kortti- tai tarinajutuilla. Muutaman viime vuoden aikana artikkeleita on myös voinut alkaa halutessaan kuunnella, mutta isossa kuvassa useimmat nettijutut eivät ole merkittävästi muuttuneet: niissä on kuvaa ja tekstiä.
Moni uutismedia-alaa seurannut muistaa yli kymmenen vuoden takaa Circa-palvelun lupauksen ajatella artikkelia kokonaan uusiksi “atomisoimalla” tekstin pieniksi haarukkapaloiksi, jotka esitetään käyttäjälle yksi kerrallaan, mutta käyttäjien suosikiksi siitä ei lopulta ollut.
Generatiivisen tekoälyn myötä mahdollisuuksia innovaatioihin on nyt enemmän. Ehkä aikakin on kypsempi muutoksille.
Every.to. Tämä samannimisen vuonna 2020 perustetun media- ja teknologiayhtiön sivusto on oma suosikkini, koska se ottaa artikkelikehityksessään huomioon, että iso osa uutisten kuluttajista haluaa yhä kuluttaa uutisia myös tekstipainotteisesti. Se on sisällyttänyt juttuihinsa sisäänrakennetun chatikkunan, jossa voi paitsi keskustella sisällöstä, myös saada läpinäkyvyyden hengessä näkyviin juttujen taustalla olevan raakamateriaalin kuten haastattelut (klikkaamalla “View all sources”). Käyttökokemus on hyvin sujuva. Samaa ei mielestäni voi sanoa palveluista, joissa koko uutiskokemus on rakennettu chattaamisen ympärille. Tällaisessa mallissa kuluttaja ei välttämättä koe tuttuutta, vaan vieraita elementtejä on liikaa (ks. kohta 3.).
Kun Time-lehti esitteli vuoden 2024 henkilön Donald Trumpin, jutun saattoi paitsi kuunnella, siitä voi myös keskustella joko puhumalla tai chättäämällä. Summarize-nappulaa klikkaamalla jutun saa luettavakseen joko alkuperäispituudella, keskipitkänä tai lyhyenä. Tiivistelmät tekee tekoäly. Artikkelin alun navigaatiovalikon ”TIME AI”-painiketta painamalla tulee esiin laajempi näkymä, josta voi halutessaan vielä kääntää jutun haluamalleen kielelle.
Curio. Audiojournalismiyritys Curion uutissovellus julkaistiin alun perin Rio-nimellä maaliskuussa 2024. Sovellus tarjoaa pääsyn luotettujen uutisbrändien sisältöihin ja mahdollistaa niistä kyselemisen chat-pohjaisessa käyttöliittymässä. Sovelluksessa voi myös luoda itselleen kuunneltavaksi äänisisällön eri uutisaiheista. Valitsin tämän kolmanneksi esimerkiksi en sujuvan käyttökokemuksen vuoksi (koska sitä se ei ole, mikä johtuu ennen muuta siitä, että normiartikkeleihin tottuneelle sukupolvelle kokemus on ehkä liiankin mullistava), vaan siksi, että tässä “uutisartikkeli” on ajateltu siinä mielessä täysin uusiksi, että vaihtoehtoja on käytännössä kolme: 1) juttelet uutisaiheesta botin kanssa ja vastaukset toimivat käyttäjälle “artikkelina”, 2) botti linkkaa vastauksissan suoraan luotettujen uutistoimijoiden perinteisiin artikkeleihin, 3) botti luo haluamastasi uutisaiheesta “audiojakson”, kuten se sitä itse kutsuu. Kokeilin tätä viimeisintä ominaisuutta tänä aamuna tuoreimpien Syyria-uutisten kohdalla. Botti generoi 19 minuutin audion (jota en loppuun jaksanut kuunnella), mutta alun perusteella laatu vaikutti erinomaiselta.
+ Bonus: Particle on syytä noteerata, mutta sitä ei pääse vielä Suomessa kokeilemaan, joten vaikea luonnehtia omakohtaisesti sen enempää. Toimintalogiikka kuulostaa kuitenkin uudenlaiselta: Particle kertoo ydinajatuksekseen sisältöjen ryhmittelyn ”yhdeksi tarinaksi yhteen näkymään”, mikä tarkoittaa eri lähteiden uutisten kokoamista tekoälyavusteisesti ryppäiksi sen sijaan, että yksittäiset jutut eri aiheista olisivat fiidissä sekaisin. Particlessa käyttäjä voi räätälöidä omaa algoritmiaan seuraamalla paitsi tiettyjä aiheita, myös tiettyjä henkilöitä tai paikkoja. Sovellus ei tee omia uutisia, vaan käytännössä tarjoaa tiivistelmiä perinteisten medioiden jutuista. Valittavana on viisi tiivistelmätyyppiä, kuten ”selitä kuin olisin 5-vuotias”, ”vain faktat”, ”tiivistelmä eri kielillä”, tai mikä tahansa uutisiaihe äänitiivistelmänä. Kiinnostavin tiivistelmätyyppi lienee ”Opposite Sides” eli uutisaiheen esittely jutun edustaman poliittisen näkökulman mukaan – eli mihin suuntaan kallellaan minkäkin median jutun voi tulkita olevan ja miksi. Sovellus toimii toistaiseksi vain Yhdysvalloissa ja iPhonessa, eikä sitä ole saatavissa Suomessa.
Joka vuosi loka-tammikuun haarukassa ilmestyy tuhansia trendiraportteja, jotka pohtivat tarkastelemiensa alojen mahdollsia kehityskulkuja tulevalle vuodelle. Olen valinnut tähän vuosi sitten ilmestyneitä raportteja, jotka lupasivat katsoa nimenomaan vuotta 2024.
Pidemmittä puheitta suoraan esimerkkeihin.
Näiden voidaan katsoa toteutuneen vuoden 2024 aikana
Kuten Economist ennakoi, keskuspankit alkoivat laskea korkoja. (lähde)
Kuten Forbes ennakoi, kulttuurisodille ei näy loppua. (lähde) [huomioni: tämä taisi olla helppo ennakoitava, heh]
Kuten Reuters-instituutti ennakoi, uutismedia-ala on saanut tekoälytoimijoilta korvauksia sisältöjensä käytöstä, mutta korvaukset jakautuvat epätasaisesti. (lähde)
Kuten Activate ennakoi, tekoälytyökalujen käyttö hakukoneena on lisääntynyt. (lähde)
Kuten Activate ennakoi, tekoälytyökalut ovat mahdollistaneet musiikin ja podcastien tekemisen uudella tavalla, helpommin ja aiempaa useammille. (lähde)
Kuten Dentsu ennakoi, keskustelubotit ovat tehneet tekoälyn myötä paluuta – kuluttajat näkevät niitä huomattavasti aiempaa enemmän yritysten palveluissa (lähde)
Kuten Deloitte ennakoi, suoratoistopalvelut ovat nostaneet hintojaan ja tarjonneet pidempiä tilausjaksoja. (lähde)
Kuten eMarketer ennakoi, FAST-kanavien katselu on kasvanut ja samalla niihin myytävistä mainoksista tuleva liikevaihto (lähde). [huomioni: katselun kasvun voidaan todeta johtuvan myös kanavien määrän lisääntymisestä, mutta on silti totta. Liikevaihdon kasvu on totta ainakin, kun katsotaan suurimpia toimijoita kuten Pluto TV:tä. Kulutuksessa puolestaan Euroopassa korostuu viihde, Yhdysvalloissa taas uutiset]
Kuten Kantar ennakoi, suoratoistopalveluiden tekniset ominaisuudet ovat kehittyneet niin, että ne mahdollistavat paremmin vuorovaikutteisuutta, kuten interaktiiviset mainokset (lähde) [huomioni: lisätietoa mm. täällä]
Kuten Reuters-instituutti ennakoi, bundlaus eli eri tuotteiden niputtaminen on jatkanut yleistymistään uutismediassa. (lähde) [huomioni: pätee myös suoratoistomarkkinaan]
Kuten Reuters-instituutti ennakoi, Googlen Discoverista on tullut uutismedialle yhä tärkeämpi verkkoliikenteen lähde, mutta myös vaikeasti ennakoitava. (lähde)
Kuten Activate ennakoi, Tiktok on vahvistanut asemiaan sosiaalisen videon ykkössovelluksena ja jatkanut laajennussuunnitelmiaan verkkokaupaksi ja hakukoneeksi. (lähde) [huomioni: näin voidaan sanoa, jos katsotaan Tiktokin ilmoittamia käyttäjämääriä, vaikka käytön hidastumisestakin on esiintynyt väitteitä]
Kuten Dentsu ennakoi, somepalvelut ovat alkaneet muistuttaa yhä enemmän toisiaan, kun ne kopioivat ominaisuuksia toisiltaan kiihtyvään tahtiin. (lähde)
Kuten Dentsu ennakoi, lakiosaamisen rooli yrityksissä on korostunut tekoälysääntelyn takia. (lähde)
Näistä voidaan katsoa, että eivät yksiselitteisesti sellaisenaan ole toteutuneet vuoden 2024 aikana
Älykäyttöiset puettavat laitteet eivät ole isossa mittakaavassa tehneet paluuta, kuten amerikkalainen Future Today -instituutti oli vuodelle 2024 ennakoinut. (lähde)
Älypuhelinten myynti ei ole hidastunut, kuten amerikkalainen Future Today -instituutti oli vuodelle 2024 ennakoinut (lähde) [huomioni: kokonaismarkkina kasvaa, aluettaista vaihtelua on]
Virtuaalitodellisuus työntekijäkokemuksessa ei ole alkanut “laajasti kypsyä eri toimialoilla lääketieteestä tehdastyöhön”, kuten Capgemini vuodelle 2024 ennakoi. (lähde) [Huomioni: Vaikka esimerkiksi digitaalisia kaksosia on teknologian puolesta jo mahdollista käyttää, olisi mielestäni liioittelua sanoa niiden valtavirtaistuneen työelämässä.]
Ylipäänsä metaversumiin tehdyt investoinnit ja yritysten panostukset ovat olleet tänä vuonna merkittäviä, mutta eivät aivan niin suuria kuin toiveikkaimmissa ennusteissa. Tämä johtuu osittain taloudellisesta epävarmuudesta.
Tekoälyn vastaus – nämä eivät ole toteutuneet
Pyysin myös tekoälyltä (Poe/GPT-4o) esimerkkejä trendiennusteista, jotka eivät aikajänteestä riippumatta ole ainakaan täysin toteutuneet. Vastaus oli tämänkaltainen – kyllä näistäkin voi samaa mieltä olla, vai mitä:
Lineaarisen TV:n kuolema: Ennakoitiin, että perinteinen televisio katoaisi, mutta se on yhä suosittu.
Lyhytvideoiden täysi dominanssi: Ennakoitiin, että lyhytvideot korvaisivat muut muodot, mutta pitkät sisällöt ovat yhä suosittuja.
Täysi painotus tilaajamalleihin: Ennakoitiin, että mainosrahoitteisuuden merkitys vähenisi, mutta se on yhä merkittävä tulonlähde.
Virtuaalitodellisuuden yleistyminen viihteessä: Ennakoitiin, että virtuaalitodellisuus tulisi valtavirtaan, mutta näin ei ole käynyt.
Lisätyn todellisuuden muuttamat käyttöliittymät: Ennakoitiin, että AR muuttaisi mediankulutusta, mutta näin ei ole käynyt.
Interaktiivisuus kaikessa sisällössä: Ennakoitiin, että kaikki mediat olisivat interaktiivisia, mutta perinteiset muodot pitävät pintansa.
Ääniohjattujen laitteiden yleistyminen: Ennakoitiin, että ääniohjaus dominoisi mediankulutusta, mutta käyttö on vähäistä.
NFT:t mediassa: Ennakoitiin, että NFT:t (ei-vaihtokelpoinen rahake) olisivat keskeisiä mediassa, mutta kiinnostus on vähentynyt.
Muistikirjan ja tekoälysovelluksen yhdistelmäksikin kutsuttu Googlen NotebookLM-työkalu on erinomaisen hyödyllinen yhteenvetojen tekemiseen uusilla tavoilla, jollaisiin perusbotti ei kykene. Gemini-tekoälymallia hyödyntävälle NotebookLM:lle voi syöttää lähdemateriaaliksi esimerkiksi pdf-dokumentin, Youtube-videon, äänitiedoston tai nettisivun, tai vain tekstiä.
Käyn tässä blogikirjoituksessa esimerkin kautta läpi, miten NotebookLM jäsensi mediayhtiöiden Sanoma ja Alma Media vuoden 2024 puolivuotiskatsauksia (34 ja 28 sivua, pdf-muodossa). Listaan lopuksi myös työkalun plussat ja miinukset tämän kokeilun pohjalta.
Jos käytät Googlen palveluita, voit käyttää NotebookLM-työkalua ilmaiseksi menemällä kirjautuneena osoitteeseen notebooklm.google ja klikkaamalla painiketta “Kokeile NotebookLM:ää”. Tämän jälkeen työkalu pyytää sinua luomaan “työkirjan”. Tämän jälkeen avautuu näkymä, johon kirjoitetaan, liitetään tai linkitetään haluamasi lähdemateriaalit.
Kun lähdemateriaalit on lisätty, aukeaa näkymä, joka antaa valmiin yhteenvedon ja joukon ehdotettuja kysymyksiä, joita klikkaamalla voit chättäillä lähdemateriaalista (joka näkyy vasemmassa reunassa, kuva alhaalla). Voit toki kirjoittaa myös omia kysymyksiä. Julkisuudessa ehkä eniten keskustelua herättänyt ominaisuus on kahden puhujan audioyhteenveto napinpainalluksella (oikea yläkulma), mutta suomeksi tätä ei vielä ole saatavissa:
Tässä esimerkkejä, millaisiin muotoihin NotebookLM taivutti Alman ja Sanoman puolivuotiskatsauksia joko esiasetettujen kysymysten tai itse esittämieni toiveiden pohjalta:
1) Alma Median strategiset riskit -tiivistys. NotebookLM:n erinomainen ominaisuus on lähdepallukoiden (kuvassa harmaalla) tuominen vastauksen yhteyteen. Kun viet kursorin pallon päälle, näet kohdan, johon tiivistys perustuu:
2) Lähdemateriaalin saa halutessaan vierelle isommin juoksemaan, kuten tässä esimerkissä Sanoman listaamista toimintaympäristön muutoksista:
3) Tässä tiivistyksessä on käyty läpi Sanoman tunnistamia strategisia riskejä. Kysymys (ylänurkassa) oli jo valmiina odottamassa, kun latasin materiaalit, joten riitti vain, kun klikkasin sitä ja sain vastauksen:
4) Tässä NotebookLM jäsensi Sanoman katsauksen aikajanaksi, jossa tosin oli hieman virheitä (Sanoma hankki Starkin elokuussa 2022 eikä elokuussa 2023). Alussa todetaankin, että lähdemateriaali on aikajanan luomiseksi hankala, mutta toiminto on parhaimmillaan erittäin kätevä:
5) Tällaisen käsikirjoituksen NotebookLM tekisi Sanoman puolivuotiskatsauksesta, jos juontajia olisi kaksi (kokeilin myös erikseen ladata lähteeksi audiotiedoston ja ohjeistin käyttämään samankaltaista jutustelevaa äänensävyä kuin tiedostossa, mutta tämä onnistui vaihtelevasti):
6) Tässä esimerkissä NotebookLM on automaattisesti luonut liitetyistä tiedostoista kysymyksiä ja vastannut niihin. ”Usein kysyttyä” on yhtenä oletuspainikkeena lähtönäkymässä. Jostain syystä tämä toimi minulla toistuvasti niin, että tähän yhteyteen työkalu ei tuonutkaan lähdeviittauksia, kuten yleensä – näitä tietoja en ole tarkastanut:
NotebookLM-työkalun plussia ja miinuksia
Plussat:
Lähteytyksen laatu: klikkaamalla pääsee heti tarkistamaan tiedon.
Lähteytysmahdollisuuksien monipuolisuus.
Hallusinointia oli yllättävän vähän.
Työkalun erilaisuus ja freesiys verrattuna perus-tekoälybotteihin.
Miinukset:
Tiedot täytyy edelleen tarkistaa myös erikseen – kuten työkalussakin todetaan: “NotebookLM voi edelleen antaa epätarkkoja vastauksia, joten sinun kannattaa ehkä tarkistaa faktat erikseen”. Etenkin jos lähdemateriaalissa on ääntä ja videota tekstin lisäksi, tarkistaminen on aikaaviepää.
Säätäminen. Lähdemateriaalien, asetusten ja komentojen kanssa kikkailemisessa menee lopulta aikaa, mikä on syytä huomioida. Vastaukset täytyy myös muistaa erikseen tallentaa muistiinpanoiksi, muuten ne eivät säily tallessa.
Helsingin Sanomien kehitysjohtaja Esa Mäkinen avasi Tampereen yliopiston luennolla tiistaina, missä tekoälyn kehityksessä yleisesti mennään ja erityisesti, miten se vaikuttaa media-alaan nyt ja tulevaisuudessa.
Tiivistän tähän blogiin väliotsikoiksi eräitä teemoja, joista Mäkinen puhui. Otsikoiden jälkeiset sitaatit ovat Mäkisen.
Median arvoketjun muutos & tekoäly ja tulevaisuus
“Journalistinen prosessi pitää pilkkoa palasiksi, jotta voidaan keskustella, mitä tekoäly mahdollistaa tai ei mahdollista. Olemme hahmotelleet [HS:ssä] tällaista karkeaa jakoa, jossa toimittajan työvaiheista ideointiin kuluu 10 prosenttia, tiedonhankintaan ja haastatteluihin 40 prosenttia, jutun kirjoitukseen tai muuhun tuottamiseen noin 30 prosenttia, editointiin 10 prosenttia ja julkaisuun 10 prosenttia ajasta. Jos tästä katsotaan, mitä voidaan automatisoida, se on etenkin tuo tiedonhankinta. Monissa medioissa on nykyään esimerkiksi jonkinlainen vehje, jolla litteroidaan haastatteluja – HS:llä ja Almalla Good Tape ja Ylellä itserakennettu systeemi.”
“Mutta toimittajan työprosessi ei ole suinkaan ainoa asia [arvoketjussa]. Kyse on siitä, miten median koko arvoketju muuttuu. Arvoketjussa on tiedonhankintaa, tuotantoa, jakelua ja kulutusta. Tiedonhankinta ja sisällöntuotanto olivat tuolla toimittajan työprosessissa, mutta kun mennään jakeluun ja kulutukseen, niin siellä mediataloilla ei ole välttämättä paljoa vaikutusmahdollisuutta siihen. Tekoälyn kehitys ei välttämättä vie meitä tulevaisuuteen, jossa olemme jonkin arvoketjun osia esimerkiksi niin, että käyvätkö ihmiset meidän palveluissamme, jotta voimme myydä heille tilauksia tai mainoksia.”
“Mitä media itse juuri nyt tekoälyllä tekee, tapahtuu etenkin tiedonhankinnan ja sisällöntuotannon saralla. Hyvin vähän näkyy jakeluun ja kulutukseen liittyviä innovaatioita. Esimerkiksi Samsungin kännyköissä on nyt vakiona selain, joka tekee artikkeleista tiivistelmiä. Tekoälyn avulla tiivistelmiä teki myös Artifact-sovellus, mutta sen toiminta on loppunut. Tämä on ehkä se keskeinen kysymys, johon en osaa vastata, että miltä se hevoskärryistä autoksi muuttuminen [viittaus aiempaan alustukseen] media-alalla tulee näyttämään. Jonkinlainen muutos varmasti tapahtuu 3–5 vuoden säteellä, mutta jos joku sanoo, että hänellä on varmaa tietoa, sanoja vähintäänkin liioittelee omaa osaamistaan.”
Miten toimittajan kannattaisi varautua näihin muutoksiin?
[tätä vastausta edelsi taustoitus digimuutoksesta kuten printti-digi-siirtymästä digin muutokseen, jossa digin sisällä tapahtuu paljon kehityskulkuja]
”Pitäisi katsoa paljon pystyvideoita ja tehdä niitä itse, pitäisi kuunnella paljon podcasteja ja tehdä niitä itse, ja kolmanneksi pitäisi opetella käyttämään Anthropicin Claudea tai muita vastaavia tekoälytyökaluja itse [läsnäolleista opiskelijoista noin puolet oli käyttänyt tekoälytyökaluja]. Eli suosittelen hankkimaan maksullisen chatpalvelun ja käyttämään sitä opiskelussa mahdollisimman paljon.”
Liquid Content vs. pink slime
Mäkinen viittasi alustuksessaan syväoppivaa tekoälyä tutkivan Googlen Deepmindin luovan johtajan Matthie Lorrainin ajatukseen “liquid contentista” eli käytännössä sisältöjen muokkautuvuuteen eri päätelaitteilla. Lorrainin ajattelussa tämä mullistaa sen, miten mediaa jaellaan tai kulutetaan tulevaisuudessa. Mäkinen:
Liquid contentiin liittyvä esimerkki on intialainen startup, joka lupaa tuottavansa videon mistä tahansa artikkelista viidessä minuutissa, joka sisältää myös ihmistoimittajan faktantarkistukseen käyttämän ajan. Norjalainen VG tekee jo aika paljon tämänkaltaista. Oslossa junissa ja kuntosaleilla on VG:n videotauluja, joissa on heidän artikkeleistaan tehtyä sisältöä. Lopputuotteet ovat aika yksinkertaisia, eivät valtavan ihmeellisiä asioita, mutta todennäköisesti katsojan kannalta riittävän hyviä. Ja ne pitävät paikkansa.
”Tekoäly mahdollistaa sisällön muodon muuttamisen toiseen suhteellisen helposti. Kunnianhimoisimmassa ajattelussa se on kuluttajan päätelaite, joka määrittelee, miten sisältö mukautuu kulloiseenkin käyttötarpeeseen osittain tai täysin automaattisesti.”
”Toinen puoli on ’pink slime’, eli ajatus jossa internet täyttyy geneerisestä roskasta. Jenkeissä on paljon sivustoja, jotka ottavat jotain random urheilutuloksia tai tiedotteita paikallisilta alueilta ja leipovat niistä semiuskottavan näköisen median. Instassa näkyy paljon sisältöjä, joista huomaa, että ne on tehty tekoälyllä…on blurrit taustat ja etualalla virheetön ihminen. Pink slime tulee täyttämään ensimmäiseksi todennäköisesti somen. Kun kysytään miten pärjäämme tulevaisuudessa, niin tuollaisessa maailmassa, jossa kaikki sisältö on vapaasti liikkuvaa, medioiden rooli kapenee yhdenlaiseksi. Voi toisaalta olla sellainenkin tilanne, että luotettava sisältö päätyykin yhtäkkiä merkittävään asemaan.”
”Kuvan todistusvoima on jo hävinnyt”
Helsingin Sanomat on aiemmin linjannut, että se ei julkaise tekoälyllä tehtyjä kuvia, mutta Mäkisen mukaan lopulta tuli eteen tapaus, jossa ”sellainen oli pakko julkaista”. Tässä tapauksessa kuvan päälle poltettiin merkintä, josta asia selviää. Näin merkintä näkyy myös, jos kuvaan päätyy suoraan hakukoneen kautta.
Mäkisen mielestä kielimallit olivat jo vuosi sitten kehittyneet siihen pisteeseen, että se tekee niin sanotusti virheetöntä jälkeä.
”Ne ovat niin hyviä, että ei ole mitään keinoa enää erottaa…kuvan todistusvoima on jo hävinnyt, mutta emme ole vielä sitä yhteiskuntana konkreettisesti ymmärtäneet.”
Mihin toimittajia tarvitaan?
”Kehitys, jossa tehdään vähemmällä enemmän, johtaa uusiin ammatteihin ja innovaatioihin, joita emme osaa tällä hetkellä kuvitella. Tällä hetkellä toimittajia tarvitaan keksimään niitä uusia toimenkuvia. Työmäärä ei välttämättä vähene, mutta työn luonne tulee muuttumaan toisenlaiseksi. Toinen vastaus on klassiset journalistiset hyveet. Toimittajia tarvitaaan edelleen siihen, kun maailmassa tapahtuu paljon asioita, joista ei ole saatavissa digitaalista jälkeä, kuten läsnäolo Ukrainassa. Ne jotka ovat olleet keikoilla, tietävät, että se on hidasta ja aikaavievää. Uskon, että saamme tehdä tulevaisuudessa enemmän [tätä], kun taas koneet tekevät töitä, joita emme oikeastaan haluaisikaan tehdä.”
Helsingin Sanomien tilauksista vastaava uutispäällikkö Jaakko Kangasluoma avasi Tampereen yliopiston luennolla tiistaina, millä eri tavoilla lehdessä mitataan ja analysoidaan sisältöjä.
“Perusyksikkö. Varsinkin jos teemme isotöisen jutun, sen pitää löytää lukijansa. [Mainitsee esimerkkijutun, jonka käyntimäärät ‘vuoden kovimpia’] tässä oli 429 000 käyntiä – joka ei siis vielä tarkoita eri ihmisiä – ja mukana on myös muuritörmäyksiä eli heitä jotka ovat avanneet mutta jättäneet lukematta jutun, mutta jutun lukeneita suomalaisia oli arviolta 250–300 000, mikä on todella hyvä.”
Timantit
“Timanttiluku kertoo, miten jutun maksumuuri on tuottanut tilauksia. [esimerkkijuttu tuotti] 1560 timanttia, joka on jo tosi hyvä. 100–200 timanttia katsotaan jo onnistuneeksi jutuksi. Lähtökohta on että yksi näytetilaus, joka on ilmainen, on yhden timantin arvoinen. Yksi maksullinen tilaus voi tuottaa 5–50 timanttia, [koska tilausvaihtoehtoja on erilaisia]. Jos ihminen maksumuuriin törmättyään ottaa jonkun muun kuin kaikkein halvimman ja lyhimmän tilauksen, voi ehkä ajatella, että hänellä on jonkinlainen ajatus myös pysyä tilaajana. Jos me julkaistaan 100–130 maksullista juttua viikossa, tilauksia tulee hyvin pieninä virtoina. Koko potti ratkaisee.”
Timanttikonversio
“Timanttikonversio on luku, jota seuraamme tosi tarkkaan. Se kertoo muuritörmäysten ja timanttien suhteen. Se auttaa ymmärtämään, miten juttu osui tilaajiin. Siinä on tosi isoja sisällöllisiä eroja, joita seuraamalla voidaan oppia paljon esimerkiksi siitä, millaiset aiheet kolahtavat tai minne maksumuuri pitää jutussa laittaa.”
Käytetty aika
“Käsitys lukemisen laadusta on se, mistä me paljon puhutaan. Kaiken ei tarvitse olla massaa ja vyöryttää meille timantteja. [Tässä esimerkkijutussa] tilaajien keskimääräinen lukuaika oli 7–8 minuuttia, mikä on hyvä lukuaika. Se oli 13 000 merkin juttu, joka piti tilaajat hyvin otteessaan.”
Skrollisyvyys
“Skrollisyvyys tarkoittaa, kuinka pitkälle lukijat lukevat juttuja – esimerkiksi, kuinka suuri osa loppuun asti. Oleellista on, että pääsemme vertailemaan juttujen eroja ja pohtimaan sitä, että jos esimerkiksi jossain jutussa lukeminen on alkanut hyvin ja otsikko on kiinnostanut, mutta sitten romahtanut puolessavälissä, niin minkä takia lukeminen on jätetty kesken. Sieltä löytyy kerronnallista parannettavaa ja muuta oppia. Kerran romahdus johtui siitä, että oli laitettu kolme kuvaa peräkkäin jutun keskelle, jolloin lukija luuli, että juttu loppuu siihen.”
Pitopisteet
“Olemme luoneet tällaisen kuin pitopisteiden mittarin. Sillä mitataan tilaajien tyytyväisyyttä. Eli jos tietty määrä tilaajia käy lukemassa, lukee sitä riittävän pitkään [ajallisesti] ja lukee sitä loppuun, juttu saa silloin täydet pitopisteet. Hyvien pitopisteiden jutut voivat olla hyvin erilaisia.”
Kuten alalla yleensäkin, Kangasluoman mukaan Helsingin Sanomissa seurataan myös reaaliaikaista analytiikkaa, kuten sitä, montako ihmistä jutuissa on ollut edellisten viiden minuutin aikana, tai sitä, moniko selain on nähnyt etusivun otsikon edellisten viiden minuutin aikana. Otsikointiin käytetään paljon aikaa. Yhdestä jutusta saattaa pyöriä etusivulla 6–7 eri otsikkoversiota ja datasta voidaan katsoa, kuinka monta prosenttia otsikon nähneistä klikkaa sitä.
“Se on tavallaan armotonta, mutta ilman mittaamista emme ymmärrä, mitä tilaajat haluavat. Samaan aikaan tulee myös epäonnistumisia, ja nekin pitää vaan lusia. On tehty suurella panoksella isoja juttuja, joihin kukaan ei ole koskenutkaan. Se on pelin henki, mutta epäonnistuminen on kivempi ottaa vastaan yhdessä porukalla”.