Amerikkalaisfuturisti Amy Webbin Future Today -instituutti on julkaissut massiivisen, tänä vuonna tasan 1000-sivuisen 2025 Tech Trends -raportin, jossa käydään läpi teknologian tulevaisuuden suuntaviivoja.
Tiivistän tähän blogiin kaksi osiota, joista toinen liittyy tekoälyn kehitykseen ja toinen uutismediaan.
Tekoälyn kehityksessä raportti nostaa esiin muun muassa nämä kehityskulut:
Tekoäly alkaa toimia kuin käyttöjärjestelmä – suuret kielimallit (LLM) muuttuvat alustoiksi, jotka pyörittävät monia sovelluksia taustalla. Käyttäjän ei tarvitse enää erikseen avata AI-työkalua, vaan se tulee osaksi kaikkea tekemistä (osaksihan näin on jo tapahtunut).
Autonomiset tekoälymallit ottavat enemmän päätäntävaltaa – LAM-mallit (”Large Action Models”) eivät ainoastaan suosittele päätöksiä, vaan alkavat tehdä niitä itsenäisesti. Tämä olisi askel eteenpäin tekoälyagenteista, joiden luominen vaatii ihmiseltä vielä toistaiseksi jonkin verran aktiivisuutta.
Kun Yhdysvallat ja Kiina käyvät “tekoälyn kylmää sotaa”, se vaikuttaa suoraan esimerkiksi teknologiasääntelyyn ja yritysten innovaatioihin.
Uutismedian tulevaisuutta raportti pitää epävarmana. Se ennakoi muun muassa näitä kehityskulkuja:
Journalismi siirtyy yhä enemmän maksumuurien taakse tai lahjoituspohjaiseksi.
Mediatalot joutuvat kehittämään uusia ansaintamalleja, kun somen tuoma liikenne verkkosivuille vähenee (ja on jo vähentynyt). Lisäksi, kun ihmiset lukevat yhä useammin tekoälyn koostamia uutistiivistelmiä tekoälypalveluista tai Googlesta, se vähentää alkuperäisten juttujen klikkauksia.
Faktantarkistus vaatii entistä älykkäämpiä keinoja, koska tekoäly.
Yhä useammat uutismediat tarjoavat tekoälypohjaisen haun ja äänikäyttöliittymien avulla personoituja, keskustelunomaisia kokemuksia, mikä lisää käyttäjien sitoutumista.
Tekoälyn luomat avatarit avaavat uutismedioille uusia jakelukanavia, mikä auttaa kustantajia tavoittamaan uusia yleisöjä ja suojelemaan toimittajia vaarallisilla alueilla.
Esimerkiksi Venezuelassa toimittajat ovat käyttäneet tekoälyavatareja salatakseen henkilöllisyytensä ja raportoidakseen tapahtumista uhkauksista huolimatta.
Perussa puolestaan tekoälyavatareja on käytetty tavoittamaan aliedustettuja ryhmiä: San Marcosin yliopisto kehitti tekoälyuutisankkurin, joka kertoo Tiktokissa uutisia vähemmistökieli ketšuaksi, joka oli aikoinaan inkavaltakunnan pääkieli.
Global Media Awardsissa eniten palkintoehdokkaita 199 ehdokkaan joukossa on Intiasta (22) ja Norjasta (21). Suomesta ehdokkaita on kaksi. Toinen on Keskisuomalainen kategoriassa “Best New Digital Product”. Keskisuomalaisen 22 paikallista uutissovellusta jakavat saman teknologian, joten niiden teknistä ylläpitoa hoitamaan tarvitaan konsernin mukaan vain kaksi henkilöä – ensimmäiset 19 sovellusta julkaistiin sekä Androidille että iOsiin vain kolmessa kuukaudessa. Sovelluksia ladattiin 367 000 kertaa vuonna 2024.
Vaikka Alma Median hanke hyödyntää generatiivista tekoälyä, se ei ollut ehdolla varsinaisten tekoälyhankkeiden kategorioissa, joita olivat ”Best Use of AI for Internal Productivity” ja ”Best Use of AI in Customer-Facing Products”. Tässä noiden kategorioiden ehdokkaat.
TOIMITUSTEN SISÄISET TEKOÄLYTYÖKALUT
”Best Use of AI for Internal Productivity” (suorat linkit ehdokkaiden pidempiin englanninkielisiin kuvauksiin löydät täältä):
A Gazeta do Espírito Santo, Brasilia: Tekoälyn avulla tehdään videoita tekstimuotoisista elokuva-arvosteluista.
Amedia, Norja: Amedia sai puolet toimittajistaan käyttämään säännöllisesti tekoälyä yksinkertaisilla ratkaisuilla, jotka helpottavat päivittäistä työtä.
Badischer Verlag, Saksa: BZ.Echo on toimituksen monipuolinen tekoälytyökalu: otsikointia, optimointia, versiointia, luonnosten generointia. Toimittajien ajansäästöä kuvataan merkittäväksi.
Hearst Newspapers, Yhdysvallat: Hearst käyttää tekoälyä julkishallinnon päätösten seuraamiseen, mikä tekee prosessista sujuvamman ja aikaa säästävän. Työkalu on lisännyt skuuppien määrää.
Russmedia, Itävalta: Tekoälypohjainen julkaisujärjestelmä mm. automatisoi otsikoiden luomisen, artikkelien kategorisoinnin ja tekstin tiivistämisen, kieliopin tarkistuksen ja tyyliehdotukset. Toinen työkalu tuottaa reaaliaikaisia päivityksiä kriittisistä aiheista, kuten liikennekatkoista ja kunnallisista päätöksistä. Räätälöidyt GPT-mallit automatisoivat monimutkaisia tehtäviä kuten tekijänoikeustarkistuksia ja eettistä ohjeistusta.
Constructive Institute, Tanska: News Mirror -työkalu hyödyntää tekoälyä auttaakseen toimitusta ns. rakentavan journalismin teossa, mikä parantaa sisältöjen monipuolisuutta.
KG Media, Indonesia: AI Media Intelligence for SDGs -projekti käyttää tekoälyä kestävän kehityksen tavoitteiden seurantaan ja raportointiin.
Ringier, Sveitsi: Floorian on tekoälyavusteinen automaattinen pohjahinnan hallintajärjestelmä ohjelmalliseen mainontaan.
Schibsted, Norja: Tekoälypohjainen User Interest Predictions (UIP) -järjestelmä tunnistaa käyttäjien kiinnostuksen kohteita yli brändirajojen. UIP luokittelee ja ennustaa käyttäjien kiinnostuksen kohteita heidän selaushistoriansa perusteella.
United Daily News Group, Taiwan: AiAssist-hanke paransi tuottavuutta, kustannustehokkuutta ja yleisön sitoutumista. Tekoälyn integrointi on myös yhdistänyt eri tiimejä ja luonut yhteistyöhön perustuvan mallin uutistoimitukseen.
KULUTTAJATUOTTEET JA TEKOÄLY
”Best Use of AI in Customer-Facing Products” (suorat linkit ehdokkaiden pidempiin englanninkielisiin kuvauksiin löydät täältä):
Amar Ujala, Intia: Asiakaspalveluchatbot.
Hearst Newspapers, Yhdysvallat: Kamala Harrisiin liittyviin kysymyksiin vastaava chatbot.
NTM, Ruotsi: Tekoälyvetoinen audioratkaisu, jonka tavoitteena on houkutella nuorempia yleisöjä ja syventää nykyisten tilaajien sitoutumista. Se tunnistaa luetuimmat artikkelit, tiivistää ne tekstiksi ja muuntaa ne audiolähetyksiksi ElevenLabsin ääniteknologian avulla.
Stampen Media, Ruotsi: Neljä tekoälypohjaista laskuria, jotka liittyvät henkilökohtaiseen talouteen: asuntolainan korkolaskuri, asuntojen hintojen vertailu, verolaskuri, lainanlyhennyslaskuri.
Stuff Group, Uusi-Seelanti: Democracy.AI etsii potentiaalisia uutisaiheita päätöksentekodokumenteista. Pilottialueella Waikato Times lisäsi juttumääräänsä 25:llä viikossa, ja digitaaliset tilaukset yli kaksinkertaistuivat. (ei ole kuluttajatuote, mutta on tässä kategoriassa, koska työkalulla tehdyille jutuille tehtiin verkkosivuille oma osionsa)
Prisa, Espanja: VerificAudio käyttää tekoälyä äänitallenteiden autenttisuuden varmistamiseen, mikä parantaa sisällön luotettavuutta.
Ringier, Sveitsi: Beobachter-chatbot tarjoaa juridista neuvontaa tekoälyn avulla.
Ringier Axel Springer, Puola: AI-Powered Travel Planner uudistaa sisältömarkkinointia tekoälyn avulla. Botti helpottaa matkasuunnittelua.
Schibsted Media, Ruotsi(Norja): Ruotsalaisen iltapäivälehti Aftonbladetin EU-vaaliapuri ja USA-vaaliapuri.
Stuff Group, Uusi-Seelanti: Tekoälyn avulla käännetään uutisia maoriksi.
Termiä tekoälyagentti käytetään nykyään melko hövelisti, mutta alun perin sillä on viitattu tekoälyn kykyyn hoitaa peräkkäisiä tehtäviä automaattisesti.
Tässä kirjoituksessa käsittelemäni esimerkki on tehty lontoolaisen startupin Convergence AI:n Proxy-työkalulla, jolle antamani komento oli seuraava:
Käy läpi suomalaismedioiden Ilta-Sanomat, Iltalehti, Yle, Helsingin Sanomat ja Keskisuomalainen verkkosivujen osa, joka kertoo luetuimmat jutut sillä hetkellä. Tämän jälkeen laadi taulukko, joka sisältää kunkin median nimen, viisi luetuinta otsikkoa, niiden keskimääräisen merkkimäärän (ilman välilyöntejä) sekä kolme pointtia, mitkä seikat yhdistävät kunkin tiedotusvälineen luetuimpia juttuja.
”Normaali” keskusteleva tekoälytyökalu ei kykenisi tekemään tämänkaltaista moniosaista tehtävää, mutta Proxyllä tässä kesti noin viisi minuuttia, eikä se tarvinnut täsmentäviä ohjeita, mitä se joskus kysyy. Proxyn tekoäly siis käytännössä käy promptissa mainituilla sivustoilla ja etsii niiden luetuimmat-osiot. Muutaman kohdalla tekoäly meni niille googlaamalla ensin ”Iltalehti luetuimmat”, osan kohdalla menemällä suoraan palvelun etusivulle ja etsimällä sieltä luetuimmat-osion. Proxy tarvitsi tehtävän toteuttamiseen 17 vaihetta, joista viimeinen oli pyytämäni taulukko. Kauneusvirhe oli se, että Proxy ei kyennyt tekemään taulukkoa täydellisenä Markdown-versiona keskustelunäkymään, eikä liitetiedostona, vaan tiedot oli itse kopioitava käsin tässä tapauksessa Google Sheetsiin:
Proxyn työstönäkymä näytti tältä:
Huono asia perinteisen median kannalta on ainakin se, että Proxy näyttäisi ohittavan sivustojen blokkausyritykset tekoälyille mm. ottamalla sivustoilta kuvakaappauksia. Median vinkkelistä tekoälyagenteille on helppo nähdä myös mahdollisuuksia, vaikkapa tutkivien toimittajien omiin seuranta-alueisiin erikoistuneiden tekoälyapureiden rakentamiseen. Kävin tätä puolta hieman enemmän läpi aiemmassa blogikirjoituksessani.
Tekoälyagenttien yleistymisen vaikutukset media-alaan ja esimerkiksi tutkivien journalistien tekoälytyökaluihin ovat tämänkin kokeilun perusteella ilmeiset. Riskitkin on helppo nähdä.
Tekoälybotit on suunniteltu pääasiassa vuorovaikutukseen ihmisten kanssa, kun taas tekoälyagentit pystyvät suorittamaan monimutkaisia ja peräkkäisiä tehtäviä itsenäisesti – käytännössä esimerkiksi käymään erilaisissa tietokannoissa puolestasi ja parhaimmillaan lähettämään tulokset ajastettuna sähköpostiisi vaikka maanantaiaamuisin kello 9.
En ole itse teknologian syväosaaja, vaan pikemminkin teknologiaan kriittis-innostuneesti suhtautuva umpihumanisti, joten päätin kirjata kokeiluni talteen myös tänne blogiin.
Kokeilin tekoälyagentin luomiseen ensin Zapier AI -nimistä palvelua, mutta se oli omaan makuuni hieman liian monimutkainen. Hollannin yleisradion strategiajohtajan Ezra Eemanin Wayfinder-uutiskirjeestä bongasin brittiläisen startupin Convergence AI:n Proxy-nimisen uuden palvelun, joka osoittautui käytettävyydeltään niin helpoksi, että se hakkasi Zapierin mennen tullen. Proxyä voi toistaiseksi käyttää useamman kerran päivässä ilmaiseksi.
Maksullisista tekoälytyökaluista käytän itse tällä hetkellä päivittäin Perplexityä (noin 20e/kk), mutta siinä ei vielä tällaista agentinluomismahdollisuutta ole – tosin veikkaan, että pian on, sillä alusta päivittää mm. kielimallejaan ja ominaisuuksiaan koko ajan, viimeisimpänä Deep Researchillä, joka leipoo aiheesta kuin aiheesta pelottavan hyviä akateemisen tason analyysejä lähdeviitteineen.
Kuvaile chat-ikkunassa, mitä haluat tehdä. Lähtöteksti on englanniksi, mutta voit keskustella normaalisti suomeksi. Valittavana on myös oletustehtäviä, kuten erilaiset uutistiivistelmät.
Voit täsmentää ohjeita matkan varrella.
Harrastan sukututkimusta, joten kokeilin siihen liittyvällä esimerkillä. Pyysin Proxyä hakemaan tietoa Kansalliskirjaston vanhojen lehtien digitoidusta tietokannasta siten, että saisin tiivistelmän aina tuoreimmista lisäyksistä, joissa sukunimeni mainitaan. Näin keskusteluni eteni:
“Mene osoitteeseen digi.kansalliskirjasto.fi, etsi tietoa nimellä “Pirhonen”, jäsennä tulokset muotoon “viimeksi lisätyt” ja kerro tuoreimmat 3 tulosta bullet pointeina niin, että mainitset lehden nimen, lehden julkaisupäivämäärän sekä lyhyesti kontekstin, jossa nimi Pirhonen esiintyy.”
Tällä komennolla sain ensin englanninkielisen tuloksen, joten täsmensin:
“Voisitko antaa tulokset suomen kielellä”.
Tämän jälkeen sain tuloksen, joka ei kuitenkaan ole aivan sitä mitä tarkoitin eli viimeksi lisätyt eivät ole ensin:
Täsmensin komentoa lisää:
“Muuta hakuasetuksia oikeasta yläkulmasta muotoon ’Viimeksi’ lisätyt, jolloin hakutuloksissa näkyy viimeksi lisätty tulos.”
Tämän jälkeen sain tuloksen, joka oli muuten ok, mutta halusin konteksti-kohdasta vielä hieman selkeämmän:
“Kerro kontekstista hieman tarkemmin niin, että asiayhteyden ymmärtää paremmin.”
Tämän jälkeen Proxy antoi juuri oikeanlaisen ja kaipaamani tuloksen:
Halutessani voisin pyytää Proxyä tekemään saman haun vaikkapa joka maanantai ja lähettämään tulokset sähköpostiini. Tämä toiminto ei kuitenkaan näytä käytännössä toimivan ainakaan vielä täydellisesti, vaikka joihinkin oletustehtäviin Proxy sitä jo tarjoaa. Tuloksen Proxy kyllä lähettää sähköpostiin, mutta ei ajastettuna, vaan pienellä viiveellä kunkin haun jälkeen.
Uhkia ja mahdollisuuksia
Joka tapauksessa on helppo nähdä, millaisia sekä mahdollisuuksia että uhkia tekoälyagentit tuovat media-alalle. Tulevaisuudessa agenttimaisten sisällönkuluttajien osuus epäilemättä kasvaa – mistä tiedät, onko taustalla oikea ihminen vai ei, suoraan tai välillisesti? Agentit myös käyttävät surutta medioiden tekijänoikeudellista sisältöä, mikä taitaa valitettavasti olla tuulimyllyjä vastaan taistelemista. Kyyninen voisi myös sanoa, että joissain medioissa tekoälyn tekemää sisältöä kuluttaa pian – tekoäly. Mihin jäi ihminen.
Riskinä on myös tietoturva. Jotta agentit pystyvät toimimaan, niille on annettava pääsy niihin järjestelmiin joissa haluat niiden toimivan, kuten vaikkapa kalenteriisi. Tässä kohtaa huomaan itse, että raja tulee vastaan, kun käytän kaupallisia ei-suljetussa järjestelmässä olevia työkaluja: en mielelläni anna niille pääsyä mihinkään, mihin ei ole pakko, koska en luota niihin tarpeeksi.
Mitä tulee mediaan ja etenkin journalismiin, agenteissa on helppo nähdä isoja mahdollisuuksia esimerkiksi tutkivien toimittajien työkaluihin: voit rakentaa helposti esimerkiksi agentin, joka kahlaa puolestasi tietoa haluamaltasi seuranta-alueelta. Tähän suuntaan jotkut mediat ovatkin jo omia tekoälytyökalujaan vieneet. Mahdollisuuksia on myös esimerkiksi personoitujen uutiskirjeiden tuunaamisessa – sellainen kun on helppo rakentaa jo nyt itse täysin haluamakseen, kuten tämäkin kokeilu osoitti.
Dagens Media: 15 esimerkkiä toimitusten tekoälyapureista tai asiakkaille näkyvistä tekoälyhankkeista
Käännökset ja tiivistelmät on tehty tekoälyllä. Oikeellisuuden tarkasti ihminen eli minä. Alkuperäinen juttu löytyy täältä. Olen mahdollisuuksien mukaan linkannut kunkin median työkalua käsittelevään juttuun tai itse työkaluun, mikäli kyse on asiakkaille tarkoitetusta sellaisesta, eikä toimituksen sisäisestä työkalusta.
Talargranskningen (Helsingborgs Dagblad): Työkalu puhdistaa ja jäsentää kuntien päätäntäelinten kokousten vaikeaselkoiset lokitiedostot helposti analysoitavaan muotoon. Tekoäly muuntaa tekniset tiedostot luettavaksi dataksi, tunnistaen ja erotellen puheenvuorot, puhujat ja aiheet. Tämä mahdollistaa esimerkiksi tilastojen luomisen puheajan jakautumisesta eri puolueiden tai henkilöiden kesken. Työkalun avulla HD teki artikkelisarjan poliitikkojen aktiivisuudesta ja julkaisi koko materiaalin tietokantana lukijoiden tutkittavaksi.
Mitt i bruset AI (Dagens Industri/Di Digital): Työkalu vastaa käyttäjien kysymyksiin erityyppisten elinkeinoelämän johtajien haastattelujen pohjalta. Järjestelmä on koulutettu Dagens Industrin tekemien haastattelujen sisällöllä. Käyttäjät voivat esittää kysymyksiä esimerkiksi johtamisesta tai siitä, miten menestyä. Tekoäly etsii ja yhdistelee olennaista tietoa haastatteluista muodostaakseen vastauksen. Tämä mahdollistaa vuorovaikutuksellisen tavan tutustua haastattelujen sisältöön ja saada käytännön vinkkejä yritysjohtajilta.
Valkompisen (Aftonbladet): Työkalu vastaa EU-vaaleihin liittyviin kysymyksiin Aftonbladetin toimittajien kokoaman tietokannan perusteella. Käyttäjät voivat kysyä esimerkiksi puolueiden kannoista tai EU:n toiminnasta, ja tekoäly muodostaa vastaukset. Valkompisen vastasi yli 150 000 kysymykseen EU-vaalien 2024 yhteydessä.
Chef GPT (Tidningen Chef): Työkalu luo käyttäjille johtamiseen liittyviä artikkeleita Chef-lehden 10 vuoden juttuarkistosta. Se käyttää RAG-tekniikkaa (Retrieval Augmented Generation), joka yhdistää tiedonhaun ja tekstin generoinnin. Käyttäjä voi kysyä esimerkiksi ”Miten pidän tehokkaan kehityskeskustelun?”, ja työkalu etsii olennaista tietoa arkistosta ja muodostaa sen pohjalta uuden artikkelin otsikoineen, ingresseineen ja AI-generoituine kuvineen. Käyttäjä voi esimerkiksi etsiä ratkaisuja tietyntyyppiseen johtamistilanteeseen, johon tekoäly tekee ratkaisuksi uuden artikkelin arkistomateriaalin pohjalta.
Aftonbladet Podcast Studio (Aftonbladet): Työkalu tuottaa automaattisesti uutispodcasteja toimittajien valitsemista aiheista. Järjestelmä tiivistää valitut uutisartikkelit, luo käsikirjoituksen ja tuottaa valmiin podcast-jakson käyttäen tekoälyääntä. Toimittajat valvovat prosessia ja varmistavat journalistisen laadun. Koko tuotanto tapahtuu alle 15 minuutissa. Tämä on mahdollistanut ”Update”-nimisen päivittäisen uutispodcastin tuotannon, joka on kerännyt noin miljoona kuuntelukertaa syyskuusta 2024 lähtien.
Aftonbladet Daily Arabic (Aftonbladet ja Alkompis): Työkalu kääntää Aftonbladetin suositun Daily-podcastin arabiaksi. Tekoäly kääntää ensin podcastin tekstin, minkä jälkeen toimittajat tarkistavat ja korjaavat käännöksen. Lopuksi teksti muunnetaan puheeksi tekoälyäänen avulla. Tämä mahdollistaa nopean ja kustannustehokkaan tavan tuottaa arabiankielistä uutissisältöä viikoittain. Podcastin avulla Aftonbladet tavoittaa arabiankielistä yleisöä, joka muuten jäisi kielimuurin takia tavoittamatta.
Lyssna på Hippson (Hippson/Everysport): Työkalu muuntaa Hippson-lehden artikkelit äänimuotoon AI-generoidulla äänellä (esimerkki). Järjestelmä on koulutettu lehden päätoimittajan äänellä. Se analysoi artikkelin tekstin, optimoi sen puhuttavaan muotoon ja luo äänitiedoston, joka kuulostaa päätoimittajan lukemalta.
Lyssna på toppnyheter (NTM Media): Työkalu koostaa ja lukee ääneen UNT.se-sivuston (Upsala Nya Tidning) viisi luetuinta uutista tunnin välein. Se kerää suosituimmat uutiset, tiivistää ne sopivaan muotoon ja luo niistä äänitetyn uutislähetyksen tekoälyäänen avulla. Järjestelmä tuottaa lähetyksen automaattisesti joka tunti klo 7-23, sisältäen intron ja outron. Toimitus tarkistaa jokaisen lähetyksen ennen julkaisua. Tämä mahdollistaa jatkuvan, ajantasaisen uutisvirran kuuntelijoille ja vie mediataloa lähemmäs ”fluid content”-ajattelua, jossa sama sisältö mukautuu eri formaatteihin.
Nyhetskollen (HD-Sydsvenskan): Työkalu tiivistää yön ja aamun uutiset podcastia varten. Se analysoi useita uutisartikkeleita, tunnistaa tärkeimmät tiedot ja muodostaa niistä tiivistelmän, joka sopii ääneen luettavaksi podcastissa. Työkalu muotoilee tekstin puhekielisemmäksi ja varmistaa, että kaikki numerot ja lyhenteet on kirjoitettu auki oikeaa ääntämistä varten. Tämä säästää toimittajien aikaa kiireisessä aamutyössä ja mahdollistaa nopean uutiskatsauksen tuottamisen.
AI-kompisen (NTM Media): Työkalu generoi otsikoita ja nostoja artikkeleihin. Järjestelmä on integroitu NTM:n toimitusjärjestelmään. Se analysoi artikkelin sisällön ja luo ehdotuksia pääotsikolle, alaotsikolle sekä printtijulkaisun nostoille. Toimittajat voivat käyttää ehdotuksia lähtökohtana ja muokata niitä tarpeen mukaan.
Automatiserad verifiering av spelare (Eliteprospects): Työkalu tarkistaa pelaajien henkilöllisyyden automaattisesti. Se vertaa käyttäjien lähettämiä henkilötietoja ja dokumentteja Eliteprospects-sivuston tietokantaan. Jos tiedot täsmäävät, profiili voidaan verifioida automaattisesti. Epäselvissä tapauksissa tai huipputason pelaajien kohdalla järjestelmä ohjaa tapauksen manuaaliseen käsittelyyn. Tämä on säästänyt huomattavasti asiakaspalvelun aikaa.
SEO-contentgenerator (Everysport Media Group): Työkalu luo hakukoneoptimoitua sisältöä urheiluaiheista Eliteprospects-sivustolle. Se yhdistää SEO-analyysin ja tekstin luomisen. Ensin se tunnistaa avainsanoja, joilla sivusto voisi parantaa hakukonenäkyvyyttään. Sitten se luo näihin avainsanoihin perustuvaa sisältöä, kuten otteluraportteja tai pelaajaesittelyjä. Sisältö optimoidaan automaattisesti hakukoneita varten. Tavoitteena on lisätä sivuston orgaanista liikennettä ja parantaa sen sijoituksia hakutuloksissa.
Notisgenerator (Tidningar i Norr): Työkalu kirjoittaa uutisia poliisin ja ilmatieteen laitoksen tiedotteista. Järjestelmä seuraa reaaliajassa poliisin RSS-syötteitä ja SMHI:n säävaroituksia API:n kautta. Kun uusi tiedote ilmestyy, tekoäly muotoilee siitä uutismuotoisen tekstin. Työkalu on räätälöity huomioimaan paikalliset alueet ja tapahtumien tyypit. Luodut uutiset lähetetään toimitukselle tarkistettavaksi ennen julkaisua. Tämä mahdollistaa pienille paikallistoimituksille (2-5 henkilöä) nopean reagoinnin paikallisiin tapahtumiin ja laajemman uutistarjonnan.
Quizmakaren (Tidningar i Norr): Työkalu luo tietovisoja julkaistujen artikkelien pohjalta (esimerkki). Se analysoi Tidningar i Norr -konsernin julkaisemia artikkeleita ja luo niiden pohjalta monivalintakysymyksiä. Se voi keskittyä esimerkiksi viikon luetuimpiin artikkeleihin tai tiettyyn aihealueeseen, kuten urheiluun tai lemmikkeihin. Tekoäly luo useita kysymysvaihtoehtoja, joista toimitus valitsee sopivimmat julkaistavaan visaan. Tämä mahdollistaa interaktiivisen sisällön tuottamisen pienillä resursseilla ja lukijoiden sitouttamisen uudella tavalla.
Nyhetsaggregator (Everysport): Työkalu kerää, luokittelee ja arvioi uutisia eri lähteistä. Se seuraa määriteltyjä RSS-syötteitä ja verkkosivuja, analysoi uutisten otsikoita, tiivistelmiä ja metatietoja tekoälyn avulla, luokitellen uutiset aihepiireittäin ja arvioiden niiden tärkeyden. Järjestelmä myös ryhmittelee samaa aihetta käsittelevät uutiset yhteen, mikä helpottaa kokonaiskuvan muodostamista ajankohtaisista aiheista. Työkalu on vielä testivaiheessa.
Iso kuva: Thomson Reuters -säätiön raportti tekoälytyökalujen käytöstä journalisteilla – kolme nostoa
EDIT: lisäys 7.2.2025. Alma Median journalisteille tarkoitetuista työkaluista kerrottiin 5.2. järjestetyssä tapahtumassa laajalti. Niistä voit lukea enemmän Linkedin-postauksestani.
Tämä blogikirjoitus sai kimmokkeensa Brian Morrisseyn The Rebooting -uutiskirjeestä, jossa pohditaan, miten verkon uutisartikkeli uudistuu ajassa, jossa tekoäly nopeuttaa teknologista kehitystä ja on mullistamassa muun muassa hakukoneiden toimintaa.
Verkon “uutisjuttu” on ollut perusrakenteeltaan aika lailla samankaltainen vuosikaudet. 2010-luvun lopulla alkoivat yleistyä kokeilut somekerronnasta inspiraationsa saaneilla ns. kortti- tai tarinajutuilla. Muutaman viime vuoden aikana artikkeleita on myös voinut alkaa halutessaan kuunnella, mutta isossa kuvassa useimmat nettijutut eivät ole merkittävästi muuttuneet: niissä on kuvaa ja tekstiä.
Moni uutismedia-alaa seurannut muistaa yli kymmenen vuoden takaa Circa-palvelun lupauksen ajatella artikkelia kokonaan uusiksi “atomisoimalla” tekstin pieniksi haarukkapaloiksi, jotka esitetään käyttäjälle yksi kerrallaan, mutta käyttäjien suosikiksi siitä ei lopulta ollut.
Generatiivisen tekoälyn myötä mahdollisuuksia innovaatioihin on nyt enemmän. Ehkä aikakin on kypsempi muutoksille.
Every.to. Tämä samannimisen vuonna 2020 perustetun media- ja teknologiayhtiön sivusto on oma suosikkini, koska se ottaa artikkelikehityksessään huomioon, että iso osa uutisten kuluttajista haluaa yhä kuluttaa uutisia myös tekstipainotteisesti. Se on sisällyttänyt juttuihinsa sisäänrakennetun chatikkunan, jossa voi paitsi keskustella sisällöstä, myös saada läpinäkyvyyden hengessä näkyviin juttujen taustalla olevan raakamateriaalin kuten haastattelut (klikkaamalla “View all sources”). Käyttökokemus on hyvin sujuva. Samaa ei mielestäni voi sanoa palveluista, joissa koko uutiskokemus on rakennettu chattaamisen ympärille. Tällaisessa mallissa kuluttaja ei välttämättä koe tuttuutta, vaan vieraita elementtejä on liikaa (ks. kohta 3.).
Kun Time-lehti esitteli vuoden 2024 henkilön Donald Trumpin, jutun saattoi paitsi kuunnella, siitä voi myös keskustella joko puhumalla tai chättäämällä. Summarize-nappulaa klikkaamalla jutun saa luettavakseen joko alkuperäispituudella, keskipitkänä tai lyhyenä. Tiivistelmät tekee tekoäly. Artikkelin alun navigaatiovalikon ”TIME AI”-painiketta painamalla tulee esiin laajempi näkymä, josta voi halutessaan vielä kääntää jutun haluamalleen kielelle.
Curio. Audiojournalismiyritys Curion uutissovellus julkaistiin alun perin Rio-nimellä maaliskuussa 2024. Sovellus tarjoaa pääsyn luotettujen uutisbrändien sisältöihin ja mahdollistaa niistä kyselemisen chat-pohjaisessa käyttöliittymässä. Sovelluksessa voi myös luoda itselleen kuunneltavaksi äänisisällön eri uutisaiheista. Valitsin tämän kolmanneksi esimerkiksi en sujuvan käyttökokemuksen vuoksi (koska sitä se ei ole, mikä johtuu ennen muuta siitä, että normiartikkeleihin tottuneelle sukupolvelle kokemus on ehkä liiankin mullistava), vaan siksi, että tässä “uutisartikkeli” on ajateltu siinä mielessä täysin uusiksi, että vaihtoehtoja on käytännössä kolme: 1) juttelet uutisaiheesta botin kanssa ja vastaukset toimivat käyttäjälle “artikkelina”, 2) botti linkkaa vastauksissan suoraan luotettujen uutistoimijoiden perinteisiin artikkeleihin, 3) botti luo haluamastasi uutisaiheesta “audiojakson”, kuten se sitä itse kutsuu. Kokeilin tätä viimeisintä ominaisuutta tänä aamuna tuoreimpien Syyria-uutisten kohdalla. Botti generoi 19 minuutin audion (jota en loppuun jaksanut kuunnella), mutta alun perusteella laatu vaikutti erinomaiselta.
+ Bonus: Particle on syytä noteerata, mutta sitä ei pääse vielä Suomessa kokeilemaan, joten vaikea luonnehtia omakohtaisesti sen enempää. Toimintalogiikka kuulostaa kuitenkin uudenlaiselta: Particle kertoo ydinajatuksekseen sisältöjen ryhmittelyn ”yhdeksi tarinaksi yhteen näkymään”, mikä tarkoittaa eri lähteiden uutisten kokoamista tekoälyavusteisesti ryppäiksi sen sijaan, että yksittäiset jutut eri aiheista olisivat fiidissä sekaisin. Particlessa käyttäjä voi räätälöidä omaa algoritmiaan seuraamalla paitsi tiettyjä aiheita, myös tiettyjä henkilöitä tai paikkoja. Sovellus ei tee omia uutisia, vaan käytännössä tarjoaa tiivistelmiä perinteisten medioiden jutuista. Valittavana on viisi tiivistelmätyyppiä, kuten ”selitä kuin olisin 5-vuotias”, ”vain faktat”, ”tiivistelmä eri kielillä”, tai mikä tahansa uutisiaihe äänitiivistelmänä. Kiinnostavin tiivistelmätyyppi lienee ”Opposite Sides” eli uutisaiheen esittely jutun edustaman poliittisen näkökulman mukaan – eli mihin suuntaan kallellaan minkäkin median jutun voi tulkita olevan ja miksi. Sovellus toimii toistaiseksi vain Yhdysvalloissa ja iPhonessa, eikä sitä ole saatavissa Suomessa.
Muistikirjan ja tekoälysovelluksen yhdistelmäksikin kutsuttu Googlen NotebookLM-työkalu on erinomaisen hyödyllinen yhteenvetojen tekemiseen uusilla tavoilla, jollaisiin perusbotti ei kykene. Gemini-tekoälymallia hyödyntävälle NotebookLM:lle voi syöttää lähdemateriaaliksi esimerkiksi pdf-dokumentin, Youtube-videon, äänitiedoston tai nettisivun, tai vain tekstiä.
Käyn tässä blogikirjoituksessa esimerkin kautta läpi, miten NotebookLM jäsensi mediayhtiöiden Sanoma ja Alma Media vuoden 2024 puolivuotiskatsauksia (34 ja 28 sivua, pdf-muodossa). Listaan lopuksi myös työkalun plussat ja miinukset tämän kokeilun pohjalta.
Jos käytät Googlen palveluita, voit käyttää NotebookLM-työkalua ilmaiseksi menemällä kirjautuneena osoitteeseen notebooklm.google ja klikkaamalla painiketta “Kokeile NotebookLM:ää”. Tämän jälkeen työkalu pyytää sinua luomaan “työkirjan”. Tämän jälkeen avautuu näkymä, johon kirjoitetaan, liitetään tai linkitetään haluamasi lähdemateriaalit.
Kun lähdemateriaalit on lisätty, aukeaa näkymä, joka antaa valmiin yhteenvedon ja joukon ehdotettuja kysymyksiä, joita klikkaamalla voit chättäillä lähdemateriaalista (joka näkyy vasemmassa reunassa, kuva alhaalla). Voit toki kirjoittaa myös omia kysymyksiä. Julkisuudessa ehkä eniten keskustelua herättänyt ominaisuus on kahden puhujan audioyhteenveto napinpainalluksella (oikea yläkulma), mutta suomeksi tätä ei vielä ole saatavissa:
Tässä esimerkkejä, millaisiin muotoihin NotebookLM taivutti Alman ja Sanoman puolivuotiskatsauksia joko esiasetettujen kysymysten tai itse esittämieni toiveiden pohjalta:
1) Alma Median strategiset riskit -tiivistys. NotebookLM:n erinomainen ominaisuus on lähdepallukoiden (kuvassa harmaalla) tuominen vastauksen yhteyteen. Kun viet kursorin pallon päälle, näet kohdan, johon tiivistys perustuu:
2) Lähdemateriaalin saa halutessaan vierelle isommin juoksemaan, kuten tässä esimerkissä Sanoman listaamista toimintaympäristön muutoksista:
3) Tässä tiivistyksessä on käyty läpi Sanoman tunnistamia strategisia riskejä. Kysymys (ylänurkassa) oli jo valmiina odottamassa, kun latasin materiaalit, joten riitti vain, kun klikkasin sitä ja sain vastauksen:
4) Tässä NotebookLM jäsensi Sanoman katsauksen aikajanaksi, jossa tosin oli hieman virheitä (Sanoma hankki Starkin elokuussa 2022 eikä elokuussa 2023). Alussa todetaankin, että lähdemateriaali on aikajanan luomiseksi hankala, mutta toiminto on parhaimmillaan erittäin kätevä:
5) Tällaisen käsikirjoituksen NotebookLM tekisi Sanoman puolivuotiskatsauksesta, jos juontajia olisi kaksi (kokeilin myös erikseen ladata lähteeksi audiotiedoston ja ohjeistin käyttämään samankaltaista jutustelevaa äänensävyä kuin tiedostossa, mutta tämä onnistui vaihtelevasti):
6) Tässä esimerkissä NotebookLM on automaattisesti luonut liitetyistä tiedostoista kysymyksiä ja vastannut niihin. ”Usein kysyttyä” on yhtenä oletuspainikkeena lähtönäkymässä. Jostain syystä tämä toimi minulla toistuvasti niin, että tähän yhteyteen työkalu ei tuonutkaan lähdeviittauksia, kuten yleensä – näitä tietoja en ole tarkastanut:
NotebookLM-työkalun plussia ja miinuksia
Plussat:
Lähteytyksen laatu: klikkaamalla pääsee heti tarkistamaan tiedon.
Lähteytysmahdollisuuksien monipuolisuus.
Hallusinointia oli yllättävän vähän.
Työkalun erilaisuus ja freesiys verrattuna perus-tekoälybotteihin.
Miinukset:
Tiedot täytyy edelleen tarkistaa myös erikseen – kuten työkalussakin todetaan: “NotebookLM voi edelleen antaa epätarkkoja vastauksia, joten sinun kannattaa ehkä tarkistaa faktat erikseen”. Etenkin jos lähdemateriaalissa on ääntä ja videota tekstin lisäksi, tarkistaminen on aikaaviepää.
Säätäminen. Lähdemateriaalien, asetusten ja komentojen kanssa kikkailemisessa menee lopulta aikaa, mikä on syytä huomioida. Vastaukset täytyy myös muistaa erikseen tallentaa muistiinpanoiksi, muuten ne eivät säily tallessa.
Helsingin Sanomien kehitysjohtaja Esa Mäkinen avasi Tampereen yliopiston luennolla tiistaina, missä tekoälyn kehityksessä yleisesti mennään ja erityisesti, miten se vaikuttaa media-alaan nyt ja tulevaisuudessa.
Tiivistän tähän blogiin väliotsikoiksi eräitä teemoja, joista Mäkinen puhui. Otsikoiden jälkeiset sitaatit ovat Mäkisen.
Median arvoketjun muutos & tekoäly ja tulevaisuus
“Journalistinen prosessi pitää pilkkoa palasiksi, jotta voidaan keskustella, mitä tekoäly mahdollistaa tai ei mahdollista. Olemme hahmotelleet [HS:ssä] tällaista karkeaa jakoa, jossa toimittajan työvaiheista ideointiin kuluu 10 prosenttia, tiedonhankintaan ja haastatteluihin 40 prosenttia, jutun kirjoitukseen tai muuhun tuottamiseen noin 30 prosenttia, editointiin 10 prosenttia ja julkaisuun 10 prosenttia ajasta. Jos tästä katsotaan, mitä voidaan automatisoida, se on etenkin tuo tiedonhankinta. Monissa medioissa on nykyään esimerkiksi jonkinlainen vehje, jolla litteroidaan haastatteluja – HS:llä ja Almalla Good Tape ja Ylellä itserakennettu systeemi.”
“Mutta toimittajan työprosessi ei ole suinkaan ainoa asia [arvoketjussa]. Kyse on siitä, miten median koko arvoketju muuttuu. Arvoketjussa on tiedonhankintaa, tuotantoa, jakelua ja kulutusta. Tiedonhankinta ja sisällöntuotanto olivat tuolla toimittajan työprosessissa, mutta kun mennään jakeluun ja kulutukseen, niin siellä mediataloilla ei ole välttämättä paljoa vaikutusmahdollisuutta siihen. Tekoälyn kehitys ei välttämättä vie meitä tulevaisuuteen, jossa olemme jonkin arvoketjun osia esimerkiksi niin, että käyvätkö ihmiset meidän palveluissamme, jotta voimme myydä heille tilauksia tai mainoksia.”
“Mitä media itse juuri nyt tekoälyllä tekee, tapahtuu etenkin tiedonhankinnan ja sisällöntuotannon saralla. Hyvin vähän näkyy jakeluun ja kulutukseen liittyviä innovaatioita. Esimerkiksi Samsungin kännyköissä on nyt vakiona selain, joka tekee artikkeleista tiivistelmiä. Tekoälyn avulla tiivistelmiä teki myös Artifact-sovellus, mutta sen toiminta on loppunut. Tämä on ehkä se keskeinen kysymys, johon en osaa vastata, että miltä se hevoskärryistä autoksi muuttuminen [viittaus aiempaan alustukseen] media-alalla tulee näyttämään. Jonkinlainen muutos varmasti tapahtuu 3–5 vuoden säteellä, mutta jos joku sanoo, että hänellä on varmaa tietoa, sanoja vähintäänkin liioittelee omaa osaamistaan.”
Miten toimittajan kannattaisi varautua näihin muutoksiin?
[tätä vastausta edelsi taustoitus digimuutoksesta kuten printti-digi-siirtymästä digin muutokseen, jossa digin sisällä tapahtuu paljon kehityskulkuja]
”Pitäisi katsoa paljon pystyvideoita ja tehdä niitä itse, pitäisi kuunnella paljon podcasteja ja tehdä niitä itse, ja kolmanneksi pitäisi opetella käyttämään Anthropicin Claudea tai muita vastaavia tekoälytyökaluja itse [läsnäolleista opiskelijoista noin puolet oli käyttänyt tekoälytyökaluja]. Eli suosittelen hankkimaan maksullisen chatpalvelun ja käyttämään sitä opiskelussa mahdollisimman paljon.”
Liquid Content vs. pink slime
Mäkinen viittasi alustuksessaan syväoppivaa tekoälyä tutkivan Googlen Deepmindin luovan johtajan Matthie Lorrainin ajatukseen “liquid contentista” eli käytännössä sisältöjen muokkautuvuuteen eri päätelaitteilla. Lorrainin ajattelussa tämä mullistaa sen, miten mediaa jaellaan tai kulutetaan tulevaisuudessa. Mäkinen:
Liquid contentiin liittyvä esimerkki on intialainen startup, joka lupaa tuottavansa videon mistä tahansa artikkelista viidessä minuutissa, joka sisältää myös ihmistoimittajan faktantarkistukseen käyttämän ajan. Norjalainen VG tekee jo aika paljon tämänkaltaista. Oslossa junissa ja kuntosaleilla on VG:n videotauluja, joissa on heidän artikkeleistaan tehtyä sisältöä. Lopputuotteet ovat aika yksinkertaisia, eivät valtavan ihmeellisiä asioita, mutta todennäköisesti katsojan kannalta riittävän hyviä. Ja ne pitävät paikkansa.
”Tekoäly mahdollistaa sisällön muodon muuttamisen toiseen suhteellisen helposti. Kunnianhimoisimmassa ajattelussa se on kuluttajan päätelaite, joka määrittelee, miten sisältö mukautuu kulloiseenkin käyttötarpeeseen osittain tai täysin automaattisesti.”
”Toinen puoli on ’pink slime’, eli ajatus jossa internet täyttyy geneerisestä roskasta. Jenkeissä on paljon sivustoja, jotka ottavat jotain random urheilutuloksia tai tiedotteita paikallisilta alueilta ja leipovat niistä semiuskottavan näköisen median. Instassa näkyy paljon sisältöjä, joista huomaa, että ne on tehty tekoälyllä…on blurrit taustat ja etualalla virheetön ihminen. Pink slime tulee täyttämään ensimmäiseksi todennäköisesti somen. Kun kysytään miten pärjäämme tulevaisuudessa, niin tuollaisessa maailmassa, jossa kaikki sisältö on vapaasti liikkuvaa, medioiden rooli kapenee yhdenlaiseksi. Voi toisaalta olla sellainenkin tilanne, että luotettava sisältö päätyykin yhtäkkiä merkittävään asemaan.”
”Kuvan todistusvoima on jo hävinnyt”
Helsingin Sanomat on aiemmin linjannut, että se ei julkaise tekoälyllä tehtyjä kuvia, mutta Mäkisen mukaan lopulta tuli eteen tapaus, jossa ”sellainen oli pakko julkaista”. Tässä tapauksessa kuvan päälle poltettiin merkintä, josta asia selviää. Näin merkintä näkyy myös, jos kuvaan päätyy suoraan hakukoneen kautta.
Mäkisen mielestä kielimallit olivat jo vuosi sitten kehittyneet siihen pisteeseen, että se tekee niin sanotusti virheetöntä jälkeä.
”Ne ovat niin hyviä, että ei ole mitään keinoa enää erottaa…kuvan todistusvoima on jo hävinnyt, mutta emme ole vielä sitä yhteiskuntana konkreettisesti ymmärtäneet.”
Mihin toimittajia tarvitaan?
”Kehitys, jossa tehdään vähemmällä enemmän, johtaa uusiin ammatteihin ja innovaatioihin, joita emme osaa tällä hetkellä kuvitella. Tällä hetkellä toimittajia tarvitaan keksimään niitä uusia toimenkuvia. Työmäärä ei välttämättä vähene, mutta työn luonne tulee muuttumaan toisenlaiseksi. Toinen vastaus on klassiset journalistiset hyveet. Toimittajia tarvitaaan edelleen siihen, kun maailmassa tapahtuu paljon asioita, joista ei ole saatavissa digitaalista jälkeä, kuten läsnäolo Ukrainassa. Ne jotka ovat olleet keikoilla, tietävät, että se on hidasta ja aikaavievää. Uskon, että saamme tehdä tulevaisuudessa enemmän [tätä], kun taas koneet tekevät töitä, joita emme oikeastaan haluaisikaan tehdä.”
Mistä media-alalla puhuttiin vuonna 2017? No ainakin Facebook-videoista. Tuolloin FB:n potentiaaliin suhtauduttiin mediataloissa vielä toiveikkaasti. Yhdenlainen ajankuva koko toimialalta – on kyse sitten uutisista tai suoratoistosta – piirtyy blogikirjoituksistani, joita olen tehnyt seitsemän vuoden ajan.
Kokosin luetuimmat blogikirjoitukseni samaan pakettiin, vuosi kerrallaan. Klikkaa otsikkoa lukeaksesi jutun (avautuu uuteen ikkunaan).
Pidemmittä johdannoitta listaan tähän lähdelinkkeineen esimerkkejä tekoälytyökaluista, joita mediataloissa käytetään toimituksellisen työn apuna. Lista perustuu julkisesti löydettävissä oleviin lähteisiin, jotka olen linkannut asiayhteyteen. Lista on uutistoimituspainotteinen, vaikka työkaluja käytetään muuhunkin.
SUOMI
Alma Media – mm. “vastaväittelijä”-toiminto, tekstin muuttaminen puheeksi koneäänen avulla, tekstien tiivistäminen, kuvatekstien automaattinen luominen, kääntäminen…
Alma Median vuoden 2024 puolivuotiskatsauksessa todetaan, että uusi AI-tiimi aloitti työnsä “ja ensimmäiset toimituksellista työtä avustavat työkalut otettiin käyttöön”.
Sanoma – tiivistäminen, ennakoiva otsikkoanalytiikka ja ehdotukset toimittajille…
Helsingin Sanomien ja Ilta-Sanomien yhteinen tekoälytiimi aloitti työnsä alkuvuonna 2024. Sen tehtävänä on “testata, ideoida ja myös kriittisesti arvioida omaan työhön vaikuttavia työkaluja”. Työkaluista ei ole kovin paljoa julkisesti saatavilla olevaa tietoa. Joitain esimerkkejä on mainittu Sanoman toimitusjohtajan Rob Kolkmanin esityksessä vuodelta 2024 (sivu 13).
Washington Post – “Neulaa-heinäsuovasta-etsijä” laajojen tietomassojen käsittelyyn
Washington Post julkaisi 18. elokuuta ensimmäisen jutun, joka perustuu uuden Haystacker-nimisen tekoälytyökalun käyttöön. Työkalu mahdollistaa suurten tietomäärien seulomisen ja niistä erilaisten ilmiöiden ja trendien havaitsemisen. WP:n teknologiajohtajan mukaan kaupalliset yleiskäyttöiset työkalut eivät pysty vastaavaan. Toistaiseksi työkalua käyttävät visuaalisen journalismin tekijät ja datajournalistit.
Ensimmäinen Haystackerilla tehty juttu käsitteli 700:aa maahanmuuttoa käsittelevää vaalimainosta ja sitä, miten kuvia tai tekstiä oli manipuloitu harhaanjohtavien väitteiden luomiseksi. Haystacker mm. otti automaattisesti stillejä mainosvideoista.
WP:n mukaan Haystackeria voidaan käyttää missä tahansa suuressa tietoaineistossa, joka on käytettävissä joko julkisen rajapinnan kautta tai toimitukselle suoraan annettuna.
+ bonus: aihetarjonnan monipuolisuusmittari eliamerikkalaisten yliopistotutkijoiden kehittämä Media Bias Detector
Nimestään huolimatta tämä työkalu ei ota kantaa uutisjuttujen puolueettomuuteen, vaan mittaa käytännössä juttuaiheiden tarjonnan monipuolisuutta: sitä, montako juttuartikkelia mistäkin aihepiiristä on tietyllä ajanjaksolla kussakin mediassa ollut. Tekoälyn rooli työkalussa on tehdä sellaista sisältöanalyysiä, jota vielä muutama vuosi sitten teki ihminen. Esimerkkikuva alla.