Nye algoritmer og kunstig intelligens skaper utfordringer for mediesektoren

Første tekstutkast til avsnitt  fra en kommende bok …..

Movie QMediebransjen står overfor en rekke utfordringer som vil skape press på forretningsmodellene. En av utfordringene kommer fra algoritmene, fra systemer bygd på kunstig intelligens, maskinlæring og tilgang til enorme datamengder, analysekraft og raske nettverk.

Associated Press utga allerede våren 2015 over 3000 pressemeldinger i kvartalet skrevet av algoritmer. Da de tidligere gjorde slikt på den tradisjonelle måten, publiserte de bare 300 pressemeldinger i samme tidsrom. Slik teknologi ble spesielt brukt til å lage rapporter om bedrifters finansielle utvikling, men den blir også brukt til å lage rapporter om jordskjelv, til sportsreferater og andre rapporteringer av hendelsesforløp.[1]

I følge New York Times er ”a schocking amount of what we`re reading (is) created not by humans, but by computer algorithms”.[2]

En interessant studie gjennomført av Christer Clerwall (2015)[3] viste at mennesker som leste tekster skrevet av virkelige journalister og robotjournalister ikke greide å skille mellom dem. Forsøkspersonene ble bedt om å vurdere et utvalg artikler ut fra kredibilitet, om de likte artikkelen, artikkelens kvalitet med hensyn på om den var viktig, interessant, velskrevet osv og ”representativitet”. Dette siste ble beskrevet som en oppsummerende vurdering av om artikkelen er representativ for en type nyheter.

En faktor skilte seg imidlertid ut til fordel for journalistene og det var ”pleasant to read”, men på spørsmål om de trodde artikkelen var skrevet av software eller av en journalist, var det en svært stor andel av forsøkspersonene som mente at artiklene skrevet av software faktisk var skrevet av journalister, og en liten overvekt som mente at artiklene skrevet av journalister faktisk var skrevet av software. New York times lagde en quizz der en kunne lese utdrag av tekster for så å bestemme om disse tekstene var skrevet av journalister eller roboter.[4]

En av tekstene ser slik ut:

“When I in dreams behold thy fairest shade
Whose shade in dreams doth wake the sleeping morn
The daytime shadow of my love betray’d
Lends hideous night to dreaming’s faded form.”

Mennesker greier stort sett ikke å skille mellom tekster generert av algoritmer og tekster skrevet av journalister. Om vi antar at algoritmene  som genererer tekstene også blir stadig bedre, skaper dette et alvorlig problem for mediene. Det betyr at mer og mer av innholdet blir commoditystoff, at kostnaden ved å generere disse tekstene blir stadig lavere og at grensekostnaden i det lange løp går mot null, fordi også selve teknologiene bak blir commoditytjenester.

Hvilken innvirkning vil dette ha for avisenes forretningsmodeller?

I tillegg til at algoritmene lager stadig bedre tekster, bidrar teknologi også til å gjøre det enklere for journalister og andre tekstskapere å skape gode og riktige tekster. Ved Cornell har forskere utviklet en ”deep speech” algoritme[5] som transkriberer tale til tekst på en måte som virker like godt på mandarin som på engelsk. Dette innebærer at en ikke trenger å ha et stort produksjonsapparat for å generere tekster, men et digitalt støtteapparat for journalistene, som med slik hjelp kan øke produktiviteten samtidig som den språklige kvaliteten også øker.

Hva vil slik teknologi bety for medienes produksjonsprosesser?

Teknologien gir også mediebransjen andre muligheter knyttet til bildegjenkjenning. Kinesiske forskere har utviklet en algoritme[6] som gjenkjenner personer på bilder med større suksess enn hva mennesker har når de utfører de samme oppgavene. Forsøkspersonene ble gitt i oppgave å si om to forskjellige bilder er av samme person eller ikke. Bildematerialet bestod av over 13000 bilder av over 6000 ”public figures” hentet fra internett. Algoritmen greide å identifisere korrekt person i 98,5 % av tilfellene, mens [7]mennesker greide det i 97,5%.

Dette er teknologi som kommer til å bli tatt i bruk i passkontroller, identitetstjenester og ikke minst i journalistisk sammenheng, fordi den gjør det mulig å finne nesten alle bilder av en person på nett, selv uten at disse bildene er tagget med personens navn eller navnet er oppgitt i bildets kontekst.

Kombinert med algoritmer som skriver tekst kan  slik teknologi åpne for interessante og nye sjangere i mediene.

Bilde og talegjenkjenning er nå ”child`s play” for de mest avanserte algoritmene, men å forstå historier som andre har skrevet er mye vanskeligere. I følge en artikkel i MIT Technology Review[8] er dette imidlertid under endring. I ”Book2Movie: Aligning Video scenes with Book chapters”[9] viser forskere hvordan det er mulig å kartlegge forbindelsen mellom handlingen i en film og den tilsvarende teksten i boken som filmen er bygd på. Siden en gjennomsnittlig film er rundt to timer lang og inneholder over rundt 200 000 bilder er det en formidabel oppgave å analysere dette. Som hjelp i arbeidet samlet forskerne informasjon om 300 filmer fra Wikipedia og  andre databaser, som for eksempel beskrivelse av filmer for blinde og til og med regissørenes manus i de tilfellene de fikk tilgang til disse. Dermed kunne de utvikle en metode som gjør at en på grunnlag av for eksempel dialoger i filmen kan identifisere de delene av boken som filmen bygger på.[10]

Er vi snart der hvor algoritmene forstår historier like godt som mennesker? Kan de svare på spørsmål som ”hvem gjorde hva med hvem” i historien? Hvor foregikk en bestemt hendelse? Eller hvilke verdier bygger historien på? Mye tyder på at dette snart er tilfellet.

Dette er hva forskere innen ”dyp læring”, et område innen feltet kunstig intelligens, blant annet arbeider med. Nytten av slike systemer kan være store på ulike områder og de vil utfordre ikke bare journalisters arbeidshverdag, men også måten vi designer utdanning og læreprosesser på. For hva skal en gjøre i norsktimene når algoritmene hjelper oss med å skrive korrekt språk, de hjelper oss med oversettelse mellom ulike språk og de hjelper oss med å analysere innholdet i artiklene og bøkene vi leser. Det finnes snart en app for det også, på samme måte som det finnes en app som løser mattestykkene for dem.

Når algoritmene forstår oss mennesker redefineres forholdet mellom mennesker og maskiner må vi  være forberedt på hvilke sosiale og organisatoriske konsekvenser som følger av disse endringene. Det er nesten ironisk at Facebook er en av aktørene som leder an i denne utviklingen,[11] selskapet som har teamet opp med noen av de beste innholdsprodusentene i verden står fremst i utviklingen av kunstig intelligens som i det minste vil hjelpe de gode journalistenes til å bli bedre og kanskje til og med gjøre noen av dem overflødige.

Når algoritmene skriver poesi like godt som Shakespeare[12] og dette er tilgjengelig i en app, har vi kanskje noen utfordringer vi ikke tenkte på.

Hvor lang tid vil det ta før dette preger hverdagen vår? Ikke glem at det bare er syv år siden Facebook gikk fra å ha 3000 brukere i Norge til å runde 1 million. Og det skjedde i løpet av bare 10 måneder. Og nå går teknologiutviklingen raskere …

[1] Her er en artikkel som beskriver noe av utviklingen http://gmufourthestate.com/2015/11/23/robo-journalism-will-humans-become-obsolete/ Lest 16.12.2015.

[2] http://www.nytimes.com/2015/03/08/opinion/sunday/if-an-algorithm-wrote-this-how-would-you-even-know.html?_r=0 Lest 16.12.2015.

[3] http://www.tandfonline.com/doi/pdf/10.1080/17512786.2014.883116 Lest 16.12.2015.

[4] http://www.nytimes.com/interactive/2015/03/08/opinion/sunday/algorithm-human-quiz.html Lest 16.12.2015

[5] http://arxiv.org/abs/1512.02595 Lest 18.12.2015

[6] https://medium.com/the-physics-arxiv-blog/the-face-recognition-algorithm-that-finally-outperforms-humans-2c567adbf7fc#.5sx1krjhw Lest 18.12.2015. Lenke til forskningsartikkelen her http://arxiv.org/abs/1404.3840

[7] http://www.cv-foundation.org/openaccess/content_cvpr_2015/app/1B_078.pdf

[8] http://www.technologyreview.com/view/544506/now-ai-machines-are-learning-to-understand-stories/ Lest 18.12.2015.

[9] http://www.cv-foundation.org/openaccess/content_cvpr_2015/app/1B_078.pdf Lest 18.12.2015

[10] Forskerne bak dette har publiserte en rekke arbeider som underbygger ett av hovedmålene for prosjektet, at maskiner kan ”forstå” innholdet i filmer og historier. Her er en annen av artiklene https://cvhci.anthropomatik.kit.edu/~mtapaswi/papers/IJMIR_plot-retrieval.pdf Lest 18.12.2015.

[11] http://www.technologyreview.com/featuredstory/540001/teaching-machines-to-understand-us/ Lest 18.12.2015.

 

Arne Krokan

professor emeritus, tidligere Institutt for industriell økonomi og teknologelse og Institutt for sosiologi og statsvitenskap NTNU. Forfatter, kurator, foredragsholder. Styremedlem Norsk teknisk vitenskapsakademi.

3 Comments

Legg inn en kommentar

Dette nettstedet bruker Akismet for å redusere spam. Lær om hvordan dine kommentar-data prosesseres.