Big data for bedre og raskere læring

Selv i 2014 er det bare 8 % av norske grunnskoleelever som bruker ”data” på skolen hver dag, mens 75% av dem er daglige brukere på hjemmebane. Og da har de vel ikke en gang regnet med at smarttelefonen også er en datamaskin. Norske skoler er blant dem som har mest datautstyr og best nettverkstilgang i hele verden, men likevel blant de dårligste til å bruke det.[1] Måten læreprosesser designes på i skolen er med andre ord relativt lite endret for det store flertall av elever, selv om det meste av samfunnet ellers er blitt digitalisert.

Thoms Nordal, professor i pedagogikk har funnet ut at norske elever sitter 60 % av tiden alene og arbeider med arbeidsplan, og Kunnskapsdepartementet sier at ”forelesningen”, det vil si kateterundervisning er den dominerende formidlingsformen (Krokan 2012).

I en tradisjonell matematikktime vil læreren typisk gå gjennom et tema på tavla, så vil elevene øve seg på dette temaet etterpå gjennom å regne oppgaver. I sin gjennomgang må læreren velge hvilket nivå hun skal legge sin forklaring på, og vanligvis velges et nivå som kanskje ligger litt for høyt for de svakeste elevene og for lavt for de flinkeste elevene. Så får heller noen av de svakeste spesialundervisning for å kompensere for manglende læring i klassesituasjonen.

Ved å bruke big data kan en slik læresituasjon endres fullstendig, noe Knewton[2] er et eksempel på. Knewton utvikler systemer som tester elevenes kompetanse på det aktuelle området. På den måten kan de vite eksakt hva hver enkelt elev behersker godt, hva de er usikre på og hva de mangler forståelse for. Deretter henter systemet digitale læringsressurser fra en database der det finnes mange alternative forklaringer og fremstillinger for hvert enkelt kompetansemål. En forklaring på et matematisk prinsipp kan være en tekst, en annen kan være en video, en tredje en animasjon, en fjerde en simulering eller kanskje et spill osv.

Prinsippet i Knewton og det som kalles adaptiv læring er at systemet leter etter en virtuell tvilling, en som ligner mest mulig på den personen som skal ha en individuelt tilpasset læringssti. Systemet prøver å finne en person som hadde samme skåre i testene ved starten av læreprosessen som den nye eleven, og så spør den hva som fungerte best for de tidligere elevene som var i samme situasjon. Dernest hentes den aktuelle læringsressursen fra systemet og presenteres for eleven Etter at eleven har gått gjennom de aktuelle læringsressursene gjøres det en ny test og en ny vurdering, slik at elevene på hvert eneste testpunkt blir presentert for en unik læringssti.

Slike systemer for adaptiv læring bruker en recommender engine eller en anbefalelsesalgoritme for å plukke ut de aktuelle læringsobjektene. Noen av disse systemene er igjen basert på statistisk clusteranalyse, som finner ut hvilke enheter i analysen, i dette tilfellet elever, som er mest lik hverandre. Så brukes rett og slett erfaringene som tidligere elever har vært gjennom for å skreddersy en unik læringssti for hver enkelt elev.

Dette er nøyaktig samme prinsipp som Amazon, Netflix eller Spotify bruker når de skal gi deg anbefalinger om hvilke bøker, filmer eller musikk du kommer til å like. Og det virker som bare det.

Bruken av slike systemer i skolen vil ha dramatiske konsekvenser for både lærere og elever. For elevene vil konsekvensene være at hver eneste en av dem får et spesialtilpasset læringsopplegg som tar utgangspunkt i hva de kan fra før, hvordan de lærer best og andre faktorer en ønsker å inkludere i analysen, for eksempel om de lærer best alene eller i samspill med andre. Om dette siste er tilfellet kan slikt samspill initieres av systemet. Med et slikt system blir fenomenet ”spesialundervisning” borte, fordi alle får spesialundervisning og unike læreprosesser.

For lærerne vil det også ha konsekvenser, fordi de ikke lenger vil bruke mye av tiden sin på instruksjon / forelesning, personlig veiledning eller å ”rette” oppgaver som elevene har gjort.

Slike systemer påvirker med andre ord både måten tjenester ytes på, måten vi organiserer tjenesteytingen og måten vi leder disse prosessene på. Hva dette vil ha å si i det lange løp vet vi ikke så mye om ennå, for vi er helt i startgropen med å ta slike systemer i bruk.

Dette er et eksempel på at big data, her med elevers læreprosesser som eksempel, endrer måten vi utfører arbeidsoppgavene våre på. Big data gir rom for nye aktører fordi dette er disruptive tjenester (Christensen 1995) i forhold til de tradisjonelle tjenestene. Big data skaper også tapere, og det er dem som ikke skjønner rekkevidden av slike nye tjenester, som bruker mer tid på å motarbeide dem enn å skjønne hvordan de fungerer og hvilke konsekvenser bruken av dem har og som generelt er skeptiske til endring og til ny teknologi spesielt.

For dette er nok et eksempel på hvordan ny teknologi endrer samfunnet og dets organisasjoner.

[1] http://www.iea.nl/fileadmin/user_upload/Publications/Electronic_versions/ICILS_2013_International_Report.pdf Lest 26.11.2014.

[2] http://www.knewton.com/ Lest 27.11.2014.

Arne Krokan

professor emeritus, tidligere Institutt for industriell økonomi og teknologelse og Institutt for sosiologi og statsvitenskap NTNU. Forfatter, kurator, foredragsholder. Styremedlem Norsk teknisk vitenskapsakademi.

6 Comments

  1. Engelsk «big data» = norsk «stordata»

    Vanligste definisjoner av stordata er datasett som er større enn at de kan behandles med tradisjonell databaseteknologi. Så hvis et system samler inn logger i petabyte, eller mange terabyte, vil tradisjonell teknologi ikke strekke til. Loggdata fra noen tusen elevers aktiviteter blir muligens bli stordata hvis alle handlinger loggføres. Men de meste av læreingsanalyseteknikker er ikke avhengig av stordata, så bruk av dette begrepet er mer en «buzzwordifisering» som ikke bringer mer klarhet.

    • Takk for oppklaring her Harald. Nå brukes vel «stordata» i praktiske sammenhenger også om data fra feks Trumph og COOP-kortene, om analyser basert på Spotifys spillelister etc. Og dette er jo data som er lagret i databaser.

      • Hvis man kaller statistiske analyser av det som retronymt kan kalles «small data» for «big data»-teknologi, er det et bevis på nettopp at man ikke forstår hva «big data» er.

        Folk som har jobbet med seismikkdata, satelittovervåkning, meteorologi, filmeffekter, 3D-modellering og tungregning har jobba med datasett på grensen av hva vanlig systemoppsett er i stand til i flere tiår. De har ofte lite til overs for buzzordet stordata som tilslører at dette fenomenet ikke er noe nytt, selv om det har kommet en stabel med åpen programvare for å gjøre slik innsamling og analyse enklere (Apache Hadoop-programvarefamilien).

  2. Spennende lesning, Arne! Ser du for deg at førsteklassinger også kan bli tilbudt «digital spesialundervisning»? De 6-åringer som har vokst opp med nettbrett og PC-er mestrer Dragonbox ol. raskt, men det vil bli et «klasseskille» blandt de minste skoleelevene: De som er digitalt innfødte vs. de som har vokst opp uten datamaskiner / nettbrett. Hvor raskt vil klasseskillet jevnes ut?

    Teknologien du beskriver blir brukt av elever som motiveres av «Likes», «Thumbs up», «Godt jobba» og lignende respons etter å ha jobba i de spesialtilpassede læringsoppleggene. Den umiddelbare responsen som bl.a. khanacademy.org gir er en inspirasjonsfaktor og viktig drivkraft for de fleste.

    Det fins elever som ikke er motiverte for undervisning generelt og som i dag sitter i skolegangen i stedet for i klasserommet. Det er elever som trenger å bli hørt og sett. Kjenner du til hvordan de fungerer sammen med anbefalingsalgoritmer og adaptiv læring?

    • Jeg tror at slike tjenester vil skape nye læringsmuligheter som vil komme ulike typer elever tilgode. Ikke alle motiveres av det samme, så lærerne får nok en viktig oppgave med å få med alle i tiden fremover også. Men kanskje kan noen elever greie å bruke slike systemer og da kan jo noe av tiden som tidligere gikk med til instruksjon og veiledning av disse elevene komme andre elever tilgode?

  3. Having played around a little with Knewton and a couple of other adaptive learning engines, there are many positives when using with students for knowledge acquisition and basic comprehension exercises because it is essentially branched learning with learning objects, though it is a large learning object repository and you have algorithms making the matches based on large analytical data sets. But there are dangers here too, if we are to look at this through any «deeper learning» lens, ie Bateson’s Levels or multi-structural or relational levels of SOLO taxonomy – then algorithms can be problematic, they can remove necessary aspects of serendipity or discovery in learning processes for higher order thinking. That’s not to say adaptive learning isn’t important, but we have to be wary of the Christensen «Disruptive Innovation» narrative in educational technology (See Audrey Watters, Martin Weller or David Kernohan’s criticisms of this). So rather than the crisis of disruptive innovation, I’m interested in the opportunities of big data and learning analytics to inform and support practice of teachers by giving useful insight, dashboards and assistance – rather than the meme of creating teacher machines. That is the narrative of ed tech companies with a product to sell. Great to get the debate and discussion going though!

Svar på Jon HarmanAvbryt svar

Dette nettstedet bruker Akismet for å redusere spam. Lær om hvordan dine kommentar-data prosesseres.