Adaptiv læring og læringsanalyse for raskere og bedre læring.

Tenk om alle bøker, aviser og tidsskrifter du har lest kunne ”lagre” blikket ditt. Om de ”visste” hvor lang tid du brukte på hver artikkel, hver side, hvert avsnitt, hva du hoppet over og hva du leste om igjen. Og tenk deg at denne informasjonen ble lagret for alle lesere, og at den var tilgjengelig for forfatterne og forlagene. Da kunne en finne ut hva vi likte og ikke likte å lese, hva vi skjønte fort og hva vi måtte lese mange ganger før vi forsto det. Dette er hva som skjer når vi leser i digitale medier. Da skapes det en stor mengde enormt detaljerte data som kan brukes til å analysere læringsmønstre og læringsutbytte. Analyser av slike ”stordata” (big data) er i ferd med å skape et nytt fag, læringsanalyse. Continue Reading

Big data for bedre og raskere læring

I en tradisjonell matematikktime vil læreren typisk gå gjennom et tema på tavla, så vil elevene øve seg på dette temaet etterpå gjennom å regne oppgaver. I sin gjennomgang må læreren velge hvilket nivå hun skal legge sin forklaring på, og vanligvis velges et nivå som kanskje ligger litt for høyt for de svakeste elevene og for lavt for de flinkeste elevene. Så får heller noen av de svakeste spesialundervisning for å kompensere for manglende læring i klassesituasjonen.

Ved å bruke big data kan en slik læresituasjon endres fullstendig, noe Knewton[2] er et eksempel på. Knewton utvikler systemer som tester elevenes kompetanse på det aktuelle området. På den måten kan de vite eksakt hva hver enkelt elev behersker godt, hva de er usikre på og hva de mangler forståelse for. Deretter henter systemet digitale læringsressurser fra en database der det finnes mange alternative forklaringer og fremstillinger for hvert enkelt kompetansemål. En forklaring på et matematisk prinsipp kan være en tekst, en annen kan være en video, en tredje en animasjon, en fjerde en simulering eller kanskje et spill osv. Continue Reading