LØRN Masterclass M0042
Nevrale nettverk og dyp læring
Klas H. Pettersen er i denne serien gjest for å fortelle om blant annet hva som er nytt i AI-verden, hvordan man anvender AI i praksis og forskjellige typer AI.

Klas H. Pettersen

CEO

NORA

"Det er store likheter mellom biologiske og kunstige nevrale nettverk"

Dette er LØRN Masterclass

Digitale samtale-baserte kurs – 4 x 30minutter
Vi samler de beste hodene bak de nye teoretiske konseptene innen ledelse av digital innovasjon og transformasjon. Vi dekker 15 tematiske områder innen ny kunnskap og erfaringer om innovasjon  og ledelse, og 10 perspektiver som gründer, forsker etc.  Innen hver av disse tema og 10 perspektiver setter vi opp digitale samtale-baserte kurs i fire deler, som alltid følger samme struktur: introduksjon, eksempler, verktøykasse og verksted. På cirka 30 minutter i hver leksjon vil du på en lett måte lære nye konsepter og forstå nye muligheter.
Digitale samtale-baserte kurs – 4 x 30minutter
Vi samler de beste hodene bak de nye teoretiske konseptene innen ledelse av digital innovasjon og transformasjon. Vi dekker 15 tematiske områder innen ny kunnskap og erfaringer om innovasjon  og ledelse, og 10 perspektiver som gründer, forsker etc.  Innen hver av disse tema og 10 perspektiver setter vi opp digitale samtale-baserte kurs i fire deler, som alltid følger samme struktur: introduksjon, eksempler, verktøykasse og verksted. På cirka 30 minutter i hver leksjon vil du på en lett måte lære nye konsepter og forstå nye muligheter.
Vis

Leksjon 1 - Introduksjon (46min)

Introduksjon til nevrale nettverk og dyp læring

Leksjon 2 - Eksempler (35min)

Det siste innen AI og ulike typer nevrale nettverk

Leksjon 3 - Verktøy (29min)

Viktige verktøy for anvending av AI i praksis

Leksjon 4 - Verksted (5min)

Hvordan kan en plattform anvende AI?

Ferdig med alle leksjonene?

Ta quiz og få læringsbevis

Du må være medlem for å ta quiz

Ferdig med quiz?

Besvar refleksjonsoppgave

Du må være medlem for å gjøre refleksjonsoppgave.

Tema: AI- og datadrevne plattformer
Organisasjon: NORA
Perspektiv: Forskning
Dato: 6, april 2022
Språk: NO
Sted:OSLO
Vert: Silvija Seres
Tags: #nevralenettverk #dyplæring #AI #kunstigintellgens

2000+ lyttinger

Litteratur:

Kai Fu Li - AI superpowers

Nick Bostrøm - Superintelligence 

Terrance Sejnowski - Deep learning revolution 

Max Tegmark - Life 3.0

Del denne Masterclass

Dette lærer du om i denne Masterclass

• Introduksjon til nevrale nettverk og dyp læring
• Det siste innen AI og ulike typer nevrale nettverk
• Viktige verktøy for anvending av AI i praksis
• Hvordan kan en plattform anvende AI?

Din neste LØRNing

Din neste LØRNing

Din neste LØRNing

Leksjon 1 - ID:M0042a

Leksjon 1 - ID:M0042a

Leksjon 1 - ID:M0042a

Velkommen til Lørn.tech – en læringsdugnad om teknologi og samfunn med Silvija Seres og venner.

 

Silvija Seres: Hei, og velkommen til Lørn Masterclass om AI og hjernen med Klas Pettersen, velkommen til deg også, Klas.

 

Klas H. Pettersen: Tusen takk, Silvija.

 

Silvija: Vi skal snakke om kunstig intelligens, artificial intelligence, AI, i relasjon til naturlig intelligens, prosesser som foregår i hjernen og hvordan dette her egentlig gjenspeiles i algoritmene og i anvendelser av de mest spennende kunstige intelligente systemer i dag. Klas, jeg skal si to ord om formatet før vi setter i gang, i tilfelle noen hører på oss for første gang i en Lørn Masterclass. Dette her er ment å være et to timers audio-kurs, som du kan høre på mens du kjører, mens du trener eller mens du vasker huset. Målet er å gi folk inspirasjon til å lære seg de viktigste trendene og teknologiene som er rundt oss i dag. Kurset er omtrent på to timer og er delt inn i fire halvtimers seanser, hvor første leksjon er en introduksjon om tema, andre halvtimen er eksempler, tredje halvtimen er en verktøykasse som kan hjelpe deg å komme i gang med tematikken, og den fjerde halvtimen, som ofte blir bare ti minutter, er en bitteliten workshop hvor vår master, i dette tilfellet, Klas, hjelper meg, en leder for en liten bedrift, om å forstå i praksis hvordan jeg kan anvende dette her. Da, Klas, er vi klare til å sette i gang med leksjon én, og første spørsmål er alltid: Hvem er du og hvorfor bryr du deg om denne tematikken? 

 

Klas: Et stort spørsmål. Bakgrunnen min, faglig sett, er hjerneforsker, så opprinnelig er jeg er fysiker, utdannet som sivilingeniør i fysikk, da studerte kvantemekanikk, relativitetsteorien, moderne fysikk, så det er den opprinnelige bakgrunnen, sivilingeniør. Så jobbet jeg en kort periode i et konsulentfirma, og etter det startet jeg en doktorgrad innenfor nevrovitenskap, hjerneforskning. Ikke bare nevrovitenskap, men teoretisk nevrovitenskap. Så jeg brukte den verktøykassen jeg hadde opparbeidet meg som fysiker, altså jeg brukte fysikk, matematikk og informatikk, for å prøve å forstå noe av det grunnleggende, hvordan hjernen fungerer, hvordan hjerneceller sender signaler mellom hverandre, hvordan de operer i et nettverk og hvordan man da fra å se noe, få visuelt input på øyet, prøve å forstå hva vi ser. Vi lever i en verden av rom og tid og navigerer rundt der, prøver å forstå egentlig hva som skjer i hjernen. Så det var ambisjonen min, der har jeg jobbet i mange år, 20 år, som hjerneforsker, cirka. Så ble jeg mer og mer interessert i kunstig intelligens, og da særlig den type kunstig intelligens som er relatert og inspirert rundt hjernen, kunstig nevrale nettverk, dyp læring. Det skjedde så utrolig mye spennende, feltet gikk raskere fremover enn både det jeg og veldig mange andre hadde sett for oss. Så kom det er par viktige gjennombrudd der, som gjorde at jeg etterhvert begynte å se meg etter jobber og forskningsprosjekter som gikk mer i retning av kunstig intelligens. Et par av de gjennombruddene regner jeg med at vi kan snakke litt om, men det var spesielt et gjennombrudd i 2012, hvor det var en algoritme som het AlexNet, som var veldig  god på bildegjenkjenning. For meg som sjakkspiller og brettspiller-entusiast, så kom det en veldig stor aha-opplevelse med en algoritme som heter, AlphaGo, og etterpå AlphaZero, hvor mennesker ble knust i det komplekse brettspillet av en algoritme. 

 

Silvija: Vi kommer egentlig tilbake til spill og kunstig intelligens. Jeg må innrømme, at for meg var det to slike hårreisende, spennende og grusomme øyeblikk, det ene var når jeg så AlphaGo spille Atari-spill. Den spilte pong, som er et lite brett hvor du putter denne ballen opp. De ga datamaskinen ingen regler, den måtte skjønne selv ut i fra piksler hva dette spillet er og hvordan vinner jeg og hvordan spiller jeg. En ting er at den lærte å spille etterhvert, men den lærte seg noen strategier, som jeg som da har spilt det spillet ikke har skjønt selv, hvor den da gravde seg gjennom en slags tunnel. Denne lille ballen som bumpes opp, den skal du knuse murstein med på toppen i denne boksen, og det klarte å grave seg en slags tunnel på siden, og så dumpet den bare opp og knuste mursteinene ovenfra. Det fascinerte meg at en maskin klarte å finne strategier på et spill den ikke en gang kan se, som ikke vi mennesker klarte å komme opp med.

 

Klas: Det er jo det som er så fascinerende, det er at nå de senere årene at mennesker har lært en del av de algoritmene vi har utviklet, og algoritmen du snakker om der er en etterfølger, egentlig, av AlphaGo. Først kom AlphaGo så kom AlphaZero, som kunne spille sjakk og Shogi, så nå er det noe som heter MuZero, som spiller mange Atari-spill. Det er utrolig fascinerende, og mitt aha-øyeblikk, hvor jeg virkelig bestemte meg for å gå mer inn i kunstig intelligens, handlet akkurat om det du sier der. Det var på spillet Go, og hvis dere googler Lee Sedol og AlphaGo og den kampen de spilte, så var det spesielt. Hvis jeg husker riktig, så var det trekt 37 i spill nummer to. Hvis dere ser filmen av reporterens der som kommenterer, deriblant verdens beste golfspillere, så gjør den algoritmen av AlphaGo et trekk som de tror er en feil. Det her kan ikke være riktig, sier de. Var det et onlinespill hadde vi vært sikker på at det var en museklikkfeil. Den la en brikke på et helt ulogisk sted for mennesket, så gikk spillet sin gang, så viste det seg omsider at AlphaGo vant det spillet på grunn av det trekk 37. Det har jo revolusjonert teorien i det brettspillet i Go, man har lært masse som mennesker av algoritmene. Mye av det samme ser du med sjakk, også. Magnus Karlsen også sier det, at han har blitt sterkt inspirert det siste året av hvordan AlphaZero spiller sjakk. Det er veldig fascinerende, vi bruker vår kunnskap om spill og vitenskap og informatikk og klarer å utvikle komplekse algoritmer, som typisk ved selvspill, spiller mot hverandre, blir bedre og bedre og bedre og til slutt gå langt forbi oss mennesker, så kan vi mennesker lære tilbake av algoritmene de har skapt. Det er litt fascinerende. 

 

Silvija: Dette her er da super fascinerende for oss mennesker også, fordi det utfordrer oss på vår oppfatning på hva det er vi mennesker er og hva er vi gode på, vår theory of mind. Veldig interessant da å begynne å drodle om kunst og når kommer det øyeblikket hvor en datamaskin har kanskje skrevet en symfoni eller malt et bilde, som vi faktisk er enig om er helt fantastisk, og kanskje på en måte som overrasker oss.

 

Klas: Ja. Det er faktisk en av de områdene som jeg personlig synes kunstig intelligens har kommet ganske langt i. De er gode på å fantasere. De nye språkalgoritmene, for eksempel, de skriver tekst, gode historier. Så er det ikke alltid at det de skriver er riktig, men vi ser nå, selv om det er lengre og lengre tekster nå, så er det god sammenheng i teksten, og du kan følge historiene. Samme når det gjelder bilder, de kan produsere kunst, i anførselstegn, sikkert mange som er uenig med meg, men jeg synes mye av det er god kunst. De produserer kunst som er fantastisk, synes jeg. For meg også er sjakk kunst, eller Go. Når et program gjør et slikt trekk, som gir deg en helt ny innsikt og man får en spesiell følelse av å se på algoritmene spille, så er det også for meg en stor kunstopplevelse. 

 

Silvija: Her kommer vi tilbake til ditt utgangspunkt, Klas, for jeg må bare kommentere tilbake. Du og jeg ender opp med alltid veldig saftige diskusjoner eller gode samtaler når vi først kommer i gang, så vi må passe oss litt her nå. Kunst dreier seg, i hodet mitt, i veldig stor grad om å utforske the human condition, det er noe utrolig vakkert og rørende i det å kjenne igjen all den rare psykologien sin, egentlig i absolutt alle menneskene på jorden. Det er derfor det er bra når kunst provoserer, når den får oss til å innse noe mer om hvem vi er og hva verden vår er. Det er der det er så fascinerende at maskinene klarer å gjøre dette her etterhvert. En ting er om de imiterer utrolig bra og bare bruker våre mønstre i enda bedre og større grad enn det vi gjør, eller om de mønstrene etterhvert har en semantikk for dem. Det er her vi etterhvert kommer til å snakke om general AI og viljen i datamaskiner og slikt. Jeg tror at de utfordrer oss, denne kunstige intelligensen og maskinene, på en veldig positiv måte, på måter som ikke vi mennesker har akseptert ennå. 

 

Klas: Der er du inne på et veldig kritisk punkt, for mennesker er ikke så glad i å kalle ting kunst hvis det bare er en slags etteraping eller simulering av ting. Det er litt spennende, for hva er en simulering og hvis vi snakker om kunstig intelligens, hva er intelligens. Man kan skille mellom mange forskjellige ting. Vi har jo en bevissthet som menneske og så er vi intelligente vesener, liker vi å tenke hvert fall, haha. Men intelligens, det er en stor debatt, men slik jeg ser det, så er et dataprogram intelligent hvis du klarer å simulere intelligens. Så klarer du å simulere intelligens, så kan dataprogrammet gjøre intelligente ting og du har på en måte en intelligens foran deg. Så er det helt noe annet hva bevissthet er. Hvis du simulerer bevissthet, at jeg sitter foran en robot som kan etterape og gjøre ting, så kan jeg likevel aldri være sikker på at den roboten er bevisst. Men jeg kan se på handlingene til roboten og se at den er intelligent. Her har du et veldig skille, mener jeg personlig, mellom intelligens og andre ting vi snakker om, som ofte kan være viktig når det gjelder kunst og opplevelser, da er det jo bevissthet, det som på fagspråket heter qualia, at du har en opplevelse av ting. Det er ikke bare ved at du får en viss bølgelengde inn på øyet som tilsvarer rød, men du assosierer ting, du får en følelse av rød, og det er det som heter qualia. Det er to vidt forskjellige ting, bevissthet vet man ekstremt lite om forskningsmessig, det er større og større forskningsfelt og man vet mer og mer. Man forsker mer og mer på blant annet hva er minste delen av hjernen, hvilke prosesser hjernen holder før man er bevisst, så man prøver å finne bevissthet i hjernen, men man vet veldig lite. Når det gjelder intelligens, så er det en helt annen definisjon. Det handler egentlig om å være god på problemløsning. Da har vi menneskelig intelligens, så klart og så har vi etterhvert fått mer og mer kunstig intelligens. Intelligens-feltet, når det gjelder mennesker, så har man diskutert synematikken og slikt før det. Skal vi gå ned den stien nå, Silvija? 

 

Silvija: Nei, vi skal vente litte grann, bare. Jeg har lyst å henge meg litte grann ved hjernen før vi prøver å simulere den. Kanskje egentlig ta enda et steg tilbake og spørre deg om dette med bevissthet og følelser. Kunne man sagt at bevissthet, og nå vet jeg at jeg super-forenkler, men bare slik at vi ikke blir for filosoferende matematiske. En ting er å registrere noe informasjon i verden rundt deg. Du har sett noe, du har sett noe som sender deg bølgelengder som er rød, men så har det skapt en reaksjon i deg. Den reaksjonen kan være glede, frykt, men det er den reaksjonen i tillegg. Vi vet at datamaskinene har sensorer som etterhvert opplever, registrerer like mye, eller mer, om verden rundt seg, enn det vi gjør. Det trodde vi var veldig vanskelig, fordi øyet er så fantastisk, men så ser vi hva som skjer nå, med selvkjørende biler, og så videre. Så har de bearbeidelses-mekanismer, algoritmer i seg, så hjernen må gi dem belønninger eller negative følelser, også, hvis det er det som er riktig i forhold til det. Hvorfor er det så veldig stor forskjell på den kjemiske reaksjonen i mennesker, fra den digitale reaksjonen i en selvkjørende bil, for eksempel, som bremser i frykt for det at de har sett et skilt. 

 

Klas: Hvor stor forskjell det er, og hvor stor forskjell det blir i fremtiden, det vet man ikke. Problemet er at vi ikke vet så mye om hva bevissthet er. Nå er vi inne på det David Chalmer kalte the hard problem of consciousness. Han så på bevissthet på to måter, the easy problem, det er rett og slett det at vi kan forstå alle prosesser som skjer i hjernen når jeg opplever noe. Du nevnte frykt, du nevnte andre ting som skjer, når jeg får input, så kan jeg i prinsippet måle en hver hjernecelle-aktivitet i hjernen og det reflekterer akkurat hva jeg føler. 

 

Silvija: Bare slik at jeg har et bilde av det, hjernen er et slags nettverk av disse celler med lange tentakler i mellom, som er disse nevroner. Og når de styrer aktivitet, så er det noe strømsignaler som går her.

 

Klas: Riktig. Hjernen er elektrokjemisk, det betyr at den fungerer ved elektrisitet og kjemi. Du har hjerneceller, cirka hundre milliarder nevroner, som sender signaler til hverandre i et veldig komplekst nettverk. Hvert eneste nevron knytter seg til mellom 1000 og 10.000 andre og den sender elektriske pulser. Disse pulsene, det du opplever er kun et resultat av din hjerneaktivitet, det er på en måte grunnleggende tese. Det du opplever også når du føler ting og føler at du er Silvija og ser ting foran deg og opplever deg i rom og tid, det du føler der er et resultat av hjerneaktivitet, det er ikke noe magisk som skjer, med andre ord. 

 

Silvija: Bare så jeg oversetter, jeg må forenkle litt. De elektriske signalene som skytes mellom nevroner, det kan vi etterhvert måle og det kan vi forstå og vi kan skjønne hvilken del av hjernen som jobber med synet, hvilken jobber med balanse og hvilken jobber med matematikk. Men det vi ikke skjønner helt er konsekvenser… for det skjer noe kjemisk, også?

 

Klas: Man forstår egentlig kjemien, kjemien kommer først og fremst inn i synapsene. En hjernecelle er ikke fysisk koblet med en ledning fra en hjernecelle til en annen, det er litt mellomrom mellom hjernecellene og når enden av den ene hjernecellen, en slags spagetti-arm som strekker seg ut, og når enden av den mottar et signal, så ligger den helt inntil en mottaker-arm fra et annet nevron, der fries det kjemikaler, og det er synopsen. Synopsen er kjempeviktig, det er blant annet også der læring foregår. Avhengig av aktivitet og belønning, så kan disse synopsene styrkes eller svekkes, og det er læring. 

 

Silvija: Det har jeg også lyst å ha et bilde av. Så jeg har masse, masse lysende prikker her i hjernen, og de er faktisk ikke de cellene, men det er de koblingene mellom dem, og jo flere ganger jeg har koblet der, jo sterkere blir det lyset, kan jeg tenke slik?

 

Klas: Hmm…

 

Silvija: Hvordan skal jeg tenke på den styrkingen?

 

KP: Du kan godt tenke lys, men du har hjernecellen, det er en celle-kropp, så den er typisk ganske rund, ut i fra den trekkes det veldig mange armer, lange spagetti-armer som går ut, de armene kan du tenke på som ledninger som sender en elektrisk puls. Det går en elektrisk puls ned armen, når den kommer til mottakeren, som er synopsen, så sender den ut et kjemisk signal til neste nevron. Den synopsen kan styrkes og svekkes, det er det som er læring, det er slik medisiner kan virke. Det er der du har en kjemisk mulighet til å påvirke hele systemet, det er signaler som overføres kjemisk. Det er derfor man kaller hjernen elektrokjemisk. 

 

Silvija: Det er koblingene, så det jeg skal tenke på hvis jeg har gjort et regnestykke, repetert og lært leksen min skikkelig bra, så har den spagettien blitt på en måte tykkere? 

 

Klas: Ja, det kan du godt tenke. Den koblingen er sterkere, koblingen mellom de to hjernecellene som sender det signalet er sterkere. 

 

Silvija: Det vi kan forstå og måle etterhvert, det er hvordan disse spagettiene kobles sammen og hvordan de er blitt tykkere på grunn av diverse hjerneaktivitet. Nå prøver jeg å gå over til, hva er det harde problemet. Det er hvordan dette påvirker følelser, eller bevisstheten?

 

Klas: Ja. Det er det som fortsatt er et stort mysterium. Vi kan i prinsippet følge all hjerneaktivitet og det er det som gir opphavet til følelser og annet, men å gå fra det og vite hva hjerneaktiviteten er, til det at jeg sitter her og har en spesiell følelse av å se en farge eller se en film, og så videre, det er det David Chalmer kalte hard problem of consciousness. Det skal sies at the easy problem også er kjempekomplisert, å prøve og forstå signalbehandling av hjernen, men det å forstå hvordan det gir opphav til en bevissthet og en følelse av et jeg i en verden, det er kjempevanskelig. Der er vi langt fra å ha noe vitenskapelig svar på.

 

Silvija: Kan jeg kaste inn en bok her? 

 

Klas: Ja.

 

Silvija: Dette er faren når folk leser bøker om ting de ikke har noe som helst peiling om, men den heter Molecules of Emotion, den er skrevet av en eller annen biokjemiker, mikrobiolog dame i USA, som prøver å forklare hvordan noe enzymer i cellene våre, som hun forbinder med kjærlighet.

 

Klas: Ja, det er sikkert oksytocin og andre, så man har mange molekyler som påvirker, vi snakker også morfin og heroin og andre stoffer du kan ta kunstig, så påvirker det helt klart lykkefølelse, glede og så videre. 

 

Silvija: Hennes forklaring var hvordan hjernen og kjærlighet egentlig henger sammen med evolusjon og hvorfor er den følelsen egentlig nyttig for oss, hvorfor har vi den? En utrolig fascinerende bok som jeg har nå glemt hovedlinjene i. Det er dette vi egentlig ikke helt klarer å forstå godt nok og da kan vi ikke vite hvordan vi skal implementere det i maskinene heller. Det er vel egentlig der vi er nå, eller?

 

Klas: Til en viss grad. Det kommer an på kunstig nevrale nettverk, for de er bygget opp og inspirert av hjernen, så kunstig nevrale nettverk, der kan man også se for seg nevroner og man kan se for seg synopser. Det er så klart små programmer i datamaskinen, så man snakker ikke om noe fysisk, det er et lite program, en liten algoritme som styrer hvert enkelt kunstig nevron, og så er det også et program som er rett og slett et tall, den vekten mellom to nevroner, og det er synopsen. 

 

Silvija: Det vi ikke har snakket om enda, og det er det andre spørsmålet jeg gjerne vil stille deg før vi går inni nevrale nettverk: abstraksjons-problemet. Når vi lærer, så er det ikke bare snakk om at nå har vi sett verden, sett alle farger. Vi mennesker har en evne til å abstrahere og generalisere læringen vår, derfor vet vi egentlig litt mer enn det vi har opplevd, på en måte. Det er noe med disse abstraksjonsnivåer som også skjer i nevrale nettverk.

 

Klas: Men, likevel, der har vi mye å gå på, for å si det slik. Hvis man spoler litt tilbake og ser på menneskelig intelligens, det var vel i 1904 at Spearman definerte det han kalte G-faktor. Det han snakket om var at du har intelligens innenfor veldig spesifikke områder. For eksempel kan du være ekstremt god i matematikk, du kan være ekstremt god i engelsk, og så videre. Du har spesifikk intelligens innenfor spesifikke områder. Men så fant han også ut ved sine studier at mennesker som var ekstremt gode i matematikk har en tendens til også å være flinke på andre områder, intelligente på andre områder. Det er en viss koordinasjon, selv om man ser tydelig at det ikke alltid gjelder, men det er en viss koordinasjon innen det å være intelligent innenfor ett område og andre områder. Det va det den G-faktoren… det man ville nå kalle generell intelligens det handler om, det at du er intelligent over flere områder. Og så er mennesket og da ekstremt god på å ta med seg kunnskap fra noe vi har lært på ett område og abstrahere kunnskapen for å kunne anvende den innenfor et annet område. Hvis vi da går til kunstig intelligens, så er kunstig intelligens ekstremt god innen mange spesifikke områder nå. Kunstig intelligens kan være kjempegod på sjakk, den kan være god innenfor noen områder innenfor kreft, kjenne igjen kreft i bilder, og så videre. Men det er ingenting med de algoritmene der som enkelt gjør at du kan ta med den kunnskapen og bruke den på et annet område. Vi er med kunstig intelligens langt fra å skape det som heter artificial general intelligence, altså, generell kunstig intelligens. Det gjør også at kunstig intelligens er veldig ueffektiv, for et hvert nytt problem må du trene opp algoritmen din med data, du må trene ekstremt mye. På tross av millioner på millioner av timer for selvkjørende biler hvor de har filmet alle mulige situasjoner, så har vi fortsatt ikke selvkjørende biler. Mens et menneske kan sette seg inn i løpet av et kurs på 24 timer, lære seg å kjøre en bil. Vi bringer med oss en mental modell, en intuisjon rundt fysikk, vi har rett og slett en world model, som heter en verdensmodell på hvordan ting fungerer, som vi tar med oss, og den kunnskapen er nyttig også når du kjører bil. Vi bør ikke som mennesker kjøre utenfor et stup tusen ganger for å forstå at det skal vi ikke gjøre, mens en algoritme må faktisk det. En algoritme, skal trene den fra scratch, så må den selv lære at den ikke skal kjøre utenfor et stup, og det holder ikke med én gang, den må gjøre det veldig mange ganger for å forstå det her. Da er vi inne på et nytt konsept, forståelse, hva er det? 

 

Silvija: Jeg synes du er litt slem mot algoritmene nå, det kan tenkes at vi står på skuldrene til kjemper, og det er evolusjonen. Evolusjonen har gitt oss all den intuisjonen og forståelsen av fysikken og gravitasjonen og verden vår. Ikke minst hva kroppen vår tåler og ikke tåler. Mens, kan man ikke tenke seg at datamaskinene, algoritmene kan ta oss igjen. De lærer fra scratch nå, men neste generasjons kjørings-algoritmer kan få med seg alt det som forrige generasjon har lært og forstår, som en basis å bygge på, slik at det vi bygger da, våre selvkjørende biler etterpå kan da kanskje være to eller tre generasjoner av verdensforståelse.

 

Klas: Ja, altså, vi har jo fått til ekstremt mye i løpet av veldig kort tid. Det er klart det er litt feigt å sammenligne med menneskelig intelligens, som du sier, den evolusjonen som har brakt oss hit vi er. Men når det er sagt, vi tar jo ikke med oss kunnskap, egentlig, fra andre generasjoner. Det som har skjedd gjennom evolusjonen er at man har utviklet, det man i kunstig intelligens ville kalle hyperparametere for det nevrale nettverk. Vi har utviklet nevrale nettverk som egner seg spesielt godt til å være menneske her i den verden vi lever i, så vår hjerne klarer å lære å være generelt intelligent, lære de tingene vi trenger for å overleve her i verden. Vi har utviklet grunnlaget, men så må vi og bruke livet på å lære oss konkrete ting, men vi har et spesielt godt egnet geologisk nevralt nettverk i oss, som gjør den læringen ganske enkel og vi lærer mye raskere enn det kunstig intelligens typisk gjør. 

 

Silvija: Noen av oss gjør det. Jeg er så dårlig til å kjøre bil, Klas. Helt seriøst, jeg kjører forsvarlig og greit nå, men ikke sant, noen har ekstremt god koordinasjon og noen har ikke det, så vi mennesker er også forskjellige. Den forskjellen oss i mellom pleier vi av og til å undervurdere.

 

Klas: Det er slik evolusjon fungere også, at vi er forskjellige, noen er gode, noen er ikke gode, noen dør ut og noen bringer sitt nevrale nettverk videre til neste generasjon. Så du får kjøre forsiktig, Silvija. 

 

Silvija: Jeg kjører forsiktig, men jeg er en av de som ville blitt spist opp av en sabeltanntiger ganske fort, tror jeg. Eller snublet over en grein, og. Men, du, nå har vi denne fantastiske hjernen vår, altså et slags nettverk, kalt nevroner, det er koblingene mellom dem i disse synopsene som da besitter denne kunnskapen, så det ligger veldig mye skjult kunnskap der også gjennom biologien vår. Så bygger vi det vi kaller for kunstige nevrale nettverk. Der har du beskrevet det som et sett av koblinger i en datamodell, det er en simulering av et nettverk. Informasjonen ligger lagret i disse koblingene. Hvorfor blir det så smart? Hva har det med kunstig intelligens å gjøre?

 

Klas: Kunstig intelligens, som du godt oppsummerer her, er en etterligning av hjernen, nå snakker vi da om kunstige nevrale nettverk, som betyr at du har disse små programmene og synopsene hvor informasjon ligger lagret, som du sier. Måten man bygger opp det her på, det er en veldig generell algoritme, egentlig, og hemmeligheten er at man har gode metoder for å lære opp disse algoritmene til å kunne takle veldig mange forskjellige ting. For eksempel, hvis man går til bildegjenkjenning, så har man da, igjen, inspirert av hjernen med dette nevrale nettverket som man kaller forskjellige lag. Nederste laget er et slags mottakerlag, som bare tar i mot et bilde inn, det bilde kan være hva som helst, også prosesseres da informasjon oppover i hvert lag og informasjonen som prosesseres blir på en måte mer og mer kompleks. Slik fungerer også det visuelle systemet til en viss grad i hjernen, også i hjernen har man mottakernevroner, som reagerer på veldig enkle ting, bare egentlig lysglimt, typisk en lys prikk med en mørk ring rundt, det er det som er favoritten blant de grunnleggende hjernecellene. Så er det slik at om man setter sammen lysbrikker på riktig måte, kan man lett bygge opp hva som helst. Man kan lett bygge opp en strek, ha piksler eller lysbrikker etter hverandre. Det betyr at hvis du kobler sammen hjerneceller som reagerer på disse lysbrikkene fra litt forskjellig posisjon, så kobles sammen dem over i neste lag til en hjernecelle som da reagerer når alle disse grunnleggende hjernecellene reagerer på prikker, så reagerer den i laget over på en strek. Så det kan man designe på den måten. 

 

Silvija: Hvis jeg skal fargelegge bildet litte grann nå, nå ser jeg i dette videoopptaket på et bilde av deg. Jeg ser noen piksler og jeg tror jeg ser at de er blå, jeg vet at det er blå piksel og så klarer jeg å se litt flere piksler rundt, og så ser jeg at det der kan se litt ut som et øye, og så kan jeg se resten og ut i fra det etterhvert utlede at det er ansiktet til Klas og at han er en mann, og det klarer jeg etterhvert. Jeg går høyere og høyere opp i disse her kompleksitets-lagene. 

 

Klas: Ja, da kommer du høyere og høyere opp i lagene. Jeg snakket om at vi kan designe slikt, men det som er interessant er jo at vi vet fra morninger i hjernen, at hjernen fungerer slik. Hubel og Wiesel fikk nobelprisen for å forske på det i hjernen, hvor de fant det de kalte simple cells og complex cells, hjerneceller blir mer og mer komplekse jo høyere opp i hierarkiet i systemet du kommer. Men det som er litt fascinerende er jo at i disse, typisk kall det ususal, eller nevral networks, når man gjør viderekjenning i kunstig intelligens. Der ser man at disse kunstige hjernecellene etteraper veldig det vår biologiske hjerne gjør. Så man ser at de grunnleggende lagene også reagerer på veldig enkle lysglimt, også videre. Jo høyere du går opp i hierarkiet i det kunstige nevrale nettverket ditt, jo mer komplekse former er det hjernecellene reagerer på. Så ender du opp helt oppe på toppen, hvor kanskje man skal skille mellom katt og hund. Oppgaven kan være designet til å se forskjell på bilder, for eksempel, kategorier av dyr, da vil vi ha ut om det er en katt eller hund på toppen, så er det effektive algoritmer for å straffe det nevrale nettverket hvis det tar feil. Hvis det sier at det er katt når det er hund, så er det noe som heter backpropagation, hvor man på en måte går bakover i det nevrale nettverket og prøver å rette opp synopsene som gjorde feil, for å si det enkelt. 

 

Silvija: Dette er utrolig fin beskrivelse, jeg tror vi skal bare tegne det bilde litt til. Et slikt treningssett som jeg synes var veldig morsomt, som jeg inviterer folk til å google, hvis de ikke har sett. Det er disse eksemplene mellom chihuahua og muffins, blueberry muffin. Det er sjokkerende hvor likt ansiktet til en chihuahua kan se ut som en blåbærmuffins. Vi mennesker ser faktisk hva som er hva, og det at maskinen blir fortalt hva som er hva og nå etterhvert prøver å forstå hvilke mønstre, hvilke statistikk som vår hjerne bruker for å skille det ene fra det andre. Det er litt sånn det er også hvis en maskin tror etterhvert at en chihuahua er en katt og vi menneskene retter den nok ganger gjennom backpropagation, så må den finne alternative statistiske forklaringer for sannheten. Det er egentlig jakt på mønstre de driver med.

 

Klas: Det er jakt på mønstre og man kan tenke på det som en slags minimering av feil, en kurvetilpasning, egentig. Så skal du havne i et slags minimum, hvor du gjør minst mulig feil og klarer å tilpasse så mye som mulig. Så det store problemet der har vært faktisk, litt filosofisk, at du har flere typer minimum, du prøver å finne det beste, det globale minimumet. Typisk ryggmargsrefleks fra statistiker er å ikke over-parametisere, ikke ha mange flere parameter enn det du har data og så videre. Men i kunstige nevrale nettverk, så ser man jo også faktisk at det å ha mange parameter kan ha en fordel, for hvis du har bare to dimensjoner, for eksempel, i en kurve, så får du, ettersom den bukter seg opp og ned, veldig mange lokale minimums som du kan feste deg i. Hvis du har tre dimensjoner, så er det litt færre, hvis du går rundt i naturen, der innsjøene ligger, for å si det sånn, det er typisk i 3D et minimum, et lokalt minimum. Men jo flere dimensjoner du har, jo lettere er det å finne én dimensjon som kan rømme ut av dette lokale minimumet og senke deg ned til et minimum som er på et lavere nivå. Har man mange nok dimensjoner så klarer man faktisk å gjøre en god tilpasning og finne, selv om det også kan være lokale minimum, men minimums som er såpass gode at de fungerer kjempegodt i disse nevrale nettverkene, derfor er det viktig å ha mange parametere av store nettverk og mye data. 

 

Silvija: Vi kommer nå i neste øyeblikk til dette med hvorfor skjer dette nå, dette med å ha mye data og regnekraft å gjøre. Før vi gjør det har jeg lyst å høre deg en gang til på dette med parametere. Hvis jeg nå tenker på et bilde, for eksempel, av en kreftsvulst, og der har datamaskinene blitt veldig gode nå på bilde-gjenkjenning. Og nå har vi kjørt oss litt fast på vårt lokale minimum, og det er bilde-relatert kunstig intelligens, altså kunstig intelligens, som kjenner igjen hva det er vi ser gjennom å analysere piksler. Akkurat samme diskusjon kunne vi hatt på motorikk og roboter eller på lyd og stemmegjenkjenning og språk-prosessering, men vi holder oss nå til bilder. Kreftbildet og radiologer bruker masse tid på å analysere disse kreftbilder. Hvis jeg tenker på parameterens som du snakket om, kunne jeg tenke på at en maskin skjønner da ikke bare farge, men form, dybde. Vi tar da bilde av denne kreften med litt forskjellige kameraer, så klarer den å analysere det her eksepsjonelt godt.

 

Klas: Ja, for å forenkle, la oss si at ikke du scanner i tre dimensjoner, men at du gjør det i to dimensjoner, så har vi bare et vanlig flatt bilde og da har jo det bilde en oppløsning, så du har et visst antall piksler. I hver eneste piksel så har du i prinsippet tre farger. Fra tre farger kan du skape hele regnbuen. Så hver piksel har i prinsippet tre tall. For algoritmen din så er jo det da bare en kjempestor matrise av mange tall, tre tall for hver piksel, så kommer en stor matrise. Som du er inne på der, hvis den algoritmen da skal prøve å gjenkjenne kreft, så må den ha veldig stort treningsgrunnlag på kreftbilder, hvor du stadig gir tilbakemeldinger til algoritmen på om det var kreft eller ikke. Da er det mange måter å gjøre det på, du kan ha erfarne radiologer som sitter og noterer i bilder og sier om det er kreft eller ikke, og det er jo det vanlige. I prinsippet, har man nok data og et stort og godt nok nevralt nettverk i bunnen, så kan man i prinsippet bli like god som disse radiologene. Så er det noen triks man kan bruke, for eksempel, så har man veldig ofte for disse pasientene, tidsserier. I Norge har vi veldig mye gode helsedata som er lange tidsserier, og kreftregisteret er jo komplette bakker fra 1950-tallet, og så videre. Tidsserier kan være kjempefine hvis man har bilder hvor radiologen fortsatt er usikker, men så ser man at det utvikler seg til kreft senere, så kan man kanskje finne mønster allerede før radiologen klarte å finne det mønsteret. Algoritmen klarer kanskje å plukke opp mønsteret som mennesker ikke klarer å plukke opp, og det begynner du å se innenfor en del felt, at algoritmene er bedre enn mennesker på å gjenkjenne ting i bilder, også når det gjelder diagnostikk. Da trengs det gode dataer, mye data, det trengs ofte tidsserier, det trengs regnekraft og gode algoritmer i bunn.

 

Silvija: Jeg lovet at vi skulle snakke om regnekraft om et øyeblikk, men nå har jeg lyst å spørre deg én ting til før det, så skal vi snart nærme oss slutten av leksjon én. Betyr det at det ikke er noe mer jobb for radiologer? Eller betyr det at radiologene får en mer spennende jobb, hvor maskinen kan kanskje  finne de situasjonene som er tvilsomme og la dem slippe å se på det som opplagt ikke er problematisk.

 

Klas: Akkurat slik som det er i denne perioden jeg er i nå, så er det helt åpenbart at det vil bli mye mer spennende. Det er ikke at algoritmen utkonkurrerer en radiolog, det er at en radiolog som bruker algoritmen utkonkurrerer en radiolog som ikke bruker algoritmer. Man blir bedre med det verktøyet. Det er en periode vi er inne i nå så har du en del problemer og utfordringer også med disse algoritmene, blant annet det med forklarbarhet. Det er ikke alltid at algoritmen kan forklare deg hvorfor den tror det er kreft, og det er klart at hvis du sitter med en algoritme og bruker det aktivt som et verktøy og du er uening i algoritmen i noen tilfeller, men hvis du vet at algoritmen stort sett er bedre enn deg, hva gjør du da, for eksempel. Da får man en del utfordringer. Men det er helt klart at dette er gode verktøy og det er en del du kan bruke som screeningverktvøy og en del ting som er åpenbart ikke kreft eller kreft, sånn som den kan mer eller mindre automatisk si fra og som du sjekker som radiolog, så kan du spare kreftene til de mer spennende tilfellene som er vanskeligere. Jeg vil helt klart si at det fører til, slik som det er nå, en mer spennende hverdag. Så sa jo også Kasparov og en del av de gamle sjakkspillerne at det er menneskene sammen med maskinen som er overlegen, maskinen alene vil aldri kunne gå forbi mennesket. Men de tok jo feil, så vi får se hvordan dette fører fram.

 

Silvija: Okei, så siste poeng i denne første leksjonen, hva har dette med eksponensiell vekst i data, regnekraft og nettverk å gjøre? Det skjedde noe magisk som vi kunne se også, jeg er som sagt ikke superglad i bilkjøring, men det var noe magisk som skjedde med disse selvkjørende biler omtrent på et år, hvor de gikk fra å forville seg og ikke kunne kjøre selv mer enn en kilometer i ørkenen, til å plutselig kunne kjøre. 

 

Klas: Ja. Det er en utvikling som så klart har pågått lenge, men i 2012 kom det, for meg, et slags bevis på hvor gode algoritmene kan bli, og det var det som het AlexNet, AlexNet var en algoritme for bildegjenkjenning. Mye av kunstig intelligens drives av konkurranser som kan være ganske spennende å være med på. Det var en konkurranse innen noe som het ImageNet, som går ut på å skulle kategorisere ting man så i bilder. Man sender inn algortimen og så blir den vist masse bilder, og så får man en score ut i fra hvor god algoritmen var. Vinneren der i 2012 gjorde et kjempehopp i forhold til konkurrentene, så det er virkelig en nyvending. Den største nyvendingen var at de hadde klart å trene den algoritmen veldig effektivt, ved at man brukte GPUer, altså grafikk-kort, i stedet for CTPUene i datamaskinen. Fordi at man har klart å parallellisere ting…nå kjører disse algoritmene ekstremt effektivt og parallelt og man kjører de da på, for eksempel, GPUer, som er veldig god på parallellisering eller etterhvert mer og mer over på spesialdesignet databrikke, som er på en måte laget for å gjøre de prosessene veldig effektive som man bruker i moderne kunstig intelligens. Så datakraften har eksplodert de senere årene, og så klart med internett, så har data også eksplodert, man har datatilgang som man aldri tidligere har hatt, så man har ekstreme mengder data, man har veldig god regnekraft og algoritmene har utviklet seg og blitt bedre og bedre. Det er disse tre faktorene sammen som har gjort at at vi har sett denne eksplosive og eksponensielle farten i feltet de siste årene. Hvis man ser hvor store de typisk kunstige nevrale nettverkene er, hvor mye som skal inn av trening av de, og så videre, så ser du virkelig et knekkpunkt etter 2012 i den grafen, hvor ting har økt veldig mye raskere etter 2012. 

 

Silvija: Veldig spennende. Du, Klas, jeg tror vi stopper der med vår første leksjon, så skal vi snakke mer om AlexNet i vår neste leksjon, som dreier seg om eksempler. Tusen takk, så langt. 

 

Klas: Flott det. 

 

Du har nå lyttet til en podcast fra Lørn.Tech – en læringsdugnad om teknologi og samfunn. Nå kan du også få et læring sertifikat for å ha lyttet til denne podcasten på vårt online universitet Lørn.University

 

Leksjon 2 - ID:M0042b

Leksjon 2 - ID:M0042b

Leksjon 2 - ID:M0042b

Velkommen til Lørn.tech – en læringsdugnad om teknologi og samfunn med Silvija Seres og venner.

 

Silvija Seres: Hei, og velkommen tilbake til Lørn Masterclass om AI og hjernen, med Klas Pettersen. Vi er i leksjon to, og nå skal Klas og jeg prate om noen av hans favoritt-eksempler. Klas, vi har allerede begynt å prate litt om AlexNet, som du kalte et såkalt convolutaional neutral network, som da er et program som er veldig, veldig bra på å kjenne igjen bilder, hvis jeg har forstått deg riktig. Hvorfor synes du det er et viktig eksempel?

 

Klas H.Pettersen: Det er et viktig eksempel fordi, som jeg også nevnte, så var det en konkurranse, som het ImageNet, at det først ble lansert. Det var så veldig mye bedre enn konkurrentene. De var på en måte proof in the pudding der, at det her fungerer. Og hvorfor fungerte det? Hovedsaklig fordi at du hadde klart å parallellisere og kjøre dette effektivt på et grafikkort, og så var det et dypt nevralt nettverk, hvis jeg husker riktig, så er det vel 8 lag, tror jeg, dypt, så ikke veldig dypt i forhold til de moderne type nevrale nettverkene. Men det kjørte veldig effektivt, og det kunne trenes opp på store mengder data, og det var det som var gjennombruddet og aha-opplevelsen var da hvor mye bedre det presterte i den konkurransen enn andre algoritmer. 

 

Silvija: Det du snakket om, antall nivåer og dypt nettverk, det har jeg lyst å prøve å få et bilde på. Hvis jeg tenker at du har alle disse nevrosene som klarer å forstå en piksel, og så sa du at det finnes en slags sjefs-nevron på toppen, som da kan forstå linjer og så kunne det vært en sjef over det igjen, som klarer å forstå øyet, og så er det en sjef over det igjen som kan forstå ansikt, og så har du en sjef over det igjen, som kan forstå mennesket. 

 

Klas: Ja, du kan tenke det sånn. Det er et veldig godt, mentalt bilde, at du rapporterer til din sjef, og så setter den sammen informasjonen den får fra deg og de grunnleggende lagene, som du sier, veldig enkle mønster, typisk kanskje prikker, så kommer det streker, og så kommer det mer og mer komplekse mønstre. Som jeg nevnte, også, der ser man at det er slik hjernen til en viss grad fungerer også, og det er det nobelpriser for å oppdage. Du har simple cells, som er veldig enkle celler, og mer complex cells, Jubel og Wiesel fikk nobelpris for det. Bare for å fortsette tanken, i mennesket, for det er litt morsomt, det man også har funnet…nå er det ikke så veldig ofte man kan måle enkelt-celleaktivitet hos mennesker, typisk gjør man det på forsøksdyr. Men hos mennesker har man muligheter før hjerneoperasjoner, for eksempel, så har du en del epilepsipasienter som ikke responderer på medikamenter på en god nok måte og må inn og rett og slett finne episenteret for epilepsien og kutte bort en liten del av hjernen der hvor epilepsien starter. For å finne akkurat hvor epilepsien starter, så stikker man en elektrode inn i hjernen til mennesket. 

 

Silvija: Nå må du hjelpe oss med litt hjerneforståelse her. Epelepsi, tenker jeg på som at det går en sikring, et eller annet sted. Det er litt ukontrollerte, elektriske signaler et eller annet sted i hjernen. Da er det gjerne det du kaller for episenter.

 

Klas: Nei, episenteret er der det starter. Det er forskjellige typer epilepsi, men mange typer epilepsi starter på et punkt i hjernen, og så sprer det seg. Det som skjer er akkurat det du sier, det er ukontrollert og for mye nerveaktivitet, så hjernecellene sitter og fyrer aksjonspotensialene sine hele tiden og du får anfall av det, og det kan også være skadelig for hjernen av sterk epilepsi. 

 

Silvija: Det vet man ikke hvorfor, men det er noe kjemisk, eller, det er rett og slett en koblingsfeil, på en måte?

 

Klas: Ja, det er ikke fullstendig forstått hvorfor, men det er i hvert fall en ond sirkel. Når du starter aktiviteten på den måten, så sprer det seg til store områder av hjernen, så har man da sett at det faktisk går an å skjære bort en liten del av hjernen der epilepsien typisk starter, og så slipper du å få denne onde sirkelen med aktivitet som sprer seg til hele hjernen. 

 

Silvija: Okei, så var det dette med nivåer. Så vi vet ikke nøyaktig hvilke celler hos mennesker?

 

Klas: Nei, men da har du en spesiell mulighet når mennesker har elektroder inne i hjernen, så kan du måle enkeltcelle-aktivitet, det kan du ikke ellers. EG og andre hjernescannings-teknikker klarer ikke å plukke opp signaler fra enkeltceller, det er liksom summen av mange celler du plukker opp. Men når du har en elektrode inne, så er du så tett på hjernecellene at du klarer å plukke opp hjernecelle-aktivitet fra enkeltceller. Da kan du også finne disse kjennetegnene og finne ut hva er det denne ene hjernecellen faktisk reagerer på. Et litt morsomt eksempel der, som ble funnet for, det er vel over ti år siden nå, den såkalte Jennifer Aniston cellen. Det var en pasient som hadde en elektrode inne og de viste han ekstremt mange forskjellige bilder. Det eneste hjernecellen reagerte på var bilder av Jennifer Aniston. Det var forskjellige typer bilder, så det var ikke akkurat én positur, det var tydelig at det var konseptet Jennifer Aniston han reagerte på. Som de skrev i artikkelen, merkelig nok ikke når Jennifer Aniston sto sammen med Brad Pitt, som hun var sammen med på den tiden, da reagerte ikke hjernecellen.

 

Silvija: Ha ha ha.

 

Klas: Så, hvorfor vet man ikke, men det var en mannlig pasient på den tiden, og man fant da det man kan tenke på kanskje som konsept-celler. Etterpå er dette blitt reprodusert hos mange pasienter, man går rundt med egne hjerneceller som stort sett bare reagerer på kjente fjes, eller kjente personer, for eksempel. 

 

Silvija: Jeg har en Klas Pettersen celle.

 

Klas: Ja, nå som du kjenner meg, så har du det, ja! Man vet jo ikke om den hjernecellen kun blir brukt til det, det kan godt hende den blir brukt til andre ting den også reagerer på, men som den ikke har funnet, det kan også hende at man ikke bare har én Jennifer Aniston eller Klas Pettersen celle, men at man har mange. Så det er pågående forskning, men det er helt tydelig da, at det er noen hjerneceller som er såpass komplekse at de bare reagerer på et eller noen få konsepter.

 

Silvija: Veldig interessant. Så var det dette med nivåer, og vi skal gå videre til andre eksempler snart også, men du snakket om åtte lag. Det er ikke det at det er så vanskelig å traversere denne grafen eller dette treet, det finnes det algoritmer på, det er enormt dyrt regnekraftmessig, det er der vi har klart å regne effektivt på denne lagdelarkitekturen. 

 

Klas: Ja, det er sant. De beste algoritmene, de må du trene med mye data, men for at det skal ha noe hensikt så må du også ha mange parametere i modellen, som kan tunes. Det er jo en sammenheng der med hvor mye du kan trene det nettverket og hvor stort nettverket er. Men som du sier, det er blitt mer og mer effektivt. De store algoritmene trenes på…Google bruker nå TPU, som er spesialdesignet databrikker og man bruker grafikkort, og så videre og trener effektivt. Men effektivt, altså, fortsatt så begynner det her å bli så mye datakraft som går inn i det her, at det er en reel bekymring når det gjelder miljø, for eksempel, det går utrolige mengder energi inn i de største algoritmene som eksisterer, typisk store språtkalgortimer, og så videre. Tilbake til spørsmålet, ja, vi trener mer effektivt, vi får det til, vi har mye større nettverk enn før og trener de nettverkene på større mengder data og de presterer da veldig mye bedre, de fungerer rett og slett på en helt annen måte enn de gjorde før.

 

Silvija: Hvis jeg har forstått deg riktig, du sa at vi har hundre milliarder nevroner i en typisk hjerne og da snakker vi om hundre ganger ti med ni nuller, egentlig, bak. Jeg tror det vi mennesker ikke helt klarer å forstille oss, det er hvor utrolig stort dette her egentlig er, derfor blir det også veldig krevende regnemessig. En ting er hvor mange celler, men det er disse koblingene og lagdelingene i cellene, som også bygger på en ekstremt mye mer komplisert beregning-struktur. Det er noe magisk i mengdene av regnekraft vi har, som gjør den type beregninger mulig i disse fantastiske datastrukturer som simulerer hjernen. 

 

Klas: Ja, attrahere de er helt riktig, det er også kompleksitet ved at hver enkel-celle knytter seg til mellom tusen og titusen andre, det er jo enorm mengde, både nevroner og signalbaner, så klart, og koordinatorisk, så eksploderer det veldig raskt. Så skal det også sies at det i de senere årene så har man også da kunstige nevrale nettverk som har mange parametere. En av de største språk-algortimene, GPT-3, fra OpenAI, den har 175 milliarder parametere, hvis jeg husker riktig. Parameterene er hvert fall større enn antall hjerneceller i hjernen. Så det begynner nå å få ekstremt store kunstige nevrale nettverk også, hvor antall parametere begynner å kunne sammenligne seg til og med med menneskehjernen. En hjernecelle, det er vanskelig å si hvor mange parametere det tilsvarer. En hjernecelle er på en måte både analog og digital, så du har også en analog signal prosessering i en hjernecelle.

 

Silvija: Det er kjemien.

 

Klas: Ja, nettop. Du får masse input fra forskjellige steder. Du har hjerneceller som på en måte summeres analogt, og hvis summen av all den inputen er stor nok sender du ut en digital signal puls. Det er mye som skjer i en enkeltcelle i hjernen og ikke så mye som skjer i et enkeltnevron i et kunstig nevralt nettverk.

 

Silvija: Du, så har vi ikke engang begynt å snakke om dette med thinking fast and thinking slow. Og hva det gjør med det nevrale nettverk. Men, kanskje ikke vi skal gå for dypt. Du snakket også om at vi jobber parallelt, hva betyr det? Disse regnemaskinene, disse tuppene har blitt flinke til å parallelisere, hva betyr det?

 

Klas: Det betyr jo da at man kan trene algoritmen på mange grafikkort og mange datamaskiner og du kan trene mange prosesser på en gang, du må ikke vente på resultatet av en treningsrunde før du går på neste runde, og så videre. Du kan kjøre dette parallelt på veldig store data clusters. Alfa Zero, som vi har vært inne på, som kan spille Go og sjakk og Shogi, den ble jo da i løpet av bare noen få timer trent opp til å bli bedre enn mennesket i disse brettspillene, men noen få timer riktignok på Google sine systemer, det var vel 5000 TPUer, et stort antall, hvert fall, TPUer, hvor dem trente parallelt. Så fire timer er jo ikke fire data timer, for å si det slikt, det er ganske store treningsmengder som må til, men det kan gjøres effektivt. 

 

Silvija: Det er en slags informasjonsdump, du kjører veldig mange spill og veldig mange eksempler på en supereffektiv måte. Så er det vel også slik, disse 5000 TPUer, eller hva det var du nå sa, man kunne tenke dem nesten som en slags hive mind, ikke sant. Det er sammenkoblede hjerner.

 

Klas: Ja, det kan du jo på en måte si. Hvis man først skal ta analogien til hjernen, så er det også i hjernen veldig mange prosesser som foregår parallelt og det er bare et lite antall som til slutt når vår bevissthet. Veldig mye av det er innpå thinking fast and slow, og så videre, som du også nevnte. Veldig mye av det vi gjør er både ubevisst og spontant uten at vi har resonert noe veldig rundt det, sånn sett så jobber hjernen ekstremt godt parallelt. Hjernen er fryktelig langsom, én hjernecelle kan operere på langt under 1000 hertz, men vi har igjen det ekstreme parallelle nettverket, hvor veldig mye kan foregå parallelt, så sånn sett blir det kunstige nevrale nettverk på den måten mer og mer likt hjernen. 

 

Silvija: Uff, bare tenk så gøy det hadde vært om vi klarte å koble sammen din hjerne og min hjerne og fem hjerner til og ha en felles bevissthet. Det ville vært ganske spennende naturlig intelligens det og.

 

Klas: Ja, det er sant. Elon Musk mener det seriøst, at det kan gå an, og har et firma som ikke er kjent som Tesla, som heter Neuralink, hvor han faktisk har operert inn elektroder i ganske mange dyr, til og med aper. De har riktignok hatt masse problemer i Neuralink med infeksjoner rundt de nye elektrodene som er laget, og så videre. Det er flere av forsøksdyrene som har dødd, så jeg tror mye av det er blitt stoppet, rett og slett. Men visjonen hans var jo nettop det å kunne tankelese, på en måte, han hadde ekstremt mange elektroder innoperert i hjernen, slik at han kunne plukke opp enkeltcelle-aktivitet. Ekstremt mange hjerneceller, ikke bare plukke opp aktivitet, men også mate inn signaler inn i hjernecellene. I prinsippet var tanken hans at man kan rett og slett kommunisere, kanskje med hverandre og kanskje med en kunstig intelligens også, det var hans visjon. Jeg tror ikke det kommer til å fungere, men det er en annen sak. 

 

Silvija: Jeg håper du har rett. Hvis vi bruker ti minutter på å forstå litte gran reinforcement learning og self supervised learning, kan du hjelpe oss med de to eksemplene?

 

Klas: Ja, det er jo noen av de metodene som er mest populære om dagen, og kanskje særlig i Yann LeCun i Facebook har gjort mye innenfor self supervised learning, som du sier. Disse to metodene, de er litt forskjellige. I reinforcement learning, så læres programmene det, at… du kan tenke deg en robot, og litt som oss mennesker kanskje lærer, at vi gjør noe som er bra eller dårlig. Hvis vi faller og slår oss så får vi vondt, og det sender signal til at vi gjorde noe feil. Vi prøver å lære av det, veldig ofte kan det være vanskelig å forstå årsaken til feilen, så det kan være en utfordring når det gjelder reinforcement learning, og den andre utfordringen er at du får egentlig typisk bare et bra eller ikke bra signal tilbake, så du får et veldig lite komplekst signal tilbake. Du gjorde noe feil eller du gjorde noe riktig, så prøver man å lære opp det nevrale nettverket ut i fra det. Det er der tanken til Yann LeCun og andre som driver med self supervised learning kommer, at man kan få et mer komplekst signal tilbake, kanskje. Self supervised leaning ble brukt veldig mye i språkteknologi, men også mer og mer i bildeteknologi. Tanken demmes er at du prøver å få algoritmene til å  predikere framtiden egentlig, kan man tenke seg. For eksempel, si at du har en film eller at det er en selvkjørende bil som kjører og mottar en film, så stopper man filmen på et gitt punkt og så er oppgaven til nettverket å predikere, hva skjer etter det punktet her. Det blir jo da et ekstremt mye mer komplekst signal, som du kan på en måte trene nettverket på. Skal man ha en fasit på den filmen, så kan man prøve å lære nettverket å gjette riktig på framtiden. På samme måte i språkteknologi, du har komplekse algoritmer, du har ekstremt mye tekst rundt på internett. Hva hvis vi tar bort noen enkeltord eller noen deler av setninger, og så prøver vi å få algoritmen til å predikere hvilket ord som skulle stått der. Det er enkelt fortalt slik self supervised learning fungerer, og innenfor språkteknologi har dette vist seg å være ekstremt bra. Jeg nevnte GPT-3 tidligere, men det er jo en imponerende god algoritme, jeg har sittet og lekt meg litt med den. Ofte tar det lang tid før du forstår at det ikke er et menneske i andre enden, du kan sitte og stille spørsmål og du får svar og den kan oppsummere lange, kompliserte tekster til en syvåring, for eksempel. Jeg må bare si at jeg er imponert over hvor langt det er kommet  og hvor bra det fungerer allerede med tanke på at vi bare er noen få år inn i den spennende teknologien der, så det blir spennende å se hvor langt man kommer framover. 

 

Silvija: Den GPT-3 t er da reinforced learning, eller?

 

Klas: Nei, nei. Det kan du kalle self supervised learning. Den er lært opp, ikke ved at man straffer, om det er bra eller dårlig, den er lært opp ved at man har fjernet deler av en tekst og så har algoritmen prøvd å lære seg hvilken tekst du har fjernet, hvilke ord du har tatt bort. Hvis du tar bort et ord i en setning, løven prikk, prikk, prikk zebraen, så kanskje var det spiste da, som var prikk, prikk, prikk. Ved å gjette på slike ord så opparbeider den seg på den måten en slags modell av hvordan språk fungerer. Man kan starte da ved å bare skrive en setning, så kan den fullføre hvis man vil det, en lang tekst basert på en setning eller to.

 

Silvija: Hva er forskjellen, reinforced learning, det betyr at du tar den gjøre jobben og så sjekker du resultatet og så belønner du hvis det er riktig, eller så straffer du hvis det er feil. 

 

Klas: Ja.

 

Silvija: Ikke sant. Med supervised, hvordan vet den om den har gjort jobben riktig eller feil?

 

KP: Du har typisk en fasit og her brukes tekstene på wikipedia, for eksempel, og så kan du da fjerne, som jeg sier enkeltord eller enkeltdeler av setninger, og da har du fasiten i bakhånd, du har grown truth på en måte, og så kan da algoritmen sin oppgave å være å prøve å predikere hvilke ord eller hvilke deler og setninger du har fjernet, og så videre. Så viser det seg at ved å trene opp på den måten, så klarer man med store nok nevrale nettverk å kunne fortsette historier, oppsummere tekster gjøre veldig mye ganske imponerende arbeid. Den har en slags, kanskje feil å bruke ordet, forståelse, men om ikke annet har den veldig god statistikk på hvordan tekster typisk skrives og du har gjerne sammenhengen over mange sider. Tidligere har det typisk vært at setningen har vært usammenhengende og logikken i teksten ikke har hengt på grep i det hele tatt, men nå så gjør den stort sett det. 

 

Silvija: Hvis jeg skal igjen overforenkle, det bildet jeg har med reinforced learning, det ligner litt mer på hvordan vi lærer når vi går på skole, der er det noen som gir deg oppgaver og sjekker hvordan du har gjort de oppgavene og kontrollerer disse stegene ganske bra, mens det andre det minner meg mest på et barn og hvordan et barn lærer om verden, for de liksom poker verden, de dytter og tester og gjør masse feil. Veldig eksperimentell læring. 

 

Klas: Ja, det kan du si. Eneste forskjellen i det første eksempelet med at du er på skolen og lærer, så ville læreren bare sagt feil, den vil ikke prøve å forklare deg hvorfor eller hvordan, den ville bare sagt feil og så er det opp til deg å finne ut hva som er feilen og hvordan du kan forbedre den. Det er også litt interessant, når vi først snakker om kunstig intelligens og hjernen. I hjernen har man jo et belønningssystem, dopamin er jo et stoff som brukes til belønning i hjernen og fungerer på en måte som en slags reinforcement learning mekanisme, antageligvis. Når man gjør noe dumt, eller motsatt vei, hvis man gjør noe bra, så får man mer dopamin og blir bedre. Det var litt morsomt også i hjerneforskning, fordi man hadde for en god del år siden funnet ut hvordan reinforcement learning kunne bygges opp i kunstig nevrale nettverk, og det du belønner nettverket for, det er ikke at den gjør noe bra, det er egentlig at den gjør noe som er bedre enn det du forventet, og det er litt kritisk. Og det hadde man på den tiden ikke forstått, man trodde at man fikk dopamin i hjernen hvis man gjorde ting som var bra, på en måte. Men det fant man ut faktisk ved å ta innsikt fra kunstig intelligens, at var feil, du har også i deg selv i hjernen din en forventning til hva som skal skje, og det er typisk når du overgår din egen forventning du får en belønning i hjernen og du får dopamin-utslipp. Der kan hjernen også ta inspirasjon, det er ikke bare kunstig intelligens som tar inspirasjon fra hjernen, det har også faktisk skjedd at hjerneforskning har tatt inspirasjon fra innsikt i kunstig intelligens. 

 

Silvija: Dette er kjempegøy, Klas, for jeg sitter og tenker nå på litt spill gamification, og vi har skjønt at hjernen vår belønner oss når vi får til ting generelt og de får badges og du gir folk belønning, og det er dette vi ikke er gode nok kanskje som ledere også, i ekte livet, med å skryte av folk, og da er vi mye flinkere med barna enn voksne, ikke sant. Men, det du sa nå om at vi har en egen belønningsmekanisme, også, når vi overgår våre forventninger. Jeg er sikker på jeg får et dopamin kick når jeg lærer noe nytt, du ser det nå, ikke sant. Tennes av læring. Det gjør man også i spill, hvis du ønsker å holde folk i spillet, så gir du dem oppgaver som er akkurat litt for vanskelige, hakket over, og det er den der utviklingen som driver dem. Så er det det samme man gjør da med kunstig intelligens, men hvordan belønner man da en maskin? 

 

Klas: En belønning i maskinen, det er egentlig bare at, du har en forventning der også, en loss funksjon, for eksempel, så man har et avvik fra forventningene, verden blir annerledes enn det du har forventet, enn det du har predikert.

 

Silvija: Du programmerer en slags rating i maskinen.

 

Klas: Det er mange teknikker for å prøve å rette opp nettverket og hvor det gikk feil, for å si det sånn. Du må begynne å gå bakover i historien,- hva var det som gjorde at jeg tabbet meg ut der eller gjorde noe som førte til en konsekvens som ikke var heldig. Så det finnes det masse teknikker for å gjøre. Men det er igjen å rette opp, i et dypt nevralt nettverk, disse synopsene og justere disse vektene hele veien, det er det det typisk går på i kunstige nevrale nettverk. 

 

Silvija: Så snakket vi litte gran om singularity og et tidspunkt hvor maskinene blir så flinke til å fikse seg selv at denne self supervised learning går helt i himmelen. Da er det folk som har skrevet bekymrede bøker, blant annet, hva heter han engelskmannen som har skrevet det eksempelet med hvis en slik fantastisk smart maskin fikk i oppgave å optimalisere produksjonen av binders, så kunne den ende opp med å stoppe verden, vi kommer på navnet hans etterhvert.

 

Klas: Jeg husker ikke navnet, men bindersproblemet, det er jo velkjent, fordi, det kan være flere måter å nå det målet på. 

 

Silvija: Det jeg prøver å spørre deg om er, burde vi beholde mennesket i loopen? Selv om det er self supervised learning? Og hva er menneskenes rolle, da?

 

KP: Det du er inne på er hva skal du optimalisere, hva er verdifunksjonen. Det bindersproblemet der  og andre problemer, ikke sant. Veldig ofte kan vi i god hensikt gi et mål for en algoritme, så viser det seg at algoritmen løser problemet på en, for oss, helt uforutsett måte. Lager man roboter som har miljøvern som det den skal optimalisere, så vil kanskje konsekvensene være å utrydde mennesker. Da har man på en måte en verdifunksjon som man prøver å optimalisere og så må man prøve å ha det som heter value alignment, som det heter på fagspråket, at du prøver å faktisk rette inn algoritmen til å løse de problemene som samsvarer med de verdiene du har, og det er en veldig kompleks…det er ikke enkelt, for som jeg sier, finner ofte kunstig intelligens enkle løsninger på ting. Du nevnte tidligere disse spillene hvor det graver hull i pond, er det det det heter? Spillet som går opp og ned. Den løser ting på veldig enkle måter hvis den kan gjøre det, tar snarveier så fort den kan, og det ofte gjør at du får utilsiktet konsekvenser. Stort problem. Det du spør om er vel hvordan skal vi utvikle en trygg kunstig intelligens, skal man ha mennesket i loopen? Innenfor en del områder skal man helt klart ha det, og så er det en stadig avveiing, hvor sikker er algoritmen, hvordan kan vi teste algoritmen godt, og så har du også det med forklarbarhet. Ikke alltid kan algoritmene forklare hvorfor den gjør en ting. Innenfor en del områder så trenger vi en forklaring, ikke alle, man trenger ikke nødvendigvis å ha en human in the loop og forklaring for hvert eneste sjakktrekk en sjakkalgoritme gjør, men innenfor nav-systemet, hvis noen skal gjøre en beslutning, det er jo det kunstig intelligens handler om, at man automatiserer en del beslutninger. Skal man gjøre en beslutning innenfor Nav-systemet, så kreves så klart en god begrunnelse for et vedtak, for eksempel. Da kan man ikke bruke en blackbox algoritme og få ut et optimalisert svar, man må vite hvorfor får vi dette svaret og man må ha et menneske som går god for svaret på en måte. Men det her er et felt i utvikling og kommer til å bli kjempespennende å følge med de neste årene. Hvilke områder kan man, for eksempel, da tillate at algoritmen gjør egne predikasjoner. La oss si at du kommer til en tid hvor algoritmer kan kurere kreft på et nivå som er ekstremt mye høyere enn radiologer, men la oss si at de ikke forklarer hvorfor det er kreft i et gitt bilde. Skal man da bruke den algoritmen eller skal man bruke en algoritme som kanskje er litt dårligere på selve prediksjonen, men som forklarer hvorfor den predikerer kreft i bildet? Det er slike dilemmaer du kommer over. Men testing er i hvert fall alfa omega, man må vite at algoritmen er så god som man virkelig tror den er, og da må man testes på en skikkelig måte. 

 

Silvija: Den mannen vi tenkte på var Nick Bostrom, han var faktisk svenske. Det vi har diskutert her er at dette kan fort bli eksistensielle risiker ved AI. Vi har laget en teknologi som kanskje overgår alle teknologier vi har hatt før, og spørsmålet er om vi mennesker klarer å håndtere den på en klok og  langsiktig måte. Så er det selvfølgelig teknologi vi ikke kan leve uten, på grunn av de verdiene den skaper. Og dette kunne vært en helt egen masterclass om de etiske dilemmaene som dukker opp her. 

 

Klas: Så er det viktig å påpeke, igjen, at nå snakker vi om artificial general intelligence, og vi er veldig langt unna å være der. Men det er klart, mange forskere jobber med det som det store målet, å klare å lage programmer som er så generelle som mulig. Man ser jo feltet går i den retningen tidligere, at man har en algoritme som bare kunne spille Go, ikke sant, AlphaGo, så lagde man AlphaZero, så kunne man spille sjakk og Shogi, også lagde man MuZero, som kan spille mange brettspill, det er samme algoritmen som nå kan gjøre mange forskjellige ting. Målet er å få algoritmer som er ganske generelle, slik at man går i den retning, men man er foreløpig veldig langt unna å ha en AGI, en artificial general intelligence, på nivå med mennesket. 

 

Silvija: Veldig bra. Jeg tror du også brukte begrepet value alignment eller verdi synkronisering/sammenheng, jeg synes det er et veldig godt konsept, som alle vi som utvikler AI og som anvender AI, må finne effektive måter å da implementere. 

 

Klas: Ja, AI har stort sett vært forbeholdt forskere i veldig mange år, så har man sett de senere årene nå at det er blitt til produkter som faktisk fungerer godt, det er jo den store forskjellen, kanskje, på nåtiden og tidligere tider. Mange hyper, allerede på 1950-tallet, hadde man en stor forskning innenfor det man da Kalte kunstig intelligens, som viste seg å bli en stor hype, for det fungerte rett og slett ikke, de klarte ikke lage gode nok programmer som kunne faktisk brukes til noe konstruktivt. Nå har vi jo det overalt. Hver gang jeg drar på facebook og får opp en feed, så er jo det AI algoritmer, når du åpner mobilen med ansiksgjenkjenning, det er jo AI algoritme. Til og med nettsøk, du får ikke de samme søkene som en annen gjør, for det er tilpasset deg, alt det her er kunstig intelligens. Vi tenker ikke så mye på det, men vi bruker jo det alle hver eneste dag. Jo flere av disse produktene som kommer ut i samfunnet, jo mer må vi tenke på det etiske og juridiske rundt det her. For det kan ha store konsekvenser, det kan føre til masse uheldige effekter, også når vi nevner Facebook feeds, og så videre, det blir ofte slik at du blir anbefalt det du vil ha, ikke nødvendigvis det som er best for deg. Så du kan få ekkokammer-effekter, og så videre, det her er jo også store forskningsfelt. 

 

Silvija: Veldig bra. Masse, masse å ta tak i her, Klas, vi stopper med eksempel-leksjonen vår nå, så møtes vi om et par minutter for å snakke om konkrete verktøy for å komme i gang med å bruke den fantastiske teknologien. 

 

Du har nå lyttet til en podcast fra Lørn.Tech – en læringsdugnad om teknologi og samfunn. Nå kan du også få et læring sertifikat for å ha lyttet til denne podcasten på vårt online universitet Lørn.University

Leksjon 3 - ID:M0042c

Leksjon 3 - ID:M0042c

Leksjon 3 - ID:M0042c

Velkommen til Lørn.tech – en læringsdugnad om teknologi og samfunn med Silvija Seres og venner.

 

Silvija Seres: Hei, og velkommen til leksjon tre i Lørn Masterclass om AI og hjernen, med Klas Pettersen. Klas, nå skal vi snakke litt verktøy, og her har vi et pedagogisk dilemma. Du er litt sånn über nerd og synes at det å leke med GPT-3 er veldig gøy. Jeg måtte spørre deg, hva betyr det i praksis og det i praksis betyr at man kan søke om å få lov til å programmere og være med på den algoritmen. Så jeg tror at nivået på verktøyene i AI blir fort slik at man trenger noe programmerings-bakgrunn, kanskje, hvis man skal virkelig benytte seg av biblioteker. Vi skal snakke litt om slike verktøy, så skal vi snakke litt om andre verktøy eller modeller for å implementere noe rundt dyp læring i forskjellige bedrifter, som folk som disse stakkars blårussene, for eksempel, også kan være med på. 

 

Klas H. Pettersen: Som du sier, mye har skjedd i løpet av få år og vanligvis gies verktøyene ut i en form som forskere er fornøyd med, men da må man gjerne kunne programmere for å behandle dem. Så ser man alltid at disse gode verktøyene, de kommer etterhvert i former som er mer brukervennlige, og det er det det går på her. For eksempel, GPT-3 er brukervennlig hvis man får tilgang, man må søke om å få tilgang, men så kan man bruke den på en ganske intuitiv måte. Mange av disse nye verktøyene er egentlig også laget for å gjøre det brukervennlig. Nå ved å bruke disse språkalgoritmene, så kan man nå, for eksempel, ved å bruke naturlig språk, programmere. Så en måneds språkalgoritme kan, hvis du definerer naturlig språk, hva du vil gjøre, så kan den foreslå, for eksempel, Python kode, eller et annet programmeringsspråk for deg. Det er jo den veien teknologien går, man skal ikke glemme at vi er fortsatt i en tidlig fase av den teknologien her og jo flere år som går nå, jo mer vil du se at det er ferdiglagde apper, det er aldri blitt enklere å gjøre enkel grafisk design eller få en morsom hatt på en kjent person, Snapchat-filter og alt det der, det er jo kunstig intelligens. Man ser også igjen i flere og flere designverktøy, at du kan bare spesifisere blå himmel, en strand, og så videre, så blir det her tegnet opp for deg og programmer kan bli foreslått for deg gjennom naturlig språk, så det går i riktig retning, men det er fortsatt i en tidlig fase i teknologien. Nå er det i en brytningsfase, hvor de mest spennende verktøyene bør du kunne programmere for å bruke, men så ser man at de blir transformert til mer brukervennlige versjoner for folk flest nå, da.

 

Silvija: Jeg har notert meg tre måter som lekfolk, ledere, uten programmerings bakgrunn, kan ta i bruk, mens jeg hørte på deg. Alle tre innebærer egentlig å få en partner. Hovedkjernen er at du selv må vite hva problemet er, som du prøver å løse. Det er kanskje der vi skal starte nå, for veldig ofte synes jeg bedrifter starter med at vi må finne noen som kan AI og så skal vi se hva AI kan gjøre for oss, mens problemstillingen burde kanskje være hva er det vi egentlig trenger å løse, og så skal vi finne noen som kan hjelpe oss å oversette det til noe AI løsning.

 

Klas: En liten kommentar der, for det synes jeg er viktig, AI er kraftfullt for tiden, men samtidig er det også en hype. Jeg mener at det er helt riktig som du sier, Silvija, man må ha et problem, man må definere problemet, og så videre, og ikke bare det at man da etter at man har definert problemet skal finne AI, men kanskje løsningen veldig ofte ikke er AI, det må man altså reflektere over, da. Det er ikke noe poeng i å innføre kompleksitet, hvis løsningen egentlig ikke krever kompleksitet. Men jeg tror nok særlig i mange større bedrifter, bør det opparbeides en del innholds-kunnskap om kunstig intelligens, for det kommer til å skje så veldig mye spennende i feltet de neste årene og vi kommer til å se flere og flere produktet, hvor man bør ha en viss kunnskap innenfor kunstig intelligens for å være tidlig ute med å bruke disse verktøyene. 

 

Silvija: Her er det to veldig viktige ting, jeg skal tilbake til mine tre eksempler, men du bare gir meg litt for mye gode tanker her nå. Det ene er at bedriftene må forstå at det behovet som finnes nå, er det behovet for å finne mønstre i data, data som verdiskaper, så dette dreier seg like mye om å forstå grunnlaget for all den digitaliseringen, som vi også snakker litte gran for abstrakt om. Den dreier seg da om å forstå hvilke data kan du ha og det å finne sammenhenger i data, skape verdi på nye måter for deg, så kan man bruke veldig avanserte verktøy og de mest avanserte analyseverktøy vil da være definerte som disse AI verktøy, som det du nevner her, ikke sant. Det å finne ut hvilke verktøy du skal bruke, der tenker jeg at programmers jobben, eller utvikler jobb, arkitekt jobb, er i enorm endring. Jeg ser for meg tre veldig fine modeller med å jobbe som digital teknologi-problemløser, og det ene er å jobbe med Nora, hvor dere har tilgang til disse superavansert løsninger, dere forstår hvordan de skal brukes, og så ønsker dere å hjelpe hele Norge med å anvende dem på sine problemer, så det kan vi komme litt tilbake til. Det finnes disse super ekspert-miljøer, så finnes det masse nyutdannede folk, som kan AI, og det å ta med seg noen slike, som da jobber med å utvikle denne muskelen internt, kan være veldig spennende. Den tredje som jeg har notert meg, det er å forstå at utviklingsavdelingen din blir i større grad, ikke på en måte snekkere og rørleggere, men de blir bibliotekarer, som finner disse verktøyene der ute og de trenger å følge med på alle de nye verktøyene som foregår der ute, så du burde kanskje forvente at utviklingsavdelingen din begynner å leke litt med de verktøyene som du skal snakke om nå.

 

Klas: Det tror jeg er veldig godt og riktig oppsummert. Det er jo ekstremt ressurskrevende å utvikle verktøy fra bunnen av selv, så man ser helt klart at trenden er at man kan ta i bruk en del allerede eksisterende algoritmer og så gjør man en trening på sine egne individuelle data, så man tilpasser algoritmene til sitt konkrete problem. Skal man begynne å utvikle algoritmen helt fra bunnen av, trene den helt fra bunnen av, og så videre, så er det ekstremt ressurskrevende og store prosjekter. Men ofte så er det nå algoritmer som kan taes i bruk, for eksempel bilde-gjenkjenning har kommet langt, det finnes mange etablerte, gode algoritmer, og hvis du skal inn i et spesifikt felt, så kan man gjøre en trening på de øverste lagene. Man kan trene litt ekstra på sine egne data til slutt for å gjøre det enda bedre til akkurat de oppgavene du vil ha løst, så det er trenden. 

 

Silvija: Det finnes noen veldig avanserte verktøy, som du sier, noen av dem er da utviklet av Google. Noen av disse verktøyene kan vi forresten oppleve selv, også. Jeg sitter nå og tenker på det eksempelet, jeg tror det var Google sitt verktøy som ble frontet på en av deres store konferanser, hvor de spilte av en lydinnspilling, hvor AIen deres bestilte frisørtime. Det som var sjokkerende for hele publikum, både der og på internett var at frisøren skjønte aldri at den snakket med en maskin. Det ville ikke vi skjønt heller hadde ikke noen fortalt oss, så vi opplever en del av disse verktøy, kanskje i Google Home, også?

 

Klas: Ja, Google Home er jo et slikt verktøy, det skal jo også sies at jeg har Google Home og står og krangler daglig med den også, så det fungerer ikke smertefritt enda, men det går raskt i riktig retning, vil jeg si. Igjen, her kommer vi inn på de etiske problemstillingene som vi snakket om tidligere, skal det verktøyet, for eksempel, kunne ringe frisøren din og bestille en frisørtime uten at frisøren er kalt over at den snakker med en maskin? Eller skal man alltid opplyse om det på forhånd, at det er en automatisk samtale, det er en AI algoritme du snakker med, og så videre. Igjen, samfunnet må være med på den utviklingen her, vi kan ikke la teknologer ta styringen alene, det her blir et samfunnsprosjekt og når AI nå gjør mer og mer inntog i dagliglivet vårt. 

 

Silvija: Supert. Vi krangler også med vår Google Home, og av og til blir jeg også litt sjokkert over når den skrus på og hvilke råd den plutselig kommer med. Den kan til og med komme med sånn helt merkelig rådgivning. Vi hadde tydeligvis sagt litt tilfeldig OK, og så så har vi sagt noe annet, og så trodde den… men jeg tror at dette kommer til å bli en mer og mer sømløs del av livet vårt, og kanskje særlig for de neste generasjonene. Der også ville det være veldig interessant å se etikken i, at kanskje de vil spørre Google Home, eller Alexa, om både været og råd om hva de skal ha på seg og hva de skal lese, framfor folk rundt seg. Mye rart som skjer med oss. 

 

Klas: Det er vanligere, jeg har fire barn hjemme, som også snakker med Google Home, også der skjer det mye rart. Men jeg ser at de bruker ting på en annen måte enn meg. Fortsatt, selv om jeg vet at Google Home er god på en del ting, hvis jeg skal spille en spesiell låt på stereoanlegget, så pleier jeg å gå inn på Spotify og trykke meg fram, men jeg ser at barna mine, de bare forteller og spør Google om å slå på, så går det mye raskere og mer effektivt enn å stå og fikle med en telefon. Det er litt vaner, og så videre, så barna som vokser opp nå, de vokser opp med AI på en helt annen måte enn det noen av oss har gjort, så klart, og det fører nok til andre vaner enn det vi har også, da.

 

Silvija: Ja, og så kan vi ikke gå der nå, for vi har ikke mer tid. Jeg er superopptatt, hvis det er en ting som jeg er opptatt av da, så er det eierskap over alle disse algoritmer og data. Skal Google og Amazon og deres kinesiske venner eller konkurrenter på en måte bestemme hvilken vei dette her skal gå ved å utvikle disse fantastiske AIene, eller er det noen områder hvor vi bør ta nasjonal styring og da kommer vi til nasjonal AI strategi, som er et neste tema kanskje senere. 

 

Klas: Det er kjempespennende, og i en del områder innenfor helse og så videre, så krever vi jo at data skal være lagret i Norge, og så videre, vi kan ha en egen podkast om det, Silvija. 

 

Silvija: Veldig bra, du, du har nevnt GPT-3, og så har du nevnt også AlphaZero og AlphaGo og Alfa MuZero, tror jeg.

 

Klas: Ja, MuZero, videreutvikling av AlphaZero, som også kan spille dataspill, og så videre, ja. 

 

Silvija: Så har du nevnt AlphaFold. Jeg håper du kan hjelpe oss å forstå litt Alpha familien, det er en veldig spennende familie, og så kan du godt si noe om disse her, det er tre, fire bokstavers umulige forkortelser i den verdenen du lever i, men det er egentlig algoritmer innenfor dyp læring, så nevn de du har lyst å nevne, da. 

 

Klas: Jeg kan gjenta noen av de som er nevnt, og Alpha familien, som du sier, den kommer fra et firma som heter DeepMind, de har gjort fantastisk mye bra, ble kjøpt opp av Google Alphabet, som det heter, så det eies av Alphabet Google. De har laget ekstremt mange imponerende algoritmer og den algoritmen som vi kanskje ikke har nevnt så mye, som jeg synes er spesielt fascinerende og imponerende, det er den som heter AlphaFold, og grunnen til at jeg synes den er fascinerende, det er ikke minst også fordi jeg tror den kan få enorm nytteverdi for samfunnet. AlphaFold, det handler om algoritmer som kan finne formen på proteiner. Proteiner er liv, sånn basically, i alle celler er det proteiner som styrer hva som skjer i cellene, det betyr at de er ekstremt viktige for normal funksjon, men også for sykdom. Det man har sett er at formen på proteinet, det sier ofte noe om funksjonen til proteinet og hva den gjør. Så det å vite formen til proteinet er viktig, så er problemet det at de er så små, man kan ikke se de i mikroskop. Så hvordan finner man da formen til et protein? Tidligere så har man gjort ekstremt avanserte eksperimenter, typisk noe som heter røntgen krystallografi, hvor man bruker ikke bruker ikke lys for å se, man bruker store krystaller av disse proteinene, så kan man se de med røntgendiffraksjon, som det heter, altså elektronstråler. Men det her er ekstremt kostbare og vanskelige eksperimenter, å lage krystall av proteiner er kjempevanskelig, og eksperimentene koster typisk en million kroner og tok kanskje et år å gjennomføre, for å få formen på ett protein. Så har man opp igjennom historien gjort dette i mange tiår og opparbeidet seg store databaser med kjente proteiner og proteinformer, som har hatt stor verdi i seg selv å ha formen på de enkeltproteinene. Det er litt fascinerende, så kommer man til et punkt hvor man har såpass mye data på eksisterende proteinformer og i tillegg kommer da noen nyvinninger innenfor algoritmene, som gjør at man plutselig kan predikere formen på ukjente proteiner. Så man kan på en måte, basert på dataene, så kan man ekstra polere hele universet av proteiner. Så det man kan nå, det er å gå fra…et protein er jo en sekvens av aminosyrer, så det ligger på rad og rekke, en lang strikk av aminosyrer, og hele problemet her er jo da at man vet den sekvensen, man kan sikkert se gener som gir disse aminosyrer, og så videre, så sekvensen vet man, man vet innholdet i proteinen, så man vet hvilken tråd man har med å gjøre, men når man slipper tråden, så krøller den seg. Det å klare å predikere hvordan den krøller seg, akkurat hvilken form den ender opp med, det er det som har vært problemet. Det klarer nå kunstig intelligens å gjøre, de spyr ut fra DeepMind nå, databaser med først menneskelige genom, eller menneskelig protion, som det heter, alle protein i menneskekroppen er nå kartlagt med form, og så videre, og flere arter, og så videre. Det her kan få enorme konsekvenser for moderne farmasøytisk industri, for eksempel. Når man har formen på proteinene, så kan man begynne å gjette på funksjon og man kan begynne å gjette på hvordan man kan påvirke og endre den funksjonen til proteinene, og det er jo slik medisiner kan fungere. Man kan utvikle enzymer for å bryte ned mikroplast i naturen, kanskje, og så videre. Det åpner seg ekstremt mange nye muligheter når man har et verktøy som kan gi oss formen på disse proteinene. Det er et veldig viktig verktøy som DeepMind har utviklet. 

 

Silvija: Hvis jeg legger på litt enkel journalistisk overskrift der, så kan man på en måte designe medisiner, slik at de jobber helt presist på de proteinene som vi vet om der, men man kan til og med designe liv, nesten, hvis man har de riktige ingrediensene som skal inn i proteinene, så klarer man etterhvert kanskje også å lage dem?

 

Klas: Ja, det kan man absolutt. Man kan tenke seg at man lager syntetiske proteiner nå, som har akkurat den formen man tenker kan passe til en eller annen funksjon. Så det er allerede pågående. I tillegg kan man forstå de proteinene som allerede eksisterer. For eksempel i hjernen, som jeg kjenner godt, så er jo disse strømmene jeg har snakket om hele tiden, som blir sendt i hjernen, det er jo proteiner som åpner seg, slipper gjennom strøm i hjerneceller typisk. Hvorfor den åpner seg, det kan være mange grunner til. Den kan få et kjemikal som kan binde seg akkurat til proteinet og åpne det, på den måten så har proteinene ofte noen lommer som andre molekyler passe inn i, hvor man da kan påvirke funksjonen. Nå kan man da se disse proteinene, man kan finne disse lommene, og man kan begynne å gjette på hvilke kjemikalier, hvilke medisiner kan vi bruke for å påvirke den og den funksjonen til det og det proteinet. Så det åpner seg en helt ny verden med AI med alle disse nye proteinene som man nå har formen på. 

 

Silvija: Veldig kult. Denne Alpha familien, vi har jobbet med algoritmer som jobber med språk, noe anvendt på brettspill, som denne Go familien, og så kjemi og biologi, AlphaFold, så de anvender denne nevrale nett og dyp læringsgrunnlaget sitt i mange av de forskjellige retningene som AI har blitt anvendt.

 

Klas: Ja. Det har jo en slags filosofi og visjon om å, i anførselstegn, løse intelligens, så det er det de jobber mot, å lage generell intelligens, som vi har snakket om, tidligere, og på veien dit lages alle disse spennende verktøyene, og når det gjelder akkurat AlphaFold, så det som også er fascinerende, det er jo at de har åpnet kildekoden og frigitt det verktøyet her. Man kunne tenke at det her var en ekstrem verdi for DeepMind, og det er det jo, også, men da er det jo naturlig, for det her er jo et firma, det er ikke forskning ved et universitet, så det er ofte naturlig å tenke seg at da lukker de kildekoden og får ut de verdiene fra verktøyet som de kan. Men de har faktisk valgt å åpne det, og det tror jeg, det blir en liten gjetning, men det som skjedde var på samme tid, så var det et stort forskningsprosjekt ledet av University of Washington, som jobbet på et tilsvarende verktøy, det het RosseTTaFold, som også gikk på proteinforming, og de pustet på en måte DeepMind litt i nakken og kom også etterhvert opp med algoritmer som var fantastisk gode, nesten like gode som AlphaFold sine. Det tror jeg er en av årsakene til at DeepMind åpnet verktøyet sitt slik at det kunne bli brukt av alle, fordi RosseTTaFold hadde allerede tenkt å åpne verktøyet sitt, og det var jo åpne versjoner, og så videre, så det kom egentlig to verktøy på likt som har åpne verktøy for proteinutforming, både det som heter AlphaFold og det som heter RoseTTafold. Det de gjorde i Nora da, Nora, jeg leder Nora, vi har vel ikke snakket så mye om Nora enda, men Nora er jo et samarbeid mellom åtte universiteter i Norge, så er det vel nå fire forskningsinstitutter og tre høyskoler. Det samarbeidet, innenfor de rammene der, kan det gjøres veldig mye mer enn hva hver enkel institusjon kan gjøre. Så vi kastet oss rundt og installerte disse åpne verktøyene nå på norsk infrastruktur og brukte norsk tungregning og datamaskiner for disse verktøyene og kunne ha en workshop i løpet av bare et par uker etter at de var frigitt, hvor vi hadde nesten tusen mennesker fra hele verden som var på den workshoppen. Og mens vi hadde workshoppen kunne man se helt nye proteiner som verden ikke hadde sett før, som var ganske fascinerende, og det er nå verktøy som er åpne for det norske forskningssamfunnet, da. Så vi fikk kastet oss rundt og installert disse nye åpne verktøyene fra DeepMind, blant annet. 

 

Silvija: Jeg elsker sånn lean og anvendt forskning, for jeg tror det gir oss fart og det gir oss mening også, med at det er anvendelig, ikke sant. Du, jeg skal kaste på deg noen forkortelser, og så lurer jeg på, for jeg har googlet mens vi har pratet, på ti mest populære dyp læringsalgoritmer. Den første der er Convolutional Neural Networks, og jeg vet ikke om det går an å forenkle det slik at du sier hvilket område den anvendes i? Det er godt mulig at mye av dette er så nytt…

 

Klas: Vi kan prøve litt, da, så blir det spennende også om jeg kan alle disse ti.

 

Silvija: Om du har vært borti dem. 

 

KP: Convolutional Neural Networks, det var det vi snakket om, blant annet AlexNet, og hvis man skal forklare ordet, så Convolution, det er faktisk noe, igjen, som hjernen gjør, jeg snakket om at du hadde i hjernen disse veldig enkle cellene på bunn, som typisk reagerer på en lysprikk, men med en mørk ring rundt, men konvulusjonen, det er at man ikke bare reagerer på sin ene piksel i skjermen, hvis du tenker piksel, man reagerer typisk på den pikselen og nabopiksler og så kan man vektlegge både den pikselen og nabopikselen og så kan man på en måte kjøre det systemet der over hele bildet. Så det er konvolusjon og slik opererer hjernen og slik opererer de Convolutional Neural Networkene som AlexNet, for eksempel, er et eksempel på. 

 

Silvija: Neste a Generative Adversarial Networks, eller såkalte GANs.

 

Klas: Ja, det er litt interessant, for GANs kan produsere nye ting, og her har du typisk et konkurranseforhold mellom et nettverk som skal predikere noe, og et annet nevrale nettverk som skal produsere noe. For eksempel, hvis man tar bilder, så kan man bruke det til å produsere ansikter som ikke eksisterer, helt nye ansikter. Konkurransen er da at det ene nettverket skal prøve å se om det her er et reelt ansikt, altså et foto av et menneske du viser, eller om det er noe som det andre nettverket har konstruert og funnet på. Ved en slik konkurranse mellom to nettverk, hvor man da på en måte prøver å produsere noe som er godt nok til å lure det andre nettverket, så kan man etterhvert få ekstremt gode resultater hvor man nå kan produsere ansikter som du kan se om er ekte foto av mennesker eller om er produsert av kunstig intelligens. 

 

Silvija: Jeg vil gjerne ha deg fem til ti minutter på workshoppen, så nå skal jeg ikke bruke så lang tid, men jeg skal bare lese opp noen flere, og så får du velge den du synes er mest spennende av det som kommer nå. Long Short Term Memory Networks, Recurrent Neural Networks, Radial Basis Function Networks, Multilayer Perceptrons og Self Organizing Maps. 

 

Klas: Ja, mange av disse er jo og har vært en viktig del av AI utviklingen. Noen er spesialtilfeller av noen andre du nevnte, slik som det som heter Long Short Term Memory Networks, det er et nettverk som man typisk man bruker på tidsserier og som har en slags hukommelse av fortiden, man pleier bare kalle det LSTM, som også er et recurrent neural network, egentlig. Så det er et spesialtilfelle av det. Det har vært kjempeviktig, jeg har selv brukt det, for eksempel, i hjerneforskning. Vi måler da elektriske signaler fra hjerneceller og har et spesielt signal vi leter etter, vi lette i hjernen, for eksempel, etter noe som heter Ripple, som er viktig for læring, vi prøver også å finne ut hvordan hjernen lærer, det har vi ikke snakket så mye om, men hjernen fungerer litt annerledes når det gjelder læring, enn kunstige nevrale nettverk, så vi prøver å finne ut mer hvordan hjernen lærer for å kanskje ta med den kunnskapen inn i kunstig intelligens, og da lette vi etter spesielle mønstre som vi kan måle i hjernen som vi vet er relatert til læring, og for å finne de mønstrene brukte vi LSTM, da. Så det er et nyttig verktøy, men har nå på en måte også mer og mer blitt overtatt transformers, som det heter, og andre algoritmer som også begynner å bli gode, eller bedre. 

 

Silvija: Men hvis vi skal oppsummere veldig kort, for det første så har du gjort jobben min fantastisk bra, for jeg fikk veldig lyst å lære mer. Det er mulig å google top ten deep learning algorithms, og det finnes videoer, det finnes lesestoff, og så er det ikke sånn at man må forstå alle detaljer, men det man får etterhvert er en følelse av hvordan man prøver å få maskinene til å etterape vår måte å bygge forståelse av verden på, og så gjør vi dette her ganske spesialisert i forskjellige domener, slik som bilder eller trafikk. Men dette her er også veldig tverrfaglig, det er mye psykologi, det er mye filosofi sikkert, også, mye medisin, mye data og matematikk opp i dette her, og så blir fremtiden formet av at det kommer til å være en slags sammenfletting av disse teknologier, kanskje. 

 

Klas: Ja, det er jo det mange forsøker på, å få algoritmer som ikke bare kan gjøre ett spesifikt problem, men som blir mer og mer generelle, som kan gjøre flere områder, og mange er forskere, flere og flere jobber inn mot det å løse intelligens litt mer generelt, artificial general intelligence. Det som var fy fy å snakke om bare for noen få år siden, men man ser nå, som jeg har nevnt flere ganger, for eksempel, MuZero, som kan gjøre mange forskjellige oppgaver med samme nevrale nettverk i bunnen, så det er jo en retning det går, at algoritmer blir mer og mer generelle. 

 

Silvija: Flott, tusen takk, Klas. Vi møtes om noen minutter for å snakke veldig, veldig kort om dette lille verkstedet vårt. 

 

Klas: Takk. 

 

Du har nå lyttet til en podcast fra Lørn.Tech – en læringsdugnad om teknologi og samfunn. Nå kan du også få et læring sertifikat for å ha lyttet til denne podcasten på vårt online universitet Lørn.University

Leksjon 4 - ID:M0042d

Leksjon 4 - ID:M0042d

Leksjon 4 - ID:M0042d

Velkommen til Lørn.tech – en læringsdugnad om teknologi og samfunn med Silvija Seres og venner.

 

Silvija Seres: Hei, og velkommen til leksjon fire i Lørn Masterclass om AI og hjernen, med Klas Pettersen. Klas, vi skal bruke fem minutter på å leke et lite verksted, jeg er leder for et lite selskap, som heter Lørn, og jeg har hørt at AI ville vært veldig relevant for meg, jeg vet ikke helt hvordan. Jeg vet ikke helt hvordan jeg skal komme i gang, heller. Hva ville dine tre første spørsmål til meg vært, bare så jeg kan begynne å tenke pragmatisk og anvendt. 

 

Klas H. Pettersen: Det finnes mange måter å starte på, når det er sagt, Nora er først og fremst et forskningssamarbeid, så vi har ikke god rutine å hjelpe næringsliv, for eksempel, selv om vi ønsker å ha mer og mer næringslivssamarbeid, så det er også noe vi også må gjøre. Men vi må jo starte på det du var inne på sist, at du må først og fremst definere problemet ditt, så har du et problem som skal løses, så må det være nummer én,- å definere det. Så kan det også være, at det er ting ved din drift, som ikke du nødvendigvis vet at kan gjøres annerledes eller mer effektivt ved bruk av AI, så det kan jo også være at man kan gå inn og snakke litt mer generelt om hva AI kan brukes til og prøve en liten brainstorming sammen, finne interessante problemstillinger, det kan man jo også gjøre. 

 

Silvija: To eksempler fra meg, vi har da en plattform som har både studenter og deres læringsdata, så en av de drømmene vi har, det er å lage smarte læringsstier for folk, dette med anbefalinger, og så kunne det også vært veldig spennende å få litt hjelp med å tagge og analysere innholdet, altså, denne samtalen, er det noe AI kunne hjulpet oss med?

 

Klas: Ja, det er det. Jeg har nevnt flere ganger denne GPT-3, det er jo typisk tekst, da, men den har andre algoritmer som kan overføre tale til tekst, og så kan den ta tekst og lage en kort oppsummering med det den algoritmen da mener er viktig. Og jeg må si at jeg er veldig glad når jeg har eksperimentert med det, så treffer den utrolig godt når det gjelder å oppsummere tekster, man kan også ta kompliserte tekster, vitenskap typisk, og oppsummere med et språk som en tiåring, for eksempel, kan forstå og lese. Så det er en metode man kan bruke. Skal man bruke GPT-3, så må man, som jeg har nevnt tidligere, søke om det og samarbeide kanskje med folk som har tilgang, og så videre, så det er en prosedyre, så mange av de nyeste algoritmene, de er ikke enkelt tilgjengelige enda, men det kommer. 

 

Silvija: Men det kunne vært en nærings PHD, for eksempel, hvor man har satt en doktorstudent som har dette som oppgave, og de kan jobbe med Nora gjennom sitt universitet. 

 

Klas: Ja, absolutt. Så nærings PHD, det er jo en form, som Nora samarbeider godt med næringslivet med, så vi har også en forskerskole, som vi akkurat har startet i Nora nå, hvor vi vil utdanne forskere, så er det blitt typiske doktorgradstudenter, som vi utdanner der, og der er jo nærings PHD også en viktig del for å knytte arbeidslivet og næringslivet tettere til utdannelsen. Kunstig intelligens er jo et anvendt område, så det er et område som er godt egnet for å ha en tett tilknytning til næringslivet. 

 

Silvija: Jeg hørte deg si, forstå problemene som du vil løse, og så finn folk som da kan hjelpe deg å oversette det til løsninger. Du trenger ikke nødvendigvis koke opp alt selv.

 

Klas: Nei, og særlig mindre bedrifter, de har jo ikke mulighet til å ha en stor forskningsavdeling, da er alternativet typisk å bruke eksisterende algoritmer og tilpasse dem, det er langt mindre ambisiøst enn å prøve å skape noe helt fra bunnen av selv. 

 

Silvija: Veldig bra. Klas, kjempe tusen takk for tiden din og for all inspirasjon og læring. 

 

Klas: Takk for en hyggelig samtale, Silvija. 

 

Du har nå lyttet til en podcast fra Lørn.Tech – en læringsdugnad om teknologi og samfunn. Nå kan du også få et læring sertifikat for å ha lyttet til denne podcasten på vårt online universitet Lørn.University

You must log in to pass this quiz.

Du må være Medlem for å dokumentere din læring med quizes og motta læringsbevis. Prøv et

Allerede Medlem? Logg inn her

Du må være Medlem for å dokumentere din læring med quizes og motta læringsbevis. 

Allerede Medlem? Logg inn her