LØRN case C0352 -
LØRN. RESEARCH

Alexander Refsum Jensenius

Førsteamanuensis ved Institutt for musikkvitenskap

UIO

Fremtiden er analog

I denne episoden av #LØRN snakker Silvija med førsteamanuensis ved Institutt for musikkvitenskap ved Universitetet i Oslo, Alexander Refsum Jensenius. Alexander er utdannet innenfor musikkteknologi og jobber for tiden med å bygge opp et nytt forskningssenter hvor de skal samle 50 forskere som jobber mellom musikk, psykologi og informatikk. I episoden snakker Alexander om hva vi kan finne når vi analyserer folks dansebevegelser. Han forklarer også hva en selvspillende gitar er.
LØRN case C0352 -
LØRN. RESEARCH

Alexander Refsum Jensenius

Førsteamanuensis ved Institutt for musikkvitenskap

UIO

Fremtiden er analog

I denne episoden av #LØRN snakker Silvija med førsteamanuensis ved Institutt for musikkvitenskap ved Universitetet i Oslo, Alexander Refsum Jensenius. Alexander er utdannet innenfor musikkteknologi og jobber for tiden med å bygge opp et nytt forskningssenter hvor de skal samle 50 forskere som jobber mellom musikk, psykologi og informatikk. I episoden snakker Alexander om hva vi kan finne når vi analyserer folks dansebevegelser. Han forklarer også hva en selvspillende gitar er.
Facebook
Twitter
LinkedIn
Email

28 min

Choose your preferred format

SS: Hei og velkommen til Lørn. Mitt navn er Silvija Seres og tema i dag er kunst og teknologi eller som min gjest sier forsker musiker og musikkforsker. Min gjest er Alexander Refsum Jensenius som er førsteamanuensis ved institutt for musikkvitenskap på Universitet i Oslo. Velkommen.

AR: Takk.

SS: Jeg oppdaget deg for et par år siden. Jeg var på en konferanse av polyteknisk forening, teknologi og følelser, der hadde du og en av dine studenter en installasjon med gitarer som skulle utforske vibrasjoner og mennesker i det digitale og analoge. Først tenkte jeg det var rart. Litt som når man går på museum of modern art, er dette kunst? Så tenker man mer på og tenker at det er derfor det er fantastisk kunst. Du har påvirket meg. Vi skal snakke om kunst og teknologi, fortell oss om deg?

AR: Jeg liker å kalle meg musikkforsker og forsker musiker, det er for å få frem de to sidene. Det er kunst og vitenskap som henger sammen i min verden. Ikke som separate kategorier, men en kontinuum hvor vi jobber med både kunstneriske og vitenskapelige metoder. Vi har både kunstneriske og vitenskapelige resultater. Jeg har bakgrunn som teknolog og musiker, og har forsøkt å kombinere disse. Jeg er i en heldig situasjon hvor jeg får lov til å drive med det på heltid på universitet med forskning og utdanning av nye musikkteknologer. Hvor man klarer å få det kunstneriske og vitenskapelige perspektivet til å henge sammen.

SS: Hvordan kommer man fra musikk til teknologi?

AR: Det er en kort vei fordi musikk og teknologi har alltid hengt sammen. Fra de første steinene man begynte å slå mot hverandre, så kan man si det var den enkle teknologi. Instrumenter er teknologi.

SS: Det har ikke endret seg så mye med trommer og blåseinstrumenter?

AR: Nei, det er det grunnleggende hovedprinsippene for lydproduksjon går igjen. Vi har fått bedre og finere akustiske instrumenter opp gjennom årene, men en fiolin er ganske lik nå som 400 år siden. Så kommer det nye, rare instrumenter hele tiden. I det miljøet jeg er i så bygger vi og lager nye instrumenter selv. Både akustisk og digitalt. Jeg liker å kalle det elektroakustisk fordi det er ikke noe som er et digitalt instrument.

SS: Lyden må vibrere.

AR: For å høre lyden så er lyden akustisk. Det er derfor jeg liker å kalle det elektroakustisk. Det høres rart ut, men et digitalt instrument på være elektroakustisk for at man skal kunne høre det.

SS: Så var de første strenginstrumenter sikkert superenkle med hestehår eller hva man brukte til å begynne med, så var det et stykke til stradivarius. Så ble alt ødelagt med midi formatet. Jeg har vært en stor fan av Jared Lanier som er en fantastisk VR-kunsterforsker. Han er stor fan av gamle instrumenter. Det å spille på gamle instrumenter gjør at du tenker og spiller forskjellig, men når man oversetter det til midi-formatet, så forsvinner konteksten og materialitet?

AR: Midi har fått mye kjeft. Midi er et format som ble lagd på midten av 80-tallet. Den gangen var målet å få en standardisering så ulike synthesizere kunne kobles sammen.

SS: Hva er en midi og synthesizer?

AR: En synthesizer er et instrument man spiller på. De finnes både analoge og digitale versjoner. Avhengig om det finnes i en datamaskin eller kretskort. Midi ble laget som en standard for å få disse til å snakke sammen. Sånn sett har midi vært en suksess fordi det har fungert. Du kan gå i butikken og kjøpe en digital kontroll, og plugge den inn i en datamaskin så kan den spille på et program der.

SS: Hva er overgangen fra en datafil til lyd?

AR: Det midi sier inne i en midi fil hvis man skal spille en tone på midi språk, så gir man beskjed om at det er tonehøyden, f.eks 60, det er midt c-en på et piano, det er miditone 60. Så skal man ha en anslagshastighet som kan være mellom 0 og 127, altså hvor hardt du spiller. Hva midi spesifiserer er tonehøyde og hvor hardt du slår. Det er også en varighet. Men det er lite informasjon fordi det beskriver en kompleks musikal greie. Det er det midi kritiseres for fordi det er en reduksjonistisk. Det er lite informasjon som du skal styre kompleks lyd med.

SS: Oversatt til enkelt lego språk. Når Yo Yo Ma spiller bach cello suites, så er det noe som man ikke kunne fanget opp med en ren midi oversettelse av musikken?

AR: Det aller meste fanger du ikke opp med midi.

SS: Hva er det som gjør at mennesker tolker det samme notearket forskjellige?

AR: Det er det det er. Midi har det samme problemer som vanlige noter har. Det er et prikk på et papir. Det er ikke musikk i den prikken som her på papiret, like lite som det er musikk i en miditone som er representert på en datamaskin. Det å få den svarte prikken eller koden på datamaskinen til å leve, gi oss mening og følelse, det er det vanskelige. Når det gjelder akustisk instrumenter så har vi musikere som bruker livet sitt til å tolke den lille svarte prikken til å skape fantastisk musikk som Yo Yo Ma. På den digitale siden i datamaskinen, så har vi det samme problemet, hvordan skal vi klare å få den lille koden til å gi musikalsk mening. Det er det jeg jobber med å finne ut av hvordan vi skal skape musikk, mening og følelser med det. Det er grunnlaget mitt for å si at vi ikke kan forholde oss til det digitale.

SS: Jeg trodde du forsket på hvor de følelsene kom fra hver av oss individuelt.

AR: Det henger sammen.

SS: Hvordan er forskningen? Fortell om rytmer, mennesker og dans.

AR: Jeg er med på å bygge opp et nytt senter for fremragende forskning på universitet i Oslo som heter Ritmo som dreier seg om rytme. Rytme er viktige elementer i musikken, men for menneskelivet som helhet. I senteret vårt har vi musikkforskere, informatikere og nevroviten som jobber med kunstig intelligens og robotikk. Sammen forsøker vi å forstå hvordan man lager musikk, men også hvordan musikken påvirker oss. Det gjør vi på forskjellige måter, men vi gjør det ved at vi lytter til musikk, analyserer musikk ved hjelp av datamaskin, vi ser på hvordan man beveger seg til musikk, hvordan det foregår inne i hjernen. Så bruker vi kunstig intelligens for å analysere det. Så ser vi om vi kan ha roboter som kan lage musikk. Vi jobber stort og bredt. Vi er nesten 50 forskere som jobber med et på heltid, så det sier seg selv at det er mye vi driver.

SS: Gi meg et konkret eksempel. Hvordan forsker man på dans med datamaskin hjelp?

AR: Vi har en bevegelseslab på senteret som er kamerabasert i laben vår. Man kan ta på seg en drakt mer markører på. Det er samme type system som brukes til å lage filmer og på sykehus. Vi bruker det til å analysere dansebevegelser. Ser hvordan de forholder seg til musikken de danser til, men også for å se om man kan lage ny musikk ved hjelp av dansingen i seg selv.

SS: Når du blir lært opp i en ny dans, så lærer du en slags algoritme. Det er ganske strengt beskrevet, men så er det igjen den rare tolkningen din som gjør om det blir pent eller ikke. Du sier at vi kan analysere hvordan man tolker musikk for å danse, hva kan man lære?

AR: Vi jobber med grunnforskningen. Forstå den underliggende mekanismen i det. Særlig fra et kognitivt perspektiv, ikke bare det som skjer i hodet, men også kroppen vår når vi danser eller beveger oss. Jeg har også et tilstand prosjekt hvor jeg ser på folk som står stille, hvordan vi forholder oss til musikk når vi står stille. Musikk påvirker oss og beveger oss fysisk.

SS: Jeg har en 6-åring som liker å velge musikken når vi kjører bil på mamma sin spotify. Når vi spiller noe nytt hun hører for første gang og hun liker det. Det er så gøy å se på henne og hun sier “mamma, rumpa mi danser”. Kroppen vil bevege seg og følge rytmen. Hvorfor det?

AR: Det er det vi forsøker å finne ut av. Vi tror det er noe dypt forankret kognitive systemer som gjør at bevegelse og musikk er koblet sammen i hjernen vår. Det er ikke mulig å tenke seg at du har et skille mellom lyd og bevegelse. Det vil si at når du hører en lyd, så er det de samme områdene i hjernen som lyser opp som hvis du hadde sett bevegelsen som hadde lagd den lyden. Dette er kjernen i det vi forsøker å forstå mer av og hvordan koblingene fungerer. De går begge veier. Hvis du bare ser en bevegelse så vil du få fyring i hjerne fra lyden av det. Hvis du hører lyden får du fyring i hjernen av bevegelsen av det. De er koblet sammen.

SS: Kjemien vår og hormonene har sammenheng med musikken. Jeg har alltid hatet heavy metal til nylig hvor jeg merket at jeg hørte på Thunder av AC DC, og det var plutselig deilig. Jeg lurte på hva som har skjedd med meg for det var grusomt før. Hva er det som endrer musikksmaken og hvor kommer musikksmak fra?

AR: Musikksmak har en kulturell komponent. Man kultiveres inn i en bestemt type sjanger fra sin bakgrunn. I tillegg så endrer man seg over tid. Man utvikler seg etterhvert og det er mye med konstant å gjøre fordi ofte noen typer musikk egner seg til å lytte til enn andre. Noen typer musikk må du se for at det skal for mening. Jeg har spilt mye jazz selv, og det å høre på frijazz på ørene synes jeg nesten er helt umulig. Det gir meg lite vanligvis. Men hvis jeg ser det samtidig som jeg hører det gir det plutselig mye mer mening. Da får man en kontekst rundt det og kall det multimodale opplevelsen. Musikk er ikke bare musikk.

SS: Har det noen med empati? At du lever deg inn i hodene til de som spiller fordi du ser dem?

AR: Ja. Igjen tilbake til bevegelse og lyd som henger sammen, men også du lever deg inn i andre ved at vi imiterer. Speilroms tanketeroien er basert på at vi hele tiden speiler det vi ser rundt oss. Det gjør vi hele tiden ubevisst. Det er sånn vi er som mennesker. Musikk erfaringen og opplevelsen vår er tett knyttet til hvem vi er som mennesker.

SS: Nå bruker du data til å finne mønstrene og kjenne dem igjen i dataen. Tilstands prosjektet synes jeg er morsomt fordi en som er så utålmodig som meg var det nesten umulig. Så klarte jeg det likevel. Det andre er AI-prosjektet og analyse.

AR: Vi har studert større bevegelse til musikk i 15 år. Det er dansere, luftgitarister, piano og mye forskjellige, men det er store bevegelser. Vi begynner å få litt forståelse om hva det dreier seg om der. Det er noen ting som går igjen i dette, men så spurte jeg meg selv “hva skjer hvis man står stille? Hvordan påvirker musikk oss da? Påvirker det oss faktisk?” Det er et interessant spørsmål. Vi har fenomenet vi kaller dansefot. Dansefot teorien, hvis det er en teori, sier hvis du setter på noen typer musikk så klarer du ikke å sitte stille. Men det er ingen som har bevist det. Hvis du ser i litteraturen så er det ingen som beviser at dansefot faktisk eksisterer som fenomen. Det er det jeg forsøker å bevise nå. Måten vi gjør det på er på be folk komme inn i laben. Vi arrangere Norgesmesterskap i stillstand for å få inn mange deltagere. Så ber vi dem om å gjøre seg klare, den som står stillest vinner en pris, men så setter vi på musikk, og så ser vi hva som skjer når musikken kommer på.

SS: Ørene danser eller?

AR: Vi setter markører på kroppen og hodet til folk, så ser vi hvor mye eller lite de beveger seg. Nå jobber vi med å bruke kunstig intelligens for å prøve å modellere og se hva som foregår rundt det. Det snakker om milimeter bevegelser, så det er komplekst. Vi begynner å se konturen av at det gjør vondt å ikke bevege seg. Selv om man forsøker å stå imot, så beveger folk flest seg litt mer. Det er smått, så vi jobber med å finne hvilken analysemetoder vi kan bruke for å finne ut av det.

SS: Dette er AI-prosjektet til Charles Martin. Si noe om det.

AR: Charles har vært postdoc hos Ritmo og jobbet med å utvikle metoder for å analysere dette. I tillegg har man jobbet med å lage musikk fra denne type data. Da snur vi rundt på det. Istedenfor å se hvordan folk beveger seg til musikk, så snurrer vi rundt. Vi tenker hvordan kan vi bruke bevegelsene til å lage musikk. Det henger sammen. Da bruker vi ulike varianter av kunstig intelligens modeller for å skape musikken. Man snakker om persontilpasset medisin, vi snakker om persontilpasset musikk. Du får musikk som matcher her og nå til den du er.

SS: Det er vakkert. Nesten poesi. Jeg har vært fascinert av joiking. Jeg besøkte Karasjok og jeg fikk høre at hver person har sin joik. Egentlig alt levende kan ha en joik. Man prøver å fange opp sjelen og den forteller noe om personligheten. Det er noe vi ikke klarer å sette ord på, men vi klarer å sette joik på det. Jeg har en venn som er musiker som pleide å si til meg at man kan se musikk i bevegelsene til folk. Vi beveger oss forskjellig. Det hadde vært flott om man kunne lage en tone eller et lite refreng for hver av oss som er beskrivende.

AR: Det jobber jeg med nå. Vi har tilstandsdata på hundrevis av mennesker som har stått stille i laben vår 10 minutter om gangen. Når du ser på bevegelsessystemet, vi snakker om 6-7 mm per sekund, det vi forsøker å se på er hvordan man kan lage en lydsignatur basert på bevegelsesmønstrene som vi ser. Da vil alle få sin egne musikksnutt basert på bevegelsesmønster sitt. Det er persontilpasset.

SS: Hva er ditt favorittprodukt?

AR: Vi har et prosjekt med selvspillende gitarer som jeg synes er spennende. Vi har holdt på med det en stund og det var gjennom det prosjektet vi møttes for første gang. Vi skal til Finland å spille med det nå. Vi har 6 akustiske gitarer, men så sitter det en digital maskin på dem som lager lyd inne i gitarkassen som får gitarkassen til å vibrere.

SS: Det har ikke noe med strengende å gjøre?

AR: De vibrere også, men det er ikke strengene som er det viktigste. Vi skaper en vibrasjon i gitarkassen så det er opplevelsen. Lyden kommer fra gitaren i seg selv. Det spennende med dette er at det er et interessant møtepunkt mellom det digitale og analoge. Her tar vi et digitalt enkelt signal. Apropo midi, det er bare noen få tall. Det er veldig enkelt og kjedelig. Vi snakker gjerne om en sinustone som er den enkleste funksjonen og lyden man har. Folk flest orker ikke å høre på sinustone. Det er pipelyden på TV. De færreste synes det er fint, men hvis du spiller en sinustone gjennom en gitarkasse, så får du en fantastisk rik, flott klang som kommer ut. Det skapes i gitarkassen i seg selv som gjør at du får en annen materialitet og opplevelse av det. Når du kommer opp til en av de selvspillende gitarene og står foran dem, de er interaktive så musikken kommer når du står foran, men hovedtanken er at du får en opplevelse av en kroppslighet i lyden. Du kan ta på gitaren og kjenne vibrasjonen i kroppen. Det er ikke bare lyd, men det er det haptiske. Du kjenner det i fingrene og kroppen din. Det er møtepunktet mellom det analoge og digitale som for meg er fantastisk med det prosjektet.

SS: Jeg spurt deg om dine favoritt eksempler internasjonalt. Du nevner Shazam. Jeg vil høre om hvordan det funker. Du nevner Roli Seaboard og Aftershocks, kan du si noe om det?

AR: Aftershocks er et par kommersielle hodetelefoner som kan kjøpes på sportsbutikker osv. Det er basert på det vi kaller ben induksjon. De sitter på utsiden av ørene, ikke oppå. De vibrerer, så du kjenner det i kinnene. Det er der lyden produseres.

SS: Godt eller vondt?

AR: Første gang så kiler det, men det pussige er at du hører lyd og musikk bra. Men ørene er frie og åpne. Det er en fantastisk og merkelig opplevelse for du blir koblet på verden samtidig som du kan høre musikk. Det å jogge med dem, så stenger du deg ikke ute. Du er en del av verden. Det er motsatte av hodetelefoner som skal ta bort støyen. Her er det snakk om at du skal ha ørene åpne, men likevel få musikk som går gjennom kinnbenene. Fantastisk teknologi og utrolig spennende. Bokstavelig talt får hode til å vibrere. Shazam er en interessant musikkteknologi. Det er mange som ikke skjønner hvor stort musikkteknologi er som industri. Det er en milliardindustri. Spotify er en del av det, men Shazam er interessant fordi den bruker musikkinformasjon gjenkjenning. Du kan holde den foran en høyttaler som spiller musikk, også vil den finne ut av hvilken musikk det er. Den gjør analyse av lyden ved å søke opp i en database og gir deg svar på hvilken musikk du har hørt på.

SS: Det fungerer bra i bråkete omgivelser hvor musikk er en del av bakgrunnen og det fascinerer meg. Første gang jeg plukket opp Thunder var midt i en svømmekonkurranse hvor de skulle ha premieutdeling. Det er masse bråk og det skrikes, det plaskes også klarer den å kjenne igjen sangen. Er det så tydelige mønstre?

AR: Det er fantastisk og flott teknologi. Det er et av de få produktene som virkelig har klart å hente ut det som er i forskningsfronten i musikkanalyse internasjonalt. De klarer å legge det inn i en app. Det er gøy.

SS: Hva er Roli Seaboard?

AR: Det er et gele piano. Et slags piano, men med myke tangenter. Det er tilbake til det digitale og analoge. Alle som har spilt på et digitalt instrument vet at hvis du trykker ned en knapp så får du en lyd. De fleste vil si det er forskjell på å spille et digitalt piano og vanlig akustisk piano. Roli Seaboard kan du trykke ned og fortsette å kontrollere tonen etter du har trykket. Det er 3D tangent. Geleaktig som du trykker ned på. Henda i puddingen. Jeg har fulgt det fra starten og de presenterte en prototype i Oslo i 2011, og nå er det et kommersielt produkt som faktisk fungerer bra. De spilte med den i La La Land filmen.

SS: Det er laget her?

AR: Det er laget av noen kollegaer i London, men ble vist første gang offentlig i Oslo i 2011.

SS: Hva gjør vi bra i Norge? Jeg tror vi selv pisker oss på mange områder, inkludert kunst og humaniora. Så sier du at det står faktisk sterkere i Norge enn andre steder. Hvorfor det?

AR: Fordi vi har relativt gode støtteordninger for kunst i Norge. Det er et stort kunstområde. Når det gjelder humaniora så har ikke vi opplevd samme type humaniora krise som det er i mange andre land. På flere av universiteter i Norge er det store humanistiske fakulteter. Det tenker jeg er viktig fordi selvfølgelig er teknologi viktig for fremtiden, men jeg pleier å si at teknologi lages tross alt av og for mennesker. Vi må aldri glemme mennesket, da er det ikke noe poeng. Da trenger vi humanister med. Humanistiske teknologer. Det er det jeg forsøker å få til i utdanningen min og forsøker å utdanne teknologiske humanister eller humanistiske teknologer. Det er noe vi må ta vare på i Norge. Vi må klare å koble det menneskelige med det teknologiske.

SS: Har du et sitat?

AR: Fremtiden er analog.

SS: Altså ikke bare digital?

AR: Alle snakker mye om det digitale hele tiden. Det er klart det digitale er viktig, men igjen for å koble det på det menneskelige så må vi få inn den analoge komponenten. En ting er at det er mennesker som skal oppleve det tilsutt hvor mye av kunstig intelligens blir inspirert for man ser den tradisjonelle AI funket ikke. Den nye, spennende maskinlærings teknikken tar biologiske prinsipper og bruker det til å utvikle nye modeller.

SS: Når er det nok regnekraft til å simulere den flotte biologien.

AR: Nye, spennende datamaskiner er biologiske datamaskiner. Det er kult at det begynner å komme. Det er sopp og mose som gror, så er det kabler som går ut av det. Da snakker du om analog computing.

SS: Vi har snakket mye om mye. Hvis man huske en ting fra samtalen?

AR: Teknologi lages av og for mennesker.

SS: JEg synes du har mange flotte eksempler på det. Inspirerende. Vi som kommer fra stem trenger å få med oss og forstå hvilken vei det bør gå i fremtiden. Som du sier fra stem til steam. A’en er?

AR: A art, eller kunst, det tror jeg virkelig på. Hvis man tar fra kunsten får du inn lekenheten og kreativiteten. Du vil få en spennende og positiv påvirkning mellom stem feltene og kunsten. Vitenskap og kunst.

SS: Alexander Refsum Jensenius, første amenius fra universitetet i Oslo på det fantastiske senteret for fremragende forskning som heter Ritmo, tusen takk for at du inspirere oss til å leke. Takk til dere som lyttet.



Hva er det viktigste dere gjør på jobben?

Akkurat nå holder jeg på å bygge opp et nytt forskningssenter, et såkalt senter for fremragende forskning. Her samler vi 50 forskere som jobber mellom musikk, psykologi og informatikk.

Hva fokuserer du på innen din teknologi?

Jobber med å gjøre musikkteknologien mer menneskevennlig og menneskesentrert.

Hvorfor er det spennende?

Fordi musikk er noe som betyr veldig mye for veldig mange mennesker, og vi er med på å skape helt nye musikkopplevelser.

Hva synes du er de mest interessante kontroverser?

Selv om vi i dag har veldig god musikkteknologi, velger mange hodetelefoner og musikkspillere med relativt dårlig lyd. Det viser at det ikke alltid er kvalitet som teller mest for folk.

Dine egne relevante prosjekter siste året?

NM i stillstand og selvspillende gitarer.

Dine andre favoritteksempler på din teknologi internasjonalt og nasjonalt?

Shazam, ROLI Seaboard og Aftershokz.

Hva tror du er relevant kunnskap for fremtiden?

Mer kunnskap om menneskelig kognisjon.

Hva gjør vi unikt godt i Norge av dette?

Humaniora og kunst står relativt sett sterkere i Norge enn mange andre steder. Dette tror jeg er veldig viktig for fremtidens teknologi.

Et favoritt fremtidssitat?

Fremtiden er analog.

Viktigste poeng fra vår samtale?

Teknologi lages av og for mennesker.

Alexander Refsum Jensenius
Førsteamanuensis ved Institutt for musikkvitenskap
UIO
CASE ID: C0352
TEMA: DIGITAL STRATEGY AND BUSINESS
DATE : 190411
DURATION : 28 min
LITERATURE:
http://cdm.link/ http://cdm.link/
YOU WILL LØRN ABOUT:
MIDIRITMO Selvspillende gitarer Lyd og bevegelse
QUOTE
"Vi tror det er noen dypt forankrede systemer som gjør at bevegelse og musikk er koblet sammen i hjernen vår, så lyd og bevegelse har ikke skiller."
More Cases in topic of DIGITAL STRATEGY AND BUSINESS
#C1118
DIGITAL STRATEGY AND BUSINESS
Overføringsverdier og endringsledelse

Karl Munthe-Kaas

Styreleder

Oda

Anne-Lise Fredriksen

Utviklingsleder

NKI

#C0294
DIGITAL STRATEGY AND BUSINESS
Endringer i offentlig sektor

Ole Gabrielsen

Direktør for teknologi og endring

Sarpsborg Kommune

#C0307
DIGITAL STRATEGY AND BUSINESS
Internasjonalt programvareselskap fra Stavanger

Tor Inge Vasshus

CEO

Corporater