– Gjennom 2022 forstod vi endelig at det skjer store ting som vi ikke har nok regulering eller nok politisk lederskap til å håndtere. Hvor mye mer våkne enn dette kan vi bli, spør Inga Strümke.
KUNSTIG INTELLIGENS
Vil ha krav til risikoanalyser og åpenhet
Utviklingen av kunstig intelligens foregår i et lovtomt rom. Det bekymrer NTNU-forsker Inga Strümke. Hadde de nødvendige reguleringene vært på plass, tror hun ChatGPT aldri ville ha blitt tilgjengelig i EU.
TRONDHEIM: – EUs foreslåtte forordning om kunstig
intelligens stiller krav til teknisk dokumentasjon og risikodempende tiltak.
ChatGPT ville ha strøket, mener hun.
Inga Strümke har doktorgrad i partikkelfysikk, og arbeider
ved NTNUs institutt for datateknologi og informatikk. Her forsker hun på
kunstig intelligens. For tiden er hun aktuell med boken «Maskiner som tenker»,
og har særlig siden lanseringen av ChatGPT for omtrent et halvår siden, blitt
et kjent fjes i mediene. I podkastene «Abels tårn», «Wolfgang Wee Uncut» eller
«Game over?», kan man også høre Strümke snakke om kunstig intelligens i
timevis.
Annonse
Like før Advokatbladet møter AI-eksperten godt plassert i en
kongeblå sofa i AI-labben til NTNU i Trondheim, har Italia iverksatt et
midlertidig forbud mot ChatGPT som første land i Europa, og over 1100
tech-topper, deriblant Elon Musk og Steve Wozniak, har signert et felles opprop
om pause i utviklingen av nye AI-modeller i påvente av flere regler og mer
rammeverk.
Strümke mener samfunnet må finne svaret på hvordan systemet
kan forbys med reguleringene vi allerede har. Samtidig oppfordrer hun de
juridiske forskningsmiljøene til å kartlegge hvordan man skal håndtere
misforholdet mellom hvor lang tid det tar å skrive juss og den raske, men
uoversiktlige, utviklingen av AI.
– Det er artig jussgymnastikk. Reguleringshastigheten og
utviklingshastigheten vil sannsynligvis aldri kunne matche hverandre. Man kan
ikke bruke den tradisjonelle lovoppskriften på dette feltet. Hvordan man da
skal få på plass gode reguleringer, er et juridisk forskningsspørsmål vi må ha
svar på.
– Gigantisk problem
Slik det er i dag, finnes det ikke stort av reguleringer
knyttet til utvikling og bruk av kunstig intelligens utover nasjonale
strategier og retningslinjer fra EU. Den foreslåtte forordningen om kunstig
intelligens, også kjent som EUs AI Act, er på trappene, men vil først trolig
tre i kraft i 2025.
Forskeren advarer mot å vente med å komme med mer håndfast regler
til man har sett hvilken vei AI-utviklingen går.
– Da havner vi fort i en sedvanefelle, slik vi har gjort med
sosiale medier. Hvis noen hadde beskrevet Instagram og hvordan plattformens
anbefalingssystemer funker, hadde vi aldri tillatt at det ble tilgjengelig. Det
er et manipulerende system som utnytter sårbarheter, særlig blant mindreårige,
men også på tvers på hele befolkningen. Vi hadde aldri godtatt det. Men nå har
Instagram eksistert i snart 13 år, og det ville ha blitt opplevd som veldig
radikalt å fjerne tjenesten, mener Strümke.
Hverken å regulere i forkant av utvikling, eller å lage et
regelverk basert på intensjoner, slik som GDPR, viser seg å fungere godt i
praksis, ifølge forskeren.
– Jeg mener derfor at vi har et gigantisk problem.
– Butter mot intellektuelle grenser
For å regulere maskinlæringsmodeller på en hensiktsmessig
måte, må man kunne beskrive nøyaktig hva den gjør. Det krever høy kompetanse
innenfor både computer science og statistikk – i tillegg til den juridiske
forståelsen.
– Altså må man mer eller mindre være både en god jurist og
en AI-forsker. Jeg begynner å lure på om vi nå er i ferd med å butte mot noen
intellektuelle grenser når det kommer til å forstå systemene, sier Strümke.
Å avgjøre hva som skal være lovlig og ulovlig bruk av
kunstig intelligens, er en krevende øvelse, forteller hun.
– Hvis jeg skal være arrogant og forklare hva en
diffusjonsmodell gjør, eksempelvis en slik som genererer bilder, vil jeg si at
den trekker fra en sannsynlighetsvurdering. Det kan umulig være ulovlig.
Hvilken lov forbyr det å modellere en sannsynlighetsfordeling og trekke fra
den? Ingen lov.
– Har man lyst til å forby slike modeller, må det handle om datagrunnlaget
som brukes i opplæring av maskinene. Da er vi igjen inne på en sedvane, fordi
AI-utviklere lenge har hentet treningsdata fra internett. Hvis man skal forby
det, vil det ha en tilbakevirkende kraft på mange ting vi allerede synes er
helt greit.
Behov for nytt, juridisk objekt
Enkelt forklart består et maskinlæringssystem av et
datagrunnlag, en målfunksjon og en modell der parametere skal tilpasses.
– For å lage hensiktsmessige reguleringer, tror jeg vi må se
på alle bestanddelene, for så å se på treningsgrunnlaget, altså dataene som er
brukt i opplæring. På den måten vil man kanskje se hvor de enkelte
reguleringene treffer, sier Strümke.
– Men hva skjer så idet det oppstår et system som er så
komplekst at man ikke kan forutsi hvilke egenskaper det vil få? Må vi da tenke
nytt? Maskiner opptrer ikke som aktører i samfunnet, og tar ikke stilling til
hvorvidt de bidrar til god eller dårlig samfunnsutvikling. Det er firmaet eller
personene bak som er aktørene. Vi vil måtte ta en diskusjon om når maskiner
skal få aktørskap en eller annen gang, men kanskje trenger vi allerede nå et
nytt juridisk objekt, som store systemer uten forutsigbar oppførsel, må få.
Åpenhet og risiko
AI-eksperten mener det haster å få på plass krav til
risikoanalyse og transparens, og hun anser det som et «kjempeproblem» at ChatGPT
ikke har en åpen og tilgjengelig kildekode. Dermed er ikke mulig å se hvilke
mekanismer som er tatt i bruk for å beskytte brukerne.
– På et vis eier Open AI rettigheten til hvilket
meningsmangfold som skal få lov til å utvikle seg. Selv om ChatGPT «bare» er en
maskin som gjør sannsynlighetsberegninger, er det noen som har satt klare
regler for hva den kan svare på og ikke. Det bør være åpent, hvis ikke er det
ikke noe rom for demokratisk styring eller tilsyn, sier Strümke.
– Det at systemer med så stor effekt, ikke skal være
transparente, er absurd og umoderne, men hvordan man skal tvinge bedrifter til
å legge ut om forretningshemmelighetene sine, det vet jeg ikke.
– Vil EUs foreslått forordring om kunstig intelligens
få nok effekt?
– Jeg tror den er altfor ambisiøs. Ambisjonsnivået er så
høyt at det vil være vanskelig å leve opp til, men den har alle elementene jeg
tenker at den burde ha. Eksempelvis at man må ha på plass både teknisk
dokumentasjon og risikoanalyse før en lansering. Jeg håper den vil bli retningsgivende
for utvikling, oppfølging og tilsyn, svarer Strümke.
NTNU-forskeren vil også ha på plass et eget algoritmetilsyn.
– Vi trenger et eget tilsyn som ikke er et datatilsyn. I dag
er personvernet den eneste reguleringen vi foreløpig har å drive tilsyn opp
mot. Vi har ikke en AI-regulering, og vi har ikke laget et tilsyn på intensjonene
som ligger til grunn for utviklingen. Enn så lenge må vi vente på EUs AI Act,
og da er vi tilbake til at det tar lang tid å skape reguleringer, sier hun.
Strümke sammenlikner ChatGPT med en bil.
– Brukes bilen riktig, er den veldig praktisk og gjør oss
mer mobil, men hvis feil person bruker bil eller bruker bil i et miljø hvor den
ikke skal være, slik som i en gågate, er den livsfarlig. Samme teknologi kan
både være til gagn og til skade avhengig av hvordan den brukes. Er det noe vi
regulerer, er det fungerende kjøretøy med stor motor. Vi har altså mange
mekanismer og verktøy på plass allerede. Vi har en måte å formalisere tillit på,
og et system vi kan prøve å få kunstig intelligens inn i.
AI-forskning på labben
Institutt for datateknologi og informatikk (IDI) ved NTNU forsker
på brukergrensesnitt, databaseteknikk, datamaskinarkitektur, grafikk, kunstig
intelligens, informasjonssystem, operativsystem, programmering, sikkerhet og
systemutvikling.
På Norwegian Open AI Lab, eller AI-labben, pågår det flere
forskningsprosjekter, deriblant:
· Energi: AI og maskinlæring brukes for å
øke nøyaktigheten i spådommer om et komplekst og skiftende energimarked.
· Helse: Hvordan innovere helseteknologi og
forbedre personlig tilpassede behandlinger.
· Mobilitet: Bruk av AI i utviklingen av
autonome kjøretøy, slik som biler, skip og droner. Forskerne jobber også med å
utvikle AI-teknologi som kan bidra til tryggere og mer sømløs reising.
· Hav: Labben utvikler og bruker AI for å
sikre en bærekraftig utforskning av maritime sektorer, ved å forhindre tap av
biologisk mangfold, forbedre fiskevelferden i akvakultur og sikre
oppdrettsanlegg til havs. Det utvikles også robotikk for undervannsoperasjoner.
I tillegg forskes det på finans og digital økonomi, samt
såkalte tilkoblingsapplikasjoner – blant annet.