Enkelte røster hevder at kunstig intelligens kommer til å
endre samfunnet vårt like grunnleggende som den industrielle revolusjonen, forteller
Line Coll.
– At vi lar utviklingen skje i det stille, og overlater den
til private aktører, uten styring fra politikere og lovgivere, er underlig for
et tilsynsorgan som vårt. Vi mener at det går an å ta grep, og at Norge har et
handlingsrom, sier Coll.
– Jeg kan ikke konkretisere akkurat hvilken lov som mangler;
en slik bevisstgjøring må komme som et resultat av en offentlig samtale der man
diskuterer hvor presset og risikoen er størst, og en aktiv politikk,
understreker hun.
Inntil hun overtok som direktør i Datatilsynet i august i
fjor, var hun partner i Wikborg Rein og ledet firmaets personvernteam.
– Utforsk handlingsrommet
Det juridiske landskapet er komplekst, og norske lovgivere
kan ikke operere uavhengig av EU. Videre er og skal lovgivning som instrument
være sendrektig, fordi alle skal bli hørt i en demokratisk prosess, påpeker
direktøren.
– Jeg sender likevel en oppfordring til norske lovgivere om
å utforske handlingsrommet for nasjonal lovgivning. Det er ikke så stort, men
det er der. Et område vi har sett på, er skolene; man kunne for eksempel lagt
ned forbud eller laget regler for bruk av bestemte applikasjoner eller digitale
verktøy i skolen. Dette er et konkret område man kunne ha regulert, som ville
fått stor betydning for barn og unge, sier Coll.
– De store, private markedsaktørene samler inn enorme
mengder personopplysninger, uten noen form for demokratisk kontroll og åpenhet.
Dette er, slik jeg ser det, en trussel mot demokratiet og hva slags samfunn vi
vil ha fremover. Det er flere som har tatt til orde for at ti år frem i tid vil
spørre oss selv «hva i all verden var det vi tenkte på».
For å kunne føre tilsyn med kunstig intelligens, må
kildekoden være tilgjengelig.
– ChatGPT og andre lignende systemer er lukkede løsninger
som folk flest ikke forstår, og heller ikke vi som tilsyn. Det er for stort og
for vanskelig å komme innunder dem, sier Coll.
Kritisk til ny «venn»
I påsken dukket en ny såkalt AI-venn opp hos alle som bruker
Snapchat. Dataene som er matet inn i den nye «vennen», går bare frem til 2021.
Det nytter derfor ikke å spørre AI-vennen om krigen i Ukrainia, eller om hvem
som er sjef i Datatilsynet (den svarer Colls forgjenger, Bjørn Erik Thon).
– Vi kan le av de ville svarene den gir, men for barn og
unge og mindre ressurssterke personer, utgjør denne nye «vennen» en risiko,
sier Coll.
Hun er veldig bekymret for at barn og unge kan komme til å
dele mer personopplysninger enn de burde.
– Vi har testet den litt uformelt hos oss, og ser at den
oppfører seg som en lytter som barnet lett kan få tillit til. En risiko er at
barn for eksempel vil dele helseopplysninger som de synes det er flaut å snakke
med andre om.
Coll er spesielt urolig for at kommersielle aktører gjennom slike
tjenester får et enda større innblikk i våre liv.
– Vi må ha en samtale om dette i Norge for å få opp
bevisstheten, så vi kan klare å regulere utviklingen bedre.
Armene rekker ikke rundt
Datatilsynets oppgave er blant annet å føre kontroll med at
personvernregelverket etterleves, og medvirke til at enkeltpersoner ikke blir
krenket gjennom bruk av opplysninger som kan knyttes til dem.
Problemet er at de mange av de store kommersielle aktørene
ikke er norske, og heller ikke europeiske.
– Det norske Datatilsynet kan ikke regulere for eksempel Meta
direkte. Vi får ikke armene våre rundt dem. Etter lovens system er vi ikke den
rette instansen til å gripe inn, og da må lovgiverne prøve å få til inngrep
overfor dem.
Det norske samfunnet er et av de mest gjennomdigitaliserte i
verden, og mange sider av utviklingen er helt fantastisk, men den har skjedd
nesten uten debatt om hvilke negative sider som følger med på lasset, påpeker
hun.
– Vi har heller ikke snakket særlig om hvilke interesser vi
har satt til side, for å komme dit vi er i dag. Datatilsynet mener ikke at
digitaliseringen i seg selv er galt, men at vi som samfunn må ta noen viktige
diskusjoner om utviklingen, fordi den skjer så fort.
Algoritmetilsyn
Datatilsynet har cirka seksti fast ansatte medarbeidere,
derav mange jurister, men bare sju teknologer.
– Det er fryktelig få, det må jeg få lov til å si.
NTNU-forsker Inga Strümke mener Norge bør få et eget
algoritmetilsyn, eventuelt at Datatilsynet styrkes kraftig og ilegges denne
oppgaven. Coll tenker at et slikt tilsyn gjerne kan være en del av
Datatilsynet.
– Vi har allerede hatt ett tilsyn med algoritmene som brukes
for karaktersetting i skolen. Og jeg har vanskelig for å se at noen utenfor oss
skal ha en slik tilsynsfunksjon. Men det er veldig mange type algoritmer, og
ikke alle vil høre hjemme under oss; det ville ikke være naturlig for
algoritmer som gir konkurransevridning, eller som benyttes i ny, grønn
teknologi, for eksempel. Men jeg er veldig enig med Strümke at vi trenger mange
flere teknologer og også jurister for å gjøre de nødvendige reguleringene på
algoritmer som bør komme.
Advokatetikken og kunstig intelligens
Kunstig intelligens gir også noen advokatetiske
utfordringer, reflekterer Coll.
– Jeg har ikke dypdykket i temaet, men jeg synes det er et
interessant spørsmål om advokater kan bistå klienter som utvikler uetisk KI,
eller KI med stort skadepotensial. Advokater har jo rapporteringsplikt hvis de
mistenker at en klient driver med hvitvasking. Kanskje kan man se for seg at
advokaten bør få får en tilsvarende varslingsplikt for slik kritisk KI? Hvor
langt skal advokatens undersøkelsesplikt gå? Dette er kanskje et litt fjernt
eksempel, men et spennende tankeeksperiment.
Når advokater bruker KI i sin rådgivning, er
informasjonsplikten svært viktig, sier hun.
– Hvis du lener deg på kunstig intelligens, uten nødvendige
mekanismer for kvalitetssikring, så er det en risiko. Så åpenhet er et viktig
punkt.
Kunstig intelligens vil kunne styrke rettsikkerheten, hvis
den brukes riktig.
– Men da må vi har regler som gjør at KI brukes på en god
måte i advokatvirksomheten. Vi ser at i så kompetansedrevne bransjer som
advokatvirksomhet, vil KI forenkle store sakskomplekser og ta bort mange
menneskelige feil, så lenge det er forsvarlig og god KI som brukes. Kunstig
intelligens som støtte i prosesser og i større sakskomplekser, er en stor
fordel for advokatvirksomheter. Men det er avhengig av solid kvalitetssikring
av mennesker til syvende og sist. Så advokater bør ikke frykte kunstig
intelligens.