kUNSTIG INTELLIGENS

- Svakere vern mot skade forårsaket av kunstig intelligens

Europakommisjonens beslutning om å trekke det foreslåtte ansvarsdirektivet for kunstig intelligens, vekker reaksjoner. - Overraskende, mener Nicolai Halbo i Simonsen Vogt Wiig og Rune Opdahl i Wiersholm.

Feigt og synd sier Nicolai Halbo om Europakommisjonens varslede skroting av KI-ansvarsdirektivet
Publisert Sist oppdatert

- Det er feigt og synd at Europa blir tvunget til å gå vekk fra prinsippene om vern i møte med kunstig intelligens. 

Det mener teknologiekspert og partner i Simonsen Vogt Wiig, Nicolai Halbo.

- Det er overraskende at direktivet ble trukket. Samtidig må man ha for øye at direktivet ville skapt en utfordrende situasjon for KI-selskapene, som ville hatt langt større utfordringer med å forsvare seg i et erstatningssøksmål, sier han.

Begrunnelse for at direktivforslaget trekkes:

I vedlegget til arbeidsprogrammet for 2025 skriver Europakommisjonen at direktivet trekkes som følge av:

«No foreseeable agreement - the Commission will assess whether another proposal should be tabled or another type of approach should be chosen.»

Tidligere i februar varslet EU at forslaget om et ansvarsdirektiv for kunstig intelligens («AI Liability Act») vil trekkes. Ifølge et tillegg til arbeidsprogrammet fra Europakommisjonen for 2025 trekkes direktiver som følge manglende enighet.

– Det er også en kjensgjerning at USAs visepresident J.D. Vance kom med sterk kritikk av EU for sin regulering av teknologi da han deltok på AI Action Summit i Paris i februar. At EU i etterkant valgte å trekke AI Liability Directive kan dermed også ses som en gest til den nye amerikanske administrasjonen for å vise at EU prioriterer konkurranseevnen til teknologiselskaper.

Det foreslåtte direktivet skulle regulere retten til erstatning hvor kunstig intelligens forårsaker skade, både overfor forbrukere og profesjonelle parter, forteller Halbo.

«Blackbox»-effekten

Et særtrekk ved kunstig intelligens er at man ikke vet hvilke faktorer og parametre modellene har vektlagt for å komme frem til resultatet. Dette omtales gjerne som «blackbox»-effekten.

At EU i etterkant valgte å trekke AI Liability Directive kan dermed også ses som en gest til den nye amerikanske administrasjonen for å vise at EU prioriterer konkurranseevnen til teknologiselskaper.

Nicolai Halbo, partner Simonsen Vogt Wiig

- Effekten gjør det særlig utfordrende for skadelidte å bevise at det er forhold ved KI-systemet som har forårsaket skaden. Derfor inneholdt direktivet regler om snudd bevisbyrde, som i praksis innebærer at det er KI-systemene som må bevise at en eventuell skade ikke skyldes feil i deres systemer, forteller Halbo.

Halbo tror bevisbyrdereglene er en av årsakene til at direktivet har fått kritikk.

– Dersom det var mulig å saksøke de store selskapene som utvikler og leverer KI-systemer med en snudd bevisbyrde, ville dette vært en voldsom risiko for selskapene. Man ville rett og slett rettet en kanon mot industrien.

– Ikke et uregulert område

Til tross for at det er varslet at forslaget skal trekkes, fører ikke dette til at KI-industrien står uten ansvar, forteller Halbo.

– I norsk rett vil de alminnelige erstatningsrettslige prinsippene gjelde. Men til forskjell fra i ansvarsdirektivet, er det den som er utsatt for skade eller tap som må bevise at vilkårene for erstatning er oppfylt.

Halbo forteller at det også er kommet oppdatert Product Liability Directive i desember 2024 (produktansvarsdirektiv) som nå omfatter kunstig intelligens. Direktivet regulerer selskapers ansvar for skader forårsaket av feil i deres produkter. 

Blant annet angis det en rekke situasjoner der et produkt antas å være defekt, eller der det antas at det eksisterer en årsakssammenheng mellom en defekt og skade. 

- Dette vil dermed i noen tilfeller fungere som et slags objektivt ansvar for defekte produkter, forklarer Halbo.

I motsetning til KI-ansvarsdirektivet verner produktansvarsdirektivet bare forbrukere, og bevisbyrden er ikke snudd.

Skepsis til mer regulering

Også partner i Wiersholm, Rune Opdahl, mener det er interessant at direktivet skal trekkes.

Ekspert på teknologi og jus, Rune Opdahl, mener det er interessant at EU har varslet at direktivet skal trekkes.

– Det er overraskende at EU velger å stanse lovgivningsprosessen. Det hender at direktivforslag ikke når frem til vedtakelse, for eksempel på grunn av politisk uenighet, men det er mer sjeldent at forslag trekkes.

Han tror årsaken blant annet kan være at det har vært manglende politisk og rettslig enighet i EU-landene om direktivets innhold, og at behovet for direktivet er blitt mindre ved oppdateringen av produktansvarsdirektivet.

Også skepsis fra industrien mot ytterligere regulering, mener Opdahl kan ha vært av betydning:

 – Det har vært et press fra industrien mot ytterligere regulering av KI, og det har vært uttrykt bekymring rundt europeisk konkurransekraft i møte med Kina og USA. Mange mener nok at ytterligere regulering vil begrense utviklingen, snarere enn det motsatte.

Konsekvensene er foreløpig uvisse

Ifølge Nicolai Halbo er det ingen tvil om at kunstig intelligens har potensial til å volde alvorlig skade. 

Som eksempel viser han til saken fra Nederland hvor myndighetene hadde benyttet kunstig intelligens til å finne skattesvindlere. På grunn av en feil i systemet ble mange tusen mennesker uriktig beskyldt for svindel.

- Foreløpig har vi ikke sett hvor stort skadepotensialet til kunstig intelligens er, eller hvilke konsekvenser det har at vi ikke har et KI-ansvarsdirektiv. Men dette vil tiden vise, sier han.

Powered by Labrador CMS