- Svakere vern mot skade forårsaket av kunstig intelligens
Europakommisjonens beslutning om å trekke det foreslåtte ansvarsdirektivet for kunstig intelligens, vekker reaksjoner. - Overraskende, mener Nicolai Halbo i Simonsen Vogt Wiig og Rune Opdahl i Wiersholm.
Feigt og synd sier Nicolai Halbo om Europakommisjonens varslede skroting av KI-ansvarsdirektivetFoto: Nina Schmidt
- Det er feigt og synd at Europa blir tvunget til å gå vekk
fra prinsippene om vern i møte med kunstig intelligens.
Det mener teknologiekspert og partner i Simonsen Vogt Wiig,
Nicolai Halbo.
Annonse
- Det er overraskende at direktivet ble
trukket. Samtidig må man ha for øye at direktivet ville skapt en
utfordrende situasjon for KI-selskapene, som ville hatt langt større
utfordringer med å forsvare seg i et
erstatningssøksmål, sier han.
«No foreseeable agreement - the Commission will assess whether another proposal should be tabled or another type of approach should be chosen.»
Tidligere i februar varslet EU at forslaget om et
ansvarsdirektiv for kunstig intelligens («AI Liability Act») vil trekkes.
Ifølge et tillegg til arbeidsprogrammet fra Europakommisjonen for 2025 trekkes direktiver som
følge manglende enighet.
– Det er også en kjensgjerning at USAs visepresident J.D. Vance kom med sterk kritikk av EU for sin regulering av teknologi da han deltok
på AI Action Summit i Paris i februar. At EU i etterkant valgte å trekke AI
Liability Directive kan dermed også ses som en gest til den nye amerikanske
administrasjonen for å vise at EU prioriterer konkurranseevnen til
teknologiselskaper.
Det foreslåtte direktivet skulle regulere retten til
erstatning hvor kunstig intelligens forårsaker skade, både overfor forbrukere
og profesjonelle parter, forteller Halbo.
«Blackbox»-effekten
Et særtrekk ved kunstig intelligens er at man ikke vet
hvilke faktorer og parametre modellene har vektlagt for å komme frem til
resultatet. Dette omtales gjerne som «blackbox»-effekten.
At EU i etterkant valgte å trekke AI Liability Directive kan dermed også ses som en gest til den nye amerikanske administrasjonen for å vise at EU prioriterer konkurranseevnen til teknologiselskaper.
Nicolai Halbo, partner Simonsen Vogt Wiig
- Effekten gjør det særlig utfordrende for skadelidte å
bevise at det er forhold ved KI-systemet som har forårsaket skaden. Derfor
inneholdt direktivet regler om snudd bevisbyrde, som i praksis innebærer
at det er KI-systemene som må bevise at en eventuell skade ikke skyldes feil i
deres systemer, forteller Halbo.
Halbo tror bevisbyrdereglene er en av årsakene til at
direktivet har fått kritikk.
– Dersom det var mulig å saksøke de store selskapene som
utvikler og leverer KI-systemer med en snudd bevisbyrde, ville dette vært en
voldsom risiko for selskapene. Man ville rett og slett rettet en kanon mot
industrien.
– Ikke et uregulert område
Til tross for at det er varslet at forslaget skal trekkes,
fører ikke dette til at KI-industrien står uten ansvar, forteller Halbo.
– I norsk rett vil de alminnelige erstatningsrettslige
prinsippene gjelde. Men til forskjell fra i ansvarsdirektivet, er det den som
er utsatt for skade eller tap som må bevise at vilkårene for erstatning er
oppfylt.
Halbo forteller at det også er kommet oppdatert Product
Liability Directive i desember 2024 (produktansvarsdirektiv) som nå omfatter
kunstig intelligens. Direktivet regulerer selskapers ansvar for skader forårsaket av feil i deres produkter.
Blant annet angis det en rekke situasjoner der et produkt antas å være defekt,
eller der det antas at det eksisterer en årsakssammenheng mellom en defekt og
skade.
- Dette vil dermed i noen tilfeller fungere som et slags objektivt ansvar for defekte produkter, forklarer Halbo.
I motsetning til KI-ansvarsdirektivet verner produktansvarsdirektivet bare
forbrukere, og bevisbyrden er ikke snudd.
Skepsis til mer regulering
Også partner i Wiersholm, Rune Opdahl, mener det er
interessant at direktivet skal trekkes.
Ekspert på teknologi og jus, Rune Opdahl, mener det er interessant at EU har varslet at direktivet skal trekkes.Foto: Nina Schmidt
– Det er overraskende at EU velger å stanse
lovgivningsprosessen. Det hender at direktivforslag ikke når frem til
vedtakelse, for eksempel på grunn av politisk uenighet, men det er mer sjeldent
at forslag trekkes.
Han tror årsaken blant annet kan være at det har vært
manglende politisk og rettslig enighet i EU-landene om direktivets innhold, og
at behovet for direktivet er blitt mindre ved oppdateringen av
produktansvarsdirektivet.
Også skepsis fra industrien mot ytterligere regulering,
mener Opdahl kan ha vært av betydning:
– Det har vært et press fra industrien mot ytterligere
regulering av KI, og det har vært uttrykt bekymring rundt europeisk
konkurransekraft i møte med Kina og USA. Mange mener nok at ytterligere
regulering vil begrense utviklingen, snarere enn det motsatte.
Konsekvensene er foreløpig uvisse
Ifølge Nicolai Halbo er det ingen tvil om at kunstig intelligens har
potensial til å volde alvorlig skade.
- Foreløpig har vi ikke sett hvor stort
skadepotensialet til kunstig intelligens er, eller hvilke konsekvenser det har
at vi ikke har et KI-ansvarsdirektiv. Men dette vil tiden vise, sier han.