Kan et KI-verktøy virkelig levere til A på jusseksamen, og hva må advokater huske på når teknologien skal brukes i saksforberedelser? Les tipsene til Amund Noss og Kaja Harms!
Amund Noss er spesialisert innen skatte- og avgiftsrett, og er partner i CMS Kluge.Foto: Sten E. Eriksen / Wikborg Rein
En frossen
vinterettermiddag i midten av januar, inviterte Wikborg Rein til den femte
samlingen for kvinnelige prosedyreadvokater, bedre kjent under navnet «Kvinner
i skranken».
Første post
på kveldens program, var gevinster og utfordringer ved advokaters bruk av
kunstig intelligens (KI).
Annonse
– Det er
ikke slik at de unge er best på teknologi. Dette er noe de eldre kan mestre
like bra. Det handler om å ha oversikt, stille de rette spørsmålene og om å gi
klare instrukser – slik man kanskje ville gjort til en fullmektig. Det er min
erfaring, sa partner i CMS Kluge, Amund Noss.
Mange
advokatfirmaer har for lengst skaffet seg en variant av ChatGPT. Noen er godt i
gang med Microsoft Copilot, og enkelte bruke også DeepL for effektive og
presise oversettelser. Dette er bare et lite knippe verktøy i et KI-marked som
nå er i ferd med å bugne. Det programmet Noss ville vie oppmerksomhet, var
språkmodellen Harvey.
– Harvey
hadde jeg blitt ordentlig lei meg for å miste, sa han.
– Det er et
verktøy utviklet for juridisk arbeid, med stor kapasitet og evne til å håndtere
svære dokumentmengder. Man kan både bruke det som en assistent, men også som
utkastskribent.
Timer arbeid på få minutter
Noss
demonstrerte hvordan Harvey kan brukes. På forhånd hadde han fått tak i en
eksamensoppgave i kontraktsrett fra sist høst. Denne hadde han lastet inn i
programmet, i tillegg til to relevante lærebøker. Han ba Harvey lage en
besvarelse som var så grundig og detaljert at en jusstudent på masternivå ville
fått toppkarakter.
Da
besvarelsen var klar, ble programmet bedt om å vurdere besvarelsen opp mot
sensorveiledningen. Vurderingen ble systematisert i en tabell. Harvey fant selv
ingen åpenbare feil og konkluderte med at besvarelsen var verdig en A.
– Denne er
ikke trent på læringsdata eller trent på alle nødvendige rettskilder. Men dette
er likevel en god start, og det tar bare noen minutter – ikke flere timer som
ved en menneskelig besvarelse, kommenterte Noss.
– Harvey kan
eksempelvis brukes til å forberede innledningsforedrag, lage faktiske
beskrivelser og sammenfatninger av utdrag. Fortløpende får man fotnoter som
viser hvor informasjonen er hentet fra. Tenk hvor nyttig og effektivt dette kan
være i domstolene. Ikke fordi vi skal overlate selve avgjørelsen til KI, men
alt som kommer inn i av saksforberedelser kan systematiseres med den.
Det var fullt i salen da Wikborg Rein inviterte til «Kvinner i skranken» på nyåret.Foto: Sten E. Eriksen / Wikborg Rein
Sikkerhet og klientdata
Da Noss
satte punktum for Harvey-presentasjonen, var det Kaja Harms, senioradvokat i
Haavind, sin tur til å tale for en fullstappet 11. etasje hos
Wikborg Rein.
Hennes agenda var å minne om utfordringer og rettslige rammer når
advokater skal ta i bruk KI.
– Når
advokater bruker teknologi, er det fremdeles de viktigste prinsippene som
gjelder. Det er ingenting ved det å bruke KI som fritar oss fra taushets- og
fotrolighetsforpliktelsene. Det skal være konfidensialitet og profesjonalitet,
sa hun.
Nå utvikles
det egne retningslinjer for advokaters bruk av KI. Det eksisterer allerede
innenfor voldgift, opplyste Harms.
– En
utfordring når man bruker AI, er risiko for hacking. Det er ikke noe nytt i seg
selv, men med nye verktøy er det lett å bruke en løsning fra leverandører som
er mindre etablert enn det vi er vant til, noe som igjen kan påvirke
sikkerhetsnivået. Det er viktig at vi aldri legger inn klientdata i en løsning
som er åpen.
– Dataen kan
da viderebrukes av tjenesten når den trenes og forbedres, og den kan bli
resirkulert og komme ut i den andre enden hos andre brukere. De fleste
virksomheter har interne, låste løsninger, men etter hvert kan det bli aktuelt
å drive utvikling av tjenestene på egenhånd. Når man da bruker dokumenter til
trening, er det en risiko likevel at man kommer i konflikt med taushetsplikten
og fortrolighetsplikten, fordi det ikke alltid er meningen at alle advokater i
et firma skal ha tilgang til all klientinformasjon. Klienten må gi samtykke til
at informasjonen kan brukes i opptrening.
Senioradvokat Kaja Harms arbeider med teknologi, media og immaterielle rettigheter i Haavind.Foto: Sten E. Eriksen / Wikborg Rein
Advokater i fremtiden
Fremdeles er
det risiko for krenking av opphavsrett og risiko for diskriminering,
hallusinering og kunnskapshull ved bruk av en KI-løsning. Veien er kort for å
havne i en bekreftelsesfelle hvis spørsmålene man stiller ikke er gode nok, og
ennå er black box-problematikken reell.
«Black box»
er et begrep som brukes for å illustrere at et KI-svar er fundert i komplekse
operasjoner som er vanskelige å forklare og forstå, og det er vanskelig å vite
om svaret er basert på algoritmisk diskriminering.
– I USA har noen
domstoler lagt ned krav om at bruk av KI må opplyses om. Klientene har også
begynt å bruke teknologien. Ligger det feil i det vi får fra klienten, kan vi
fort ende med å arve disse feilene. Det er viktig å stille kontrollspørsmål,
slo Harms fast.
Å se hvilken
effekt teknologien vil kunne få på advokatbransjen her hjemme, blir spennende, fortsatte
hun.
– Kanskje
vil den få en effekt på sakskostnader. Muligens kan den også påvirke
kjønnsbalansen på sikt. Kanskje vil det komme begrensninger i hvilke saker vi
får lov til å bruke KI i, eller kanskje det vil komme tvisteløsningsmekanismer
som ikke involverer mennesker i det hele tatt.