– Jeg mener advokater bør omfavne kunstig intelligens, men samtidig være bevisste på hvilke fallgruver som finnes. Dersom man ikke tar gjennomtenkte valg, risikerer man å bryte reglene for god advokatskikk, advarer advokat Vebjørn Søndersrød.
Vebjørn SøndersrødFoto: Maria Øyvindsdatter Robertsen
Bruk av kunstig intelligens har for alvor begynt å prege
advokatbransjen. Partner i Føyen og tech-ekspert Vebjørn Søndersrød peker på at man må være bevisst hvilke etiske
problemstillinger KI medfører for å sikre at teknologien brukes på en
forsvarlig måte.
Det viktigste å ha i mente når man tar i bruk kunstig
intelligens er at man som advokat fortsatt må overholde kravet til forsvarlig
behandling etter RGA artikkel 3.1.2, mener Søndersrød.
Annonse
– KI kan være et nyttig verktøy, men aldri en erstatning for
advokatens egen vurdering. Dersom det gjøres en kritisk kontroll av et menneske
med faglig kompetanse før KI-generert innhold brukes, vil man normalt være
innenfor RGA.
Kompliserende for taushetsplikten
Taushetsplikten ligger som en ryggmargsrefleks hos advokater.
For å forhindre at konfidensiell informasjon kommer på
avveie når man bruker KI, er det avgjørende å forstå systemene, påpeker
Søndersrød.
RGA artikkel 3.1.2
«En advokat skal gi råd til klienten og ivareta hans
interesser raskt, samvittighetsfullt og påpasselig. Advokaten er personlig
ansvarlig for å utføre de oppgaver han påtar seg. Han skal holde klienten
underrettet om sakens gang.»
– Man må både være sikker på at leverandøren garanterer at
andre ikke kan få tilgang til dataene som legges inn i systemet, og at dataene ikke
vil benyttes til å trene leverandørens modeller.
Hans inntrykk er at de fleste KI-verktøy som er gratis, ikke
gir slike garantier.
– For å unngå å bryte taushetsplikten må det derfor foretas
en gjennomgang og vurdering av vilkårene knyttet til tjenesten før den tas i
bruk.
Fare for ubevisst diskriminering
Verktøy for kunstig intelligens er kjent for å kunne være
«biased». Dette kan skape utfordringer for advokater, som etter RGA artikkel
1.4 ikke skal gi råd som kan være i strid med menneskerettighetene.
– Det er viktig å være klar over at KI-modeller kan gi
resultater som kan være diskriminerende, advarer Søndersrød.
Som et tenkt eksempel viser han til en situasjon hvor man
legger inn statistikk fra NAV i en KI-modell og deretter ber den vurdere
prosessrisikoen i en sak om avslag på ytelser hvor klienten har
minoritetsbakgrunn. I et slikt tilfelle kan det være fare for at svaret som
genereres er påvirket av klientens bakgrunn.
– Statistikk og data på overordnet nivå viser ofte at noen
grupper er dårligere stilt enn andre. Dette vil kunne prege svarene man får i
konkrete saker. Som advokat er det viktig å være bevisst på denne
problemstillingen, slik at man ikke bidrar til forskjellsbehandling eller
diskriminering.
Salærberegning– én time er én time
Kunstig intelligens utfordrer også hvordan man skal ta
betalt for sitt arbeid.
Utgangspunktet er i alle fall enkelt; du kan ikke oppgi å ha
brukt flere timer enn det som faktisk er tilfelle.
På TechTorget i januar holdt Søndersrød kurs om advokatetiske utfordringer ved bruk av kunstig intelligens.Foto: Maria Øyvindsdatter Robertsen
Ifølge RGA artikkel 3.3.1 skal salæret stå i «rimelig
forhold» til oppdraget og arbeidet som er utført. Advokaten har derfor mulighet
til å gjøre et skjønnsmessig påslag utover timesatsen. Dette må likevel
presiseres overfor klienten, sier Søndersrød.
Store klimaavtrykk
Et perspektiv som foreløpig har vært lite diskutert, er
hvilke kostnader kunstig intelligens har for klima og bærekraft, sier Søndersrød,
og understreker at dette er tema som ikke bare gjelder advokatbransjen.
– Når vi vet at KI-verktøy trekker store mengder strøm, er
det klart at dette er en utfordring for miljøet. Bevissthet rundt energibruken
er derfor et tema jeg håper det blir større fokus på fremover.