Kunstig intelligens

- Kunstig intelligens kan være diskriminerende

– Jeg mener advokater bør omfavne kunstig intelligens, men samtidig være bevisste på hvilke fallgruver som finnes. Dersom man ikke tar gjennomtenkte valg, risikerer man å bryte reglene for god advokatskikk, advarer advokat Vebjørn Søndersrød.

Vebjørn Søndersrød
Publisert Sist oppdatert

Bruk av kunstig intelligens har for alvor begynt å prege advokatbransjen. Partner i Føyen og tech-ekspert Vebjørn Søndersrød peker på at man må være bevisst hvilke etiske problemstillinger KI medfører for å sikre at teknologien brukes på en forsvarlig måte.

Det viktigste å ha i mente når man tar i bruk kunstig intelligens er at man som advokat fortsatt må overholde kravet til forsvarlig behandling etter RGA artikkel 3.1.2, mener Søndersrød.

– KI kan være et nyttig verktøy, men aldri en erstatning for advokatens egen vurdering. Dersom det gjøres en kritisk kontroll av et menneske med faglig kompetanse før KI-generert innhold brukes, vil man normalt være innenfor RGA.

Kompliserende for taushetsplikten

Taushetsplikten ligger som en ryggmargsrefleks hos advokater.

For å forhindre at konfidensiell informasjon kommer på avveie når man bruker KI, er det avgjørende å forstå systemene, påpeker Søndersrød.

RGA artikkel 3.1.2

«En advokat skal gi råd til klienten og ivareta hans interesser raskt, samvittighetsfullt og påpasselig. Advokaten er personlig ansvarlig for å utføre de oppgaver han påtar seg. Han skal holde klienten underrettet om sakens gang.»

– Man må både være sikker på at leverandøren garanterer at andre ikke kan få tilgang til dataene som legges inn i systemet, og at dataene ikke vil benyttes til å trene leverandørens modeller.

Hans inntrykk er at de fleste KI-verktøy som er gratis, ikke gir slike garantier.

– For å unngå å bryte taushetsplikten må det derfor foretas en gjennomgang og vurdering av vilkårene knyttet til tjenesten før den tas i bruk.

Fare for ubevisst diskriminering

Verktøy for kunstig intelligens er kjent for å kunne være «biased». Dette kan skape utfordringer for advokater, som etter RGA artikkel 1.4 ikke skal gi råd som kan være i strid med menneskerettighetene.

– Det er viktig å være klar over at KI-modeller kan gi resultater som kan være diskriminerende, advarer Søndersrød.

Som et tenkt eksempel viser han til en situasjon hvor man legger inn statistikk fra NAV i en KI-modell og deretter ber den vurdere prosessrisikoen i en sak om avslag på ytelser hvor klienten har minoritetsbakgrunn. I et slikt tilfelle kan det være fare for at svaret som genereres er påvirket av klientens bakgrunn.

– Statistikk og data på overordnet nivå viser ofte at noen grupper er dårligere stilt enn andre. Dette vil kunne prege svarene man får i konkrete saker. Som advokat er det viktig å være bevisst på denne problemstillingen, slik at man ikke bidrar til forskjellsbehandling eller diskriminering.

Salærberegning– én time er én time

Kunstig intelligens utfordrer også hvordan man skal ta betalt for sitt arbeid.

Utgangspunktet er i alle fall enkelt; du kan ikke oppgi å ha brukt flere timer enn det som faktisk er tilfelle.

På TechTorget i januar holdt Søndersrød kurs om advokatetiske utfordringer ved bruk av kunstig intelligens.

Ifølge RGA artikkel 3.3.1 skal salæret stå i «rimelig forhold» til oppdraget og arbeidet som er utført. Advokaten har derfor mulighet til å gjøre et skjønnsmessig påslag utover timesatsen. Dette må likevel presiseres overfor klienten, sier Søndersrød.

Store klimaavtrykk

Et perspektiv som foreløpig har vært lite diskutert, er hvilke kostnader kunstig intelligens har for klima og bærekraft, sier Søndersrød, og understreker at dette er tema som ikke bare gjelder advokatbransjen.

– Når vi vet at KI-verktøy trekker store mengder strøm, er det klart at dette er en utfordring for miljøet. Bevissthet rundt energibruken er derfor et tema jeg håper det blir større fokus på fremover.

Powered by Labrador CMS