Advokat Christian Bendiksen og teknolog Eirik Norman Hansen har gitt ut en bok i fellesskap.
– Man har aldri hatt ting, som ikke er mennesker, som tar beslutninger
Hva er risikomomentene dersom du skal kjøpe et kunstig intelligent-system som skal utvikle seg selv, for eksempel en juridisk chat-bot? Og hvem har ansvaret dersom roboten slår seg vrang, og gir helt gale svar?
Dette er blant problemstillingene som teknolog og foredragsholder Eirik Norman Hansen og Brækhus-partner, advokat Christian Bendiksen, drøfter i den ferske boka «Når juss møter AI».
Når juss møter AI
Forfattere: Christian Bendiksen og Eirik Norman Hansen Forlag: Gyldendal, 2019 Sider: 208 Pris: 429,-
Boken har som mål å forklare hva kunstig intelligens (AI) er, og gi praktiske råd til dem som vil ta det i bruk, samt å skape en bevissthet rundt risikoen som følger med. Boken er også rettet mot jurister som engasjerer seg i hvordan tradisjonelle kontraktsrettslige prinsipper kan brukes på nye, foreløpig ganske uoppdagede, områder.
Annonse
– Hvordan unngå å søkke et tonn med penger ned i et system som ikke greier å lære, fordi dataene dine er for dårlig, er kanskje den mest utfordrende problemstillingen, sier advokat Christian Bendiksen.
En annen stor, juridisk fallgruve er hvordan man skal definere hva som er akseptabel ytelse, mener han.
– Og så må man sørge for at vedlikeholdsavtalen er presis nok til at man faktisk får den ytelsen man har bestilt, sier Bendiksen.
Ingen rettspraksis
En utfordring er at svarene fremdeles er få, både når det kommer til hvordan AI i realiteten skal defineres, og om hvordan AI kan brukes innenfor lovens rammeverk.
– I fjor kom det flere rapporter fra offentlige myndigheter om kunstig intelligens. Ingen av dem klarte å definere hva AI er. Men alle var enige om at det er snakk om en form for mimikk, eller duplisering, av menneskelig atferd. Altså at atferden fremstod menneskelig, eller gjorde ting mennesker kan gjøre, sier advokat Bendiksen.
– Kontraktsretten kan utmerket vel brukes på helt nye områder og nytt faktum. Men vi må gjøre en opprydning i det eksisterende lovverket. Og så er det jo spørsmålet om at vi trenger egne regler for autonom AI. Det må jeg innrømme at jeg synes er vanskelig, sier han.
De to forfatterne mener at vi står overfor en interessant diskusjon om hvordan lover og regler skal utformes fremover.
– Det finnes ingen rettspraksis. Man har aldri hatt ting, som ikke er mennesker, som tar beslutninger, fortsetter Bendiksen.
Eirik Norman Hansen mener det byr på problemer at lover og regler er lite tilpasset den teknologiske virkeligheten vi lever i. Bendiksen er enig.
– Slik som for eksempel bilansvarsloven, som forutsetter at føreren er et menneske. Vi måtte derfor få en egen lov om utprøving av selvkjørende biler. Dette er forferdelig komplisert.
Kriminell AI
Kunstig intelligens byr på utfordringer når ansvar skal fordeles juridisk.
La oss si at du bedriften din vurderer å kjøpe et IT-system basert på kunstig intelligens. Dette er systemer som lærer opp seg selv basert på erfaring og data, såkalt selvlærende nevrale nettverk. Hva bør man da huske å ha med i kontrakten med selger? Hvem er det som har ansvaret for å følge opp at systemet utvikler seg på en hensiktsmessig måte?
Ifølge Bendiksen vil de fleste kjøpere ha en implisitt garanti om at produktet opererer innenfor lovens rammer, men det er ikke gitt at det er mulig å gi noen slik garanti. Selvlærende AI-systemer forstår ikke at en handling er ulovlig, eller uetisk, av seg selv.
– Mitt klassiske eksempel på mulig kriminell AI er prisroboter. Hvis man for eksempel har fire store aktører i et marked, hvor alle har prisroboter, vil disse kunne gi konkurrentene full oversikt over alle prisene til enhver tid. Da kan man – i hvert fall teoretisk – ha skapt et stilltiende prissamarbeid, ved å innføre et lovlig verktøy, sier han.
For alle som må forholde seg til AI-konsekvenser
Boken er delt i fire hovedkapitler: Om kunstig intelligens. Hvordan AI lærer – rettslige utfordringer ved læringsprosessen. Hvilke regler styrer anskaffelse og bruk av AI? Og hvem har ansvaret når AI-en ikke virker etter hensikten.
«Ettersom kunstig intelligens tas i bruk på stadig flere områder, vil flere og flere måtte forholde seg til juridiske konsekvenser av at AI tar beslutninger. Dette er en bok for dem», heter det i bokens forord.