«En svært tydelig måte å regulere bruk av KI-verktøy på,
kunne vært gjennom et totalforbud mot enhver bruk av KI-verktøy i forbindelse
med formativ og summativ vurdering. Slik arbeidsgruppen vurderer det, er dette
imidlertid ikke en hensiktsmessig vei å gå.».
Slik heter det innledningsvis i den ferske rapporten, utferdiget
av en arbeidsgruppe ved Det juridiske fakultet ved Universitetet i Bergen,
opprettet for å utarbeide retningslinjer for bruk av KI i undervisning og
prøving.
I stedet for et totalforbud mot kunstig intelligens, foreslås det en
rekke tiltak for å legge til rette for faglig forsvarlig bruk av KI-verktøy
gjennom studiene.
- Vi bør gå motsatt vei
- Mange mener at svaret på KI-utfordringen bør være å sikre
integriteten i prøvingen ved å oppstille et forbud mot bruk. Vi mener
imidlertid at vi bør gå motsatt vei, og i størst mulig grad åpne opp for at
studentene kan ta i bruk KI-verktøy i forbindelse med avsluttende vurdering på
de senere studieårene.
Det sier professor ved Det juridiske fakultet, Jan-Ove
Færstad. Han har ledet arbeidsgruppen som har utarbeidet rapporten.
- Vår jobb som utdanningsinstitusjon er å legge til rette
for at de studentene vi utdanner blir i stand til å løse rettsspørsmål på en
virkelighetsnær måte. Dette innebærer at de må bli i stand til å bruke de
verktøyene som er tilgjengelige i arbeidslivet på en hensiktsmessig og faglig
forsvarlig måte, men også at de må ha tilegnet seg kompetanse som disse
verktøyene ikke kan erstatte, sier han.
Undersøkt undersøkelser og undersøkt selv
I forbindelse med utarbeidelse av rapporten har
arbeidsgruppen gjennomført grundige undersøkelser av forskning som relaterer
seg til betydningen av anvendelse av kunstig intelligens på jusstudiet. I
arbeidet med rapporten har arbeidsgruppen dessuten testet ulike KI-verktøy
selv, blant annet Justitia-bot.
- Undersøkelsene viser at det er noen typiske
«jurist-oppgaver» som KI-verktøy kan erstatte på en god måte, samtidig som det
er andre oppgaver som KI-verktøy ikke er spesielt godt egnet til å løse. For
mange jurister handler arbeidshverdagen om å løse komplekse rettslige
problemer, og det er dagens KI-verktøy ganske dårlig på, sier Færstad.
Et hovedfunn i rapporten er at KI-verktøy er dårlig til å
løse ustrukturerte spørsmål, typisk problemstillinger som involverer flere
rettsområder eller komplekse faktiske forhold.
- KI-verktøy er også dårlig til
rettsutvikling. Disse svakhetene ligger på en måte innbakt i at KI-verktøy er
språkmodeller, og slik sett vil dette ikke bøtes på når de blir kraftigere
eller trenes på bredere datasett, sier dekan Karl Harald Søvig.
To parallelle spor
Det fremgår av rapporten at det, etter arbeidsgruppens
oppfatning, er helt avgjørende for kvaliteten på den juridiske kompetansen til studentene
som uteksamineres at fakultetet forholder seg til eksistensen av KI-verktøy
langs to parallelle spor.
På den ene siden må fakultetet legge til rette for at
de studentene som utdannes tilegner seg den kompetansen som de vil trenge i
arbeidslivet. På den annen siden må det treffes nødvendige tiltak for å sikre
integriteten i lærings- og vurderingssituasjonen.
Rapporten følger de nevnte parallelle sporene. Det fremmes
derfor på den ene siden forslag til tiltak som bør gjennomføres på
fakultetsnivå for å adressere muligheter og utfordringer som KI-verktøy gir for
læring og vurdering ved fakultetet.
På den annen side blir det fremmet forslag
til endringer av fakultetets regelverk, retningslinjer og instrukser for å ta
hensyn til bruk av KI-verktøy.
Vil innlemme KI-kunnskap i læringsutbyttebeskrivelsen
Arbeidsgruppen foreslår flere ulike endringer i læringsutbyttebeskrivelsen
for masterstudiet i rettsvitenskap.
Blant annet foreslås det et nytt kulepunkt under
«ferdigheiter»:
«bruke digitale verktøy, medrekna KI-verktøy, på ein
hensiktsmessig og fagleg forsvarleg måte i sitt arbeid med å identifisere, dr.fte og
ta standpunkt til rettslege problemstillingar»
Til «generell kompetanse» foreslås det også betydelige
endringer:
«reflektere kritisk over, og kunne ta stilling til, dei
rettslege og etiske utfordringane knytt til den teknologiske utviklinga, medrekna utviklinga
av digitale verktøy basert på kunstig intelligens».
Forslag til opplæringsprogram
Arbeidsgruppen er også innom og drøfter det pedagogiske
fundamentet – hvordan studentene bør lære om bruk av KI-verktøy, samt de utfordringene
slik bruk medfører.
Det fremmes også forslag til et opplæringsprogram som kan
innføres på kort sikt og mellomlang sikt. Det blir også lagt frem forslag til
opplæring for emneansvarlige og andre undervisere, samt forslag til informasjonsbrev
til sensorene.
Dekan Søvig er positiv til endringsforslagene.
- Juristutdanningen må legges opp slik at studentene har
kunnskap og innsikt over de muligheter og begrensninger som bruk av KI-verktøy
innebærer. Ingen arbeidsgiver vil akseptere at studentene bruker timer på
oppgaver som KI løser på sekunder. En del enkle arbeidsoppgaver vil derfor
kunne settes bort. Samtidig må mennesker også her kvalitetssikre. For mer
kompliserte oppgaver vil KI-verktøy kunne gi hjelp, men med begrensninger, sier
han.
Foreslår noen endringer i regelverket
Arbeidsgruppen presenterer noen forslag til endringer i
dagens regelverk. Det er tale om konkrete forslag til endringer av fakultetets
regelverk, retningslinjer og instrukser.
Endringsforslagene har oppstått i kjølvannet av
arbeidsgruppens arbeid, og det er forslag som det er «sett et behov for». Det er blant annet presentert forslag til regelverk og
retningslinjer for tillatt bruk av KI-verktøy knyttet til masteroppgave,
hjemmeeksamener, kursoppgaver og arbeidsgruppeoppgaver.
Bruk krever redelig sitering
Én av forslagsendringene finner vi i § 4-1, i Utfyllende regler for studier ved Det juridiske fakultet,
Universitetet i Bergen, som i dag lyder:
«Alle arbeider som leveres for godkjenning/sensur, skal være
studentens eget arbeid. Dette gjelder også der vedkommende arbeid(er) ikke inngår i
grunnlaget for karakterfastsettelse.
Kilder som nyttes skal angis i overensstemmelse med universitetets retningslinjer om kildebruk. Overtredelse vil
bli å vurdere som fusk, se § 4-2.»
Arbeidsgruppen foreslår bestemmelsen endret med følgende
tilføyelse avslutningsvis:
«Arbeider som er helt eller delvis skapt ved bruk av verktøy
som benytter seg av generativ kunstig intelligens kan ikke regnes som
studentens eget arbeid. Slike arbeider kan også vurderes som fusk med mindre de
er sitert på redelig måte.».
Forutsetningsvis foreslår arbeidsgruppen altså at det åpnes
for å bruke kunstig intelligens i eksamenssituasjoner. Arbeider som er skapt
med KI-verktøy helt eller delvis kan ikke tas til inntekt for å være
studentenes eget arbeid, men det er ikke ulovlig å få hjelp, så lenge siteringen
er à jour.
Arbeidsgruppen begrunner endringen med at de mener det
må fremgå tydelig av regelverket at arbeider som er helt eller delvis skapt ved
bruk av verktøy som benytter seg av generativ kunstig intelligens ikke kan
regnes som studentens eget arbeid, og at slike arbeider kan vurderes som fusk med
mindre de er sitert på redelig måte:
«Det vil gi fakultetet en tydelig hjemmel
for å gripe inn mot bruk av disse verktøyene ved utarbeidelse av arbeider som
skal leveres for godkjenning eller sensur.».
Hele rapporten kan du lese her.