Spring hovednavigationen over

Tema-Kunstig intelligens: EU regler for AI er klar men ikke klare

Publiceret: 4. marts 2024

Tekst: Isabel Fluxá Rosado
Foto: Jeppe Carlsen

LinkedIn ikon Link ikon Prink ikon

Kunstig intelligens (AI) er svært at komme udenom, hvis man vil overleve som advokatfirma. Men man skal kende og implementere reglerne og huske faldgruberne. Jørgen Bek Weiss Hansen er som komitémedlem i CCBE's IT Law-komité helt tæt på udviklingen og den nye AI-forordning/AI Act - den kommende EU-regulering.

Advokat Jørgen Bek Weiss Hansen

Efter lange og seje forhandlinger fandt forhandlingsparterne i EU frem til en aftale om en ny AI-forordning i december, som efter lidt yderligere tovtrækkeri fra særligt Frankrig og Tyskland nu ser ud til være klar til endelig vedtagelse i de respektive EU-organer. Kampen i forhandlingslokalet har handlet om balancen mellem, at brugen af AI i EU på den ene side skal være sikker, respektere de fundamentale menneskerettigheder og demokratiet, samtidig med at virksomheder skal have muligheder for at udvikle og bruge den nye teknologi.

Advokat Jørgen Bek Weiss Hansen har fulgt AI-udviklingen tæt, blandt andet som repræsentant for Advokatrådets internationale udvalg i IT Law-komitéen under CCBE (den europæiske sammenslutning af advokatsamfund). Han er umiddelbart positiv overfor den nye EU-lov, som er mere restriktiv end ønsket, men mindre begrænsende end han og andre frygtede.

”Der ser ud til i lovteksten at være skabt bedre rum for forskning, produktudvikling, AI Sandboxes mv. for at bistå innovation på området. Og der ser ud til at være taget hensyn til SME’s (SMV’er) og startups, blandt andet i bødeniveauer. Det ligner en fornuftig balance. Der er ingen alarmklokker, der ringer i forhold til listen af ”forbudt AI”. For eksempel giver det mening, at politiet kun må bruge biometrisk identifikation i begrænset omfang, og at andre slet ikke må. Ligesom forbuddet mod sociale pointsystemer.” 

Han har imidlertid også nogle bekymringer – også for advokaternes fremtidige brug af AI.

”For advokater vil bekymringen nok særligt være, at AI-forordningen lægger nogle hindringer i vejen for udviklingen, og at vores amerikanske og engelske kolleger får en konkurrencefordel ved, at de meget muligt hurtigere, lettere og billigere får adgang til AI, som hjælper dem med at rådgive og bistå deres klienter, også om danske forhold og EU-forhold og dermed på bekostning af danske og andre EU-baserede advokater.”

Ifølge Jørgen Bek Weiss Hansen afhænger meget dog stadig af den endelige implementering, som fortsat er til diskussion i EU. Den vil finde sted gradvist indenfor de næste cirka to år.

Som udgangspunkt vil reglerne for anvendelsen af AI i EU blive inddelt i fire kategorier: uacceptabel risiko/forbud (unacceptable risk, prohibited), høj risiko (high risk), generel AI (general purpose AI) og begrænset risiko/transparens (limited risk/certain AI).  

Undervejs har der både i EU men også blandt advokaterne internt i CCBE-regi været mange drøftelser og uenigheder om, hvad der skulle forbydes, hvad der skulle kategoriseres som high risk, samt hvilke krav til high risk og andet AI, der skulle gælde. Falder man i høj risiko-kategorien, er der langt flere komplekse regler for anvendelsen af AI. Og hvis man ikke overholder reglerne, kan der falde bøder for enorme summer.

”Når du først falder i AI-high-risk-kategorien, så er det ikke småting, du skal finde dig i. Det kræver et enormt system. Du skal dokumentere, identificere og analysere alt muligt. Der er også krav om transparens og CE-mærkning, ligesom der gælder på området for medicinsk udstyr,” forklarer Jørgen Bek Weiss Hansen.

Domstole er high risk med undtagelser

I AI-forordningens artikel 6 og bilag III er der lagt op til, at AI-systemer, som er beregnet til anvendelse af retslige myndigheder eller på vegne af disse i forbindelse med retssager eller “alternativ tvistbilæggelse” i mange tilfælde vil være “high risk” ifølge den seneste tekst.

Formuleringen efterlader nogle uklarheder, som ifølge Jørgen Bek Weiss Hansen desværre ikke ses at være adresseret endnu, herunder særligt om advokater kan siges at agere ”på vegne af en retslig myndighed”, når de bruger AI til eksempelvis at forfatte processkrifter eller argumenter, generere materialesamlinger, lave støttebilag osv. og dermed vil blive omfattet.

En anden udfordring er, at det inddrager ”alternativ tvistbilæggelse”, hvormed der nok særligt sigtes mod voldgiftssager, men formentligt også mediation. To områder, hvor der normalt er stor aftalefrihed mellem parterne til at planlægge processen og bestemme, hvem der skal dømme henholdvis mediere og på hvilket grundlag.

”Det giver ikke mening for mig, at voldgift og mediation skal være high risk. Man må i princippet aftale de processer, som man vil. Det skal man ikke blande sig i, medmindre der er tale om særlige tilfælde, eksempelvis forbrugerforhold. Så derfor bør man som oplyste parter i udgangspunktet også kunne aftale at bruge AI relativt frit. Og en afgørelse i USA i en voldgiftsret skal i det klare udgangspunkt håndhæves i Danmark. I USA må man godt bruge AI, kan vi så sige, at en amerikansk voldgiftsafgørelse ikke kan håndhæves i Danmark, fordi AI er brugt uden at overholde de mange krav i forordningen? Næppe.”

En formentlig god nyhed er ifølge Jørgen Bek Weiss Hansen imidlertid, at der i de sene forhandlinger i 2023 blev introduceret fire “filtre”, hvorved AI, som falder inden for ”high risk” alligevel kan undtages fra de mange krav, hvis AI’en opfylder kriterierne i et af filtrene. Eksempelvis, hvis den er ment til at udføre en snæver processuel opgave, eller hvis den er ment til at forbedre resultatet af en forudgående overstået menneskelig aktivitet. Hvordan de noget uklare filtre imidlertid rent faktisk skal forstås, vil først blive afklaret senere. EU-Kommissionen skal udarbejde retningslinjer om emnet.

Når du først falder i AI-high-risk-kategorien, så er det ikke småting, du skal finde dig i. Det kræver et enormt system. Du skal dokumentere, identificere, og analysere alt muligt.

Jørgen Bek Weiss Hansen

Advokat og repræsentant i CCBE's IT Law komité

Advokat Jørgen Bek Weiss Hansen

Retsforbehold giver paradoks

Jørgen Bek Weiss Hansen ser et andet paradoks med Danmarks retsforbehold i EU. Afhængigt af Folketinget kan domstolene få et mere løst system for AI, mens dansk voldgift – der som udgangspunkt ikke hører under retsforbeholdet – skal efterleve kravene i EU’s AI-forordning. Derudover er det så vidt vides stadig usikkert, hvordan regeringen og Folketinget vil vælge at adressere EU’s AI-forordning under retsforbeholdet.

”Jeg synes, at vi skal finde en balance, som ikke kategoriserer alt AI, som domstolene, voldgiftsretten mfl. bruger, som ”high risk” med de krav, som følger deraf. Der må være noget proportionalitet. Ellers bliver det igen USA og måske også Kina, som udvikler al den spændende AI på området, og som vi så ender med at importere vores løsninger fra, når vi erkender, at AI-løsningerne ikke reelt er ”high risk”, og at vi har brug for dem. Oveni det vil normerne for AI-løsningerne blive amerikanske normer. Vi risikerer at miste vores traditioner og udslette en del af vores kultur. Og vi sætter os selv bagud i konkurrencen, ligesom det er sket med så mange andre områder inden for digitaliseringen.”

AI-Forordning/AI Act

 

  • Der skal skelnes mellem limited risk, high risk og unacceptable risk samt general purpose AI.
  • Der skal være transparens, når virksomheder benytter AI. Forbrugere og borgere skal vide, hvornår og hvordan de interagerer med AI.
  • Der skal laves en distinktion mellem ”uskyldigt” og ”totalt uacceptabelt indhold”. For eksempel ved billedgenerering og brug af deep fake.
  • Politiet må kun benytte biometriske identifikationssystemer i begrænset omfang. Her er Danmark undtaget pga. retsforbehold.
  • Forbud mod at benytte social scoring/sociale pointsystemer og AI, der bruges til at udnytte brugersårbarheder.
  • Forbrugerne har ret til at indgive klager og modtage meningsfulde forklaringer på brug af AI. 

 

AI er et nyttigt redskab

Jørgen Bek Weiss Hansen er advokat og partner i Lassen Ricard, et mellemstort advokatfirma. Han anser kunstig intelligens som et nyttigt redskab og bruger eksempelvis i stigende grad AI-værktøjet Copilot (tidligere Bing Chat) i sit arbejde.

”Jeg bruger det jævnligt og forsigtigt, for det er et godt hjælpeværktøj, når man kender mulighederne og faldgruberne. Man skal særligt være opmærksom på fortrolighed om klientens oplysninger mv. i det input, som man giver til AI’en og risikoen for løgne (hallucinationer) samt fordomme (bias) i AI-løsningens output. Det sagt, så kan AI hjælpe med at gøre ting meget hurtigt og smartere. For eksempel kan jeg bede den om at give mig et udkast til en klausul i en kontrakt. Jeg taster oplysninger ind og spørger, om den kan give et forslag eller gøre et forslag mere præcist. Jeg kan også bede den om at sammenfatte en dom eller kritisere en dom. Så overvejer jeg hver gang, om det nu også er bedre eller rigtigt, hvad den siger og foreslår. Jeg kan også bede den om at oversætte, når jeg skal læse en lang teknisk artikel, som jeg ikke forstår meget af. Jeg kan få den til at opsummere, kritisere, oversætte, præcisere og generere bværktøjelleder – der er mange muligheder. Det smarte ved særligt Copilot i Edge-browseren er, at den kan finde og analysere stort set alt, der er på nettet. Men man skal være opmærksom på, at den kan hallucinere og opdigte, og derfor skal man tjekke alt.”

Når AI hallucinerer, finder den på eller ser ting, der er misvisende eller direkte fejlagtige. Et andet problem ved AI er, at algoritmerne kan være biased, altså fordomsfulde, som følge af de eksisterende oplysninger, som AI’en er trænet på. Der er derfor høj sandsynlighed for, at svar fra AI for eksempel kan være meget amerikaniserede og følge amerikansk lovgivning og normer i sine svar, idet AI-løsninger som ChatGPT i hovedsagen er skabt i USA og for en stor del trænet på amerikanske data. Bias kan også gøre, at svarene kan være direkte racistiske eller kønsstereotype, fordi algoritmen er fodret med input af den art.

Men der er også AI-værktøjer, som henvender sig direkte til jurister.

I udlandet har de allerede opfundet flere Legal tech-løsninger, der bruger AI, for eksempel Harvey, Kira Systems og Luminance. Programmer, som også finder anvendelse i Danmark.

Også i Danmark er AI-værktøjer til jurister under udvikling. Et eksempel er Pandektes, en nyudviklet dansk ChatGPT-service målrettet danske jurister, der særligt tager højde for læsning af danske lovforarbejder og måden, danske jurister tænker på. Modellen bliver trænet i en læsning af lovteksten og de enkelte lag af forarbejder, herunder de enkelte forarbejders indbyrdes vægtning.

Klienten skal være med

Jørgen Bek Weiss Hansen behøver ikke at spørge om lov på kontoret, før han anvender AI, men det skal alle, der ikke er partnere i advokatfirmaet. Udover godkendelse fra en partner skal der ved brug af AI i sager også være godkendelse fra klienten, ligesom der naturligvis er regler om, at man aldrig fodrer programmet med fortrolige eller personlige oplysninger.

Den kunstige intelligens udvikler sig med lynets hast, og derfor bliver den i udgangspunktet dygtigere og mere pålidelig med tiden. Derfor må ethvert advokatfirma med respekt for sig selv se den i øjnene og tage den til sig, mener han.

”Advokatfirmaer bonner for eksempel mange timer på at finde standard klausuler (eksempelvis ”change of control”-klausuler) i virksomhedshandler. Det kan AI klare, og det kan spare mange fuldmægtigtimer, når vi når dertil, hvor alting ikke skal dobbelttjekkes. Den vil også på et tidspunkt kunne skrive bedre tekst end en jurist – tænk hvad det kan betyde for lovkvaliteten som eksempel. Lovene kan skrives bedre og klarere,” mener Jørgen Bek Weiss Hansen.

Han understreger, at som advokat er det vigtigt altid at inddrage klienten ved brug af AI.

”Man bør først spørge, om det er ok, at AI laver arbejdet og ikke en fuldmægtig. Klienter siger ofte, at de betaler mange penge i advokattimer, og de burde kunne spare en del med AI. Jeg har brugt det meget begrænset i konkrete sager indtil videre. Klienter er typisk ikke trygge ved AI endnu, så der skal tjekkes op alligevel. Men efterhånden som kunderne og advokaterne bliver mere trygge, vil de spare både timer og ansatte i advokatfirmaerne og kunne opdyrke nye forretningsområder. Det betyder, at mindre advokatfirmaer nok bedre kan konkurrere med de store.”

Advokat Jørgen Bek Weiss Hansen

Guide til AI

 

  • AI kan bruges til for eksempel kontrakter, compliance, transaktioner og due diligence-undersøgelser, men også automatiseret juridisk rådgivning. Klient-onboarding og interessekonflikter. Styring af sagsudviklingen og identificering af juridiske udfordringer.
  • AI gør arbejdet hurtigere og smartere. Derfor vil advokater kunne fokusere på andre mindre rutineprægede opgaver.
  • Ved brug af AI skal man have styr på de advokatetiske regler.
  • Vær opmærksom på problemerne med bias og hallucinationerne ved brug af AI. Man skal tjekke, at det output, man får, er rigtig og ikke opdigtet.
  • Man skal lære at bruge AI rigtigt.
  • Man skal lære at prompte (give de rigtige input).
  • AI skal på skoleskemaet. Nye jurister skal kunne bruge det, ellers bliver der ikke brug for dem.
Illustration AI

For mange mennesker var 2023 året, hvor de begyndte at tage AI seriøst.  

Sam Altman

CEO, Open AI til TIME