Spring hovednavigationen over

Tema-Kunstig intelligens: Overvej de advokatetiske faldgruber når du bruger AI

Publiceret: 4. marts 2024

Tekst: Rasmus Holm Thomsen
Illustration: Mette Ehlers

LinkedIn ikon Link ikon Prink ikon

Når advokater og advokathuse benytter sig af AI i forbindelse med juridisk arbejde, rejser det en række advokatetiske spørgsmål og dilemmaer, som alle advokater bør overveje grundigt.

Illustration AI

Ingen ved præcist, hvad der advokatetisk er ”inden for skiven”, når advokater i disse år tager AI i brug. For der har ikke været sager ved Advokatnævnet eller ved domstolene, hvor nævnet eller dommere har forholdt sig konkret til de advokatetiske spørgsmål ved brugen af kunstig intelligens.

Dermed er der reelt ikke sat rettesnore for brugen af de nye værktøjer. Advokatrådets formand, Martin Lavesen, der blandt andet også er medforfatter til bogen ”De advokatetiske regler – kommenteret”, mener, den situation kalder på omtanke og overvejelse hos de advokater, der bruger AI, men understreger samtidig, at reglerne ikke spænder ben for at drive advokatvirksomhed ved hjælp af AI.

”De advokatetiske regler skal generelt følge med tiden, og det bagvedliggende hensyn er først og fremmest, at klienterne skal være godt beskyttet. Regelsættet er så at sige teknologi-neutralt, og det forholder sig ikke til, om du bruger blyant, excelark, Legal tech eller ChatGPT. Advokater kan derfor godt tage AI i brug, som kan være smart til mange ting, så længe de har advokatetikken, fortroligheden og beskyttelsen af klienterne og andres rettigheder i baghovedet,” siger han.

I den forbindelse mener han særligt, at advokater skal gøre sig klart, hvad det præcist er for en teknologi, der bruges som værktøj, og hvordan den spiller ind på for eksempel interessekonflikter, klientfortrolighed og databeskyttelse. Dertil kommer, at advokater altid bør kunne redegøre for, hvordan den kunstige intelligens er anvendt i forhold til klienten og rådgivningen.

Klientforhold

Advokaters etiske pligter er i flere sammenhænge afhængige af, om eller hvornår der er etableret et klientforhold. Det gælder for eksempel pligten til at give en skriftlig opdrags- og prisoplysning til en forbrugerklient. I en digital sammenhæng er det efter Advokatrådets opfattelse sådan, at klientforholdet først opstår, når advokaten påtager sig opdraget. Det er særligt væsentligt i forhold til selvbetjeningsløsninger på eksempelvis advokatvirksomheders hjemmesider. Hvis klienten kan benytte produktet på en hjemmeside, må advokaten også være indforstået med, at der opstår et klientforhold i det øjeblik, advokaten modtager betalingen og foretager leverance. Aftaleindgåelsen kan være tilrettelagt på forskellig vis, og advokatfirmaet bør være opmærksom på – og transparent om – hvornår klientforholdet opstår.

Og selv om der anvendes selvbetjeningsløsninger, eller AI på anden vis har været en del af ydelsen til klienten, vil det være advokaten, der er ansvarlig.

”Man kan ikke som advokat fralægge sig det advokatetiske ansvar, fordi AI har været anvendt, eller fordi det er en selvbetjeningsløsning baseret på AI. Hvis man har benyttet en teknologi i rådgivningen til klienten, så er det også dit ansvar som advokat og som advokatvirksomhed, at det er håndteret korrekt, og at rådgivningen er efter bogen,” siger han.

Flere medier har berettet om, at for eksempel ChatGPT har givet forkerte oplysninger i advokaters arbejde med retssager i andre lande. Blandt andet i forbindelse med en retssag i USA, hvor den havde givet en advokat falske domme, som advokaten havde anført i et processkrift indleveret til retten. Det blev advokaten idømt en bøde for.

”Det er jo banalt, men hvis advokater bruger kunstig intelligens til at finde faktuelle oplysninger, må man tjekke fakta, så advokaten er sikker på, at det er korrekte oplysninger. Man hører også, at modellerne kan indeholde ”bias”, eller at de ”hallucinerer”, så det er dit ansvar som advokat at have styr på, at fakta rent faktisk er fakta, når kunstig intelligens indgår i advokatarbejdet,” slår Martin Lavesen fast. 

Fortrolighed og interessekonflikter

Et andet område, hvor advokater skal være opmærksomme, er hensynet til klientfortroligheden. Ifølge de advokatetiske regler skal advokater generelt udvise fortrolighed, når de repræsenterer klienter. I mange generative AI-modeller vil svarene basere sig på, hvordan man spørger/prompter, og hvilke oplysninger man giver modellen at arbejde med.

Derfor bør advokaten, også når man leverer træningsdata til brug for en AI-løsning, være opmærksom på kun at anvende effektivt anonymiserede data. Dermed undgår advokatfirmaet at risikere at bryde klientfortroligheden, og at anvendelsen ender med at give interessekonfliktproblemer, eller at advokaten kommer i konflikt med GDPR-reglerne.

”Betydningen af fortrolighedshensynet vil naturligt følge omfanget af de oplysninger, en advokat får i forbindelse med sagen. Men de oplysninger skal advokaten generelt holde for sig selv. Det vil efter Advokatrådets opfattelse være i strid med god advokatskik, hvis en digital løsning benytter konkrete fortrolige oplysninger fra én sag til løsningen af en sag for en anden klient. Derudover synes jeg også, at advokaten bør overveje at inddrage og underrette klienten om, at der er brugt AI – afhængigt af hvor meget det har fyldt, og hvad værktøjet i den konkrete sag hjælper med,” siger Martin Lavesen.

Pligt til at bruge AI?

Magasinet Advokaten har talt med flere advokater, der har spurgt, om man kan forestille sig, at advokater ligefrem får pligt til at benytte AI, fordi det gør løsningen af opgaven mere præcis og effektiv. Ifølge de advokatetiske regler må en advokat ikke kræve højere honorar for sit arbejde, end hvad der kan anses som rimeligt, og i den sammenhæng bør der tages hensyn til omfanget af arbejdet og ansvaret.

Og selv om Martin Lavesen medgiver, at AI kan være en stor hjælp, har han svært ved at forestille sig, at der på den korte bane ligefrem opstår en pligt til at benytte AI.

”Det er interessant at tænke i de baner, og der kan godt opstå en helt konkret situation, hvor nævnet eller en domstol vil komme frem til, at en advokat skal have et mindre salær, fordi arbejdet kunne være klaret hurtigere med AI. Men det vil være en meget konkret vurdering, og jeg tror ikke, det er den problemstilling, vi støder på først omkring brugen af AI i advokatarbejdet,” siger han. 

Formand for Advokatrådet Martin Lavesen

Man kan ikke som advokat fralægge sig det advokatetiske ansvar, fordi AI har været anvendt, eller fordi det er en selvbetjeningsløsning baseret på AI.

Martin Lavesen

Formand for Advokatrådet