Advokaten 5 Etiske og retlige rammer for kunstig intelligens

Print Print
27-06-2018

Potentialet for kunstig intelligens er enormt, men teknologien rejser også nye udfordringer af både etisk og retlig karakter. EU har i april erklæret, at unionen nu for alvor kaster sig ind i teknologikapløbet med milliardinvesteringer i udvikling af kunstig intelligens og vil samtidig indføre ny regulering på området i form af etiske retningslinjer i 2018 og en vejledning om produktansvar i 2019.

 

Af advokat Jakob Kamby (L) og advokatfuldmægtig Stanley Stener Nielsen, Kammeradvokaten

EU-Kommissionen erklærede i april, at unionen anser kunstig intelligens (AI) for at være en teknologisk landvinding, der vil forandre den verden, vi lever i, på samme måde, som opfindelsen af dampmaskinen og elektricitet tidligere har gjort det. EU har derfor fastsat en ambition om at stå i allerforreste linje, når det gælder udvikling af den næste generation af teknologi og applikationer på området for kunstig intelligens.

Det skal blandt andet ske gennem udviklingen af et digitalt indre marked i EU, milliardinvesteringer i offentlige og private forskningsprojekter samt udarbejdelsen af en fælles europæisk tilgang til kunstig intelligens.

Potentialet er stort – også i advokatbranchen

EU og de europæiske lederes anerkendelse af kunstig intelligens som en transformativ teknologi med enormt potentiale er et tegn på, at teknologien i større og større omfang vil blive en del af vores hverdag på godt og ondt. Efterhånden som kunstig intelligens vinder frem, vil det naturligt kræve en løbende omstilling af uddannelses- og arbejdsmarkedet, der skal tilpasses de mange nye job, som vil blive skabt som følge af kunstig intelligens, og de jobs som vil ændre karakter eller helt forsvinde som følge af anvendelsen af kunstig intelligens. I advokatbranchen er kunstig intelligens og machine learning på vej fra forskning til realitet, og der er efterhånden ingen tvivl om, at den nye teknologi vil få stor og reel betydning for branchens fremtid ved optimering, effektivisering og endda overtagelse af juridiske opgaver. 

Potentialet for kunstig intelligens i advokatbranchen blev tydeligt illustreret i et amerikansk studie fra februar, hvor 20 erfarne advokater dystede mod et AI-system i en opgave om at gennemlæse fem fortrolighedsaftaler og finde 30 juridiske problemer i kontrakterne. De 20 advokater scorede 85 procent i præcision, hvorimod AI-systemet scorede 94 procent. Selv om sådanne undersøgelser kan være behæftet med en vis bias, var noget af det mest bemærkelsesværdige dog tidsforbruget. Hvor advokaterne i gennemsnit løste opgaven på 92 minutter, brugte AI-systemet kun 26 sekunder på at løse opgaven.

I et stigende konkurrencepræget marked er det oplagt for de fleste advokathuse at tænke i nye baner til sagsløsning og bedre kundeoplevelse. Her er løsninger baseret på kunstig intelligens et vigtigt redskab til at højne effektiviteten, øge konkurrenceevnen, maksimere værdiskabelsen og forbedre de interne processer.

I den juridiske branche kan legaltech i høj grad bidrage med løsning i discipliner, som forudsætter mønstergenkendelse. Her har kunstig intelligens en fordel i både hurtighed og kapacitet. Et praktisk eksempel er fremfindelse af relevant domspraksis eller juridisk litteratur til brug for en retssag, hvor evnen til at se sammenhænge i et enormt antal retskilder kan anvendes. Sådanne sammenhænge kan meget hurtigt udsøges ved hjælp af kunstig intelligens, som typisk også vil søge meget bredere og dybere, end de fleste jurister vil vælge at bruge ressourcer på ved en manuel gennemgang af domme og litteratur, herunder ved manuel søgning i mere klassiske domsdatabaser.

Hos Kammeradvokaten har vi – i samarbejde med iCourts på Københavns Universitet – forsøgt os med at anvende kunstig intelligens i retssager til at analysere sammenhænge i Den Europæiske Menneskerettighedsdomstols praksis og vægte de enkelte menneskeretsdommes præjudikatværdi. Vores erfaringer viser, at dataanalyser og algoritmer kan afsløre nye og anderledes sammenhænge. Det har været et nyttigt redskab ved forberedelsen af retssager, men det må dog nok erkendes, at der er nogen vej til, at analyserne finder direkte vej til domstolenes præmisser.

Et andet praktisk eksempel, som i dag blandt andet anvendes i flere større advokatfirmaer i England, er anvendelsen af predictive analytics i M&A-sager til at give en hurtig screening af datarummet til potentielle købere.

Udfordringer ved kunstig intelligens

Anvendelsen af en ny transformativ teknologi som kunstig intelligens vil dog naturligt indebære en række retlige og etiske udfordringer, som den enkelte producent og bruger bør forholde sig til i forbindelse med programmering og anvendelse af kunstig intelligens.

Teslas grundlægger Elon Musk har for alvor skabt opmærksomhed om de udfordringer, som kunstig intelligens kan medføre, og har kaldt kunstig intelligens for den største trussel, vi som civilisation står overfor. Selv om dette kan forekomme ekstremt, er pointen om, at vi som mennesker risikerer at miste kontrollen med teknologien, når vi giver den mulighed for at reflektere og træffe selvstændige beslutninger, bestemt rimelig. Musk er nok efterhånden berømt eller berygtet for sit sortsyn på AI-teknologien, men har måske en pointe i, at der kan være udfordringer ved at udvikle en teknologi, der i visse tilfælde kan handle selvstændigt og lære ud fra en egen logik, men som endnu ikke systematisk lærer at være bundet af etiske, moralske og juridiske regler.

På et mere jordnært plan kan udfordringen være, at de løsninger, som i dag kaldes ”kunstig intelligens”, er meget afhængige af de data, som de er trænet efter, og de sammenhænge, som trænes frem. De kan derfor skjult lægge vægt på forhold, som ikke står klart for brugerne af løsningerne, eller anvende metoder, der er ulovlige eller misvisende, eksempelvis ved at træffe valg med (ulovlig) bias (for eksempel race, etnicitet, religion mv.). Det forhold, at der er en statistisk sammenhæng i data, betyder således ikke, at det er lovligt at anvende denne sammenhæng til at diktere fremtidige resultater. Dette minder om den klassiske modsætning mellem sein og sollen.

En anden udfordring er, at løsningerne trænes til at forudsige ud fra sammenhænge i data, men uden at der nødvendigvis er en forklarende kausalitet. Det betyder, at det kan være ganske vanskeligt at forklare de enkelte resultater, som en model kommer med, da de anvendte sammenhænge i data ikke fremstår logiske. For en AI-model, som for eksempel skal forudsige forhold omkring forsikring af biler, kan det være af stor betydning, om en bil er fra før eller efter 2003, men modellen kan ikke nødvendigvis give en logisk forklaring på, hvorfor dette årstal er af særlig betydning ud fra for eksempel begivenheder, lovændringer på området mv.

I sammenhæng med det menneskelige behov for logiske forklaringer på resultater vil der kunne opstå et kompliceret samspil af efterrationaliseringer. De fleste kender undersøgelsen fra 2009 af israelske dommeres udmåling af straffedomme hen over dagen, hvor resultatet blandt andet var, at de hårdeste domme afsiges før frokost. Forklaringen er imidlertid ikke nødvendigvis den mest oplagte (sult), men kan være et resultat af for eksempel berammelsesmetode, retsplejeregler, de udvalgte sager mv. Man skal med andre ord være forsigtig med at forklare de fundne sammenhænge ud fra ens egen logik. Tilsvarende kan der være en bias ved, at læringen af modellerne altid baseres på historiske data. Modellerne kan derfor have vanskeligt ved at forudsige skift i paradigme og fortolkning samt en anden vægtning af hensyn eller kriterier ved den abnorme sag. Det er derfor vigtigt, at modellerne kan identificere behovet for den manuelle ressource.

Disse problemstillinger er vanskelige at løse enkeltvis, og flere har peget på behovet for fælles standarder for udviklingen af de bagvedliggende algoritmer. Det gælder også særligt i forhold til de åbenbart grænseoverskridende udfordringer, der ligger i opbygningen af løsningerne. Endelig er udfordringerne tæt knyttet til EUs databeskyttelsesregler, som blandt andet indeholder regler om profilering og automatiseret beslutningstagen på baggrund af personoplysninger.

Etiske retningslinjer for kunstig intelligens

EU-Kommissionen har da også nu indset behovet for en øget regulering af kunstig intelligens og har derfor igangsat et arbejde med at udvikle etiske retningslinjer for udviklingen og anvendelsen af kunstig intelligens. EU-Kommissionen forventer at fremlægge de nye retningslinjer i indeværende år.

De etiske retningslinjer vil blive baseret på EU’s charter om grundlæggende rettigheder og principperne for databeskyttelse og gennemsigtighed. EU-Kommissionen har oplyst, at retningslinjerne vil bygge videre på arbejdet i Den Europæiske Gruppe vedrørende Etik inden for Naturvidenskab og Ny Teknologi, som i marts udsendte et statement om kunstig intelligens.

EU-Kommissionen vil sikre, at alle relevante interessenter inddrages i udviklingen af disse retningslinjer ved at samle interessenter i en europæisk alliance vedrørende kunstig intelligens kaldet "European AI Alliance".

Reglerne om produktansvar skal moderniseres

Da et produkt med kunstig intelligens primært er begrænset i sin handleevne af sin programmering, vil det i juridisk henseende være naturligt at regulere ansvaret for produktets ageren over for forbrugerne som et produktansvar – og det er EU også på vej til.

Produktsikkerhed og erstatningsansvar er ifølge EU helt centralt, hvis vi som samfund skal drage fordel af kunstig intelligens. Det er dog en kompleks vurdering, da produkter med kunstig intelligens får en større og større grad af autonomi og i videre omfang kan ændres uden for producentens kontrol.

EU-Kommissionen har kastet sig over arbejdet med at udarbejde en ny vejledning om fortolkning af direktivet om produktansvar, som stammer helt tilbage fra 1985 og derfor naturligt trænger til en opdatering, hvis det skal have samme relevans i dag. De problemer, vi står overfor i dag i en meget teknologibaseret verden, afviger på en lang række punkter fra dem, vi havde i den mere analoge verden i 1985.

I juridisk sammenhæng indebærer det blandt andet, at nogle af de begreber, som var klare i 1985, er mindre klare i dag. EU-Kommissionen har derfor oplyst, at hvis det er nødvendigt, vil der ske en ajourføring af visse aspekter af produktansvarsdirektivet, for eksempel begreberne "skade", "defekt", "produkt" og "producent".

Det overordnede princip er imidlertid, at en producent i sidste ende er og skal være ansvarlig for det produkt, vedkommende bringer i omsætning. EU-Kommissionen har således udtalt, at producentens objektive ansvar forbliver intakt. EU-Kommissionen regner med at fremlægge vejledningen i løbet af 2019.

 

Jakob Kamby

Advokat (L), partner i Kammeradvokatens team for offentlig ret og persondata. Han har betydelig erfaring med digitaliseringsprojekter og digitaliseringsklar lovgivning og har deltaget som rådgiver for offentlige myndigheder og virksomheder i forbindelse med håndteringen af digitale projekter og løsninger. 

 

Stanley Stener Nielsen

Advokatfuldmægtig i Kammeradvokatens team for offentlig ret og persondata. Han rådgiver om offentligretlige problemstillinger i bred forstand og arbejder tæt sammen med klienter og systemudviklere i udviklingen af den næste generation af it-løsninger.