Spring hovednavigationen over

2020 - Advokaten 3 Data er den nye olie

Publiceret: 4. september 2020

LinkedIn ikon Twitter ikon Link ikon Prink ikon

Kunstig intelligens, machine learning, deep learning. Nye teknologier, der synes at rumme hidtil usete muligheder for håndtering og behandling af data. Men data og anvendelsen heraf kan udfordre retssikkerheden.


Tekst Peter Istrup, ph.d.-stipendiat, Juridisk Institut, Aarhus Universitet

“Data og kunstig intelligens kan bidrage til at finde løsninger på mange af samfundets problemer, fra sundhed til landbrug og fra sikkerhed til produktion.” Sådan falder ordene på Europa-Kommissionens hjemmeside. Sætningen udgør en del af oplægget til Kommissionens hvidbog om kunstig intelligens benævnt En europæisk tilgang til ekspertise og tillid fra 19. februar i år. Kunstig intelligens udgør således en central del af Kommissionens digitale strategi. Kommissionens ønske er “... at tilskynde virksomhederne til at arbejde med og udvikle disse nye teknologier og samtidig sikre, at borgerne kan have tillid til dem.”

Helt forsimplet kan kunstig intelligens (AI) beskrives som den gren af datalogien, der arbejder med at få en computer til egenhændigt og på baggrund af tilgængeligt datamateriale at udføre en opgave, fremkomme med en forudsigelse eller et resultat af en given analyse. En delmængde af AI betegnes ofte som machine learning eller automatisk læring. Ved automatisk læring forsøger man – gennem algoritmer, statistik og databehandling – at få en computer eller et AI-system til at lære af dets erfaringer. Dette således, at AI-systemet over tid træffer mere oplyste beslutninger baseret på AI-systemets selvstændige erfaringer. Herved skulle AI-systemet automatisk og over tid blive bedre til at løse de opgaver, det er programmeret til.

Anvendelsesmulighederne for AI er store. Teknologien fremstår ikke branchespecifik, hvorfor man forventeligt vil se AI-systemer inden for stort set alle livs- og retsområder. Men som med megen anden teknologi er AI formentlig omgærdet med en vis hype i forhold til, hvad der faktisk er muligt, eksempelvis idéen om AI-systemer, der tænker og agerer som mennesker.

I en retlig kontekst kan AI byde på forskellige udfordringer. Eksempelvis kan det være vanskeligt at vurdere på hvilket grundlag, en given forudsigelse eller et resultat er fremkommet. Hvilke faktorer, der er indgået i det opnåede resultat. Hvorledes de enkelte faktorer er vægtet i resultatet, mv.

At anvendelsen af AI-systemer kan medføre udfordringer er velkendt. Det fremgår af Kommissionens strategi, at der er lagt et betydeligt fokus på, at AI-systemer bliver tillidsskabende, og at AI-systemer med høj risiko skal være gennemsigtige, sporbare og under menneskelig kontrol. Forud for den nuværende strategi nedsatte Kommissionen en uafhængig ekspertgruppe benævnt AI HLEG (High-Level Expert Group on Artificial Intelligence). AI HLEG har siden 2018 udført et grundigt analysearbejde, og AI HLEG er fremkommet med rapporten Etiske retningslinjer for pålidelig kunstig intelligens. Disse retningslinjer synes at udgøre en del af grundlaget for Kommissionens digitale strategi.

Fokus for denne artikel er ikke så meget AI-systemer i sig selv, men mere AI-systemets undersøgelsesmateriale i form af data. AI-systemers styrke og formål er netop gennem behandling af ofte store datasæt at finde sammenhænge og systemer, der ikke var kendt på forhånd, og som ikke er menneskeligt mulige. Data generelt og data i en AI-sammenhæng er en videnskab i sig selv. Men i forhold til AI-systemer har validiteten og kvaliteten af data en særlig vigtig rolle.

Kvaliteten af de data, der anvendes i forbindelse med opsætning og træning af et AI-system (træningsdata) såvel som den efterfølgende applikations-data, synes at få mærkbare konsekvenser for AI-systemets anvendelighed og for de resultater, AI-systemet frembringer. I en juridisk kontekst er det således vanskeligt at tale om AI-systemer uden at fokusere på data.

Et er naturligvis de persondataretlige forhold, der følger af anvendelse af data. Det være sig forhold omkring indsamling, opbevaring, anvendelse af forskellige typer data, sikring af samtykke, mv. Forhold, der kan være vanskeligt håndterbare i en retlig og praktisk kontekst, særligt hvis data ene er af historisk karakter, indsamlet til andre formål, har grænseoverskridende karakter eller lignende.

Et andet og i forbindelse med anvendelsen af AI-systemer grundlæggende forhold i en retlig kontekst er validiteten og holdbarheden, om man vil, af de data, der anvendes. Herunder den konvertering og behandling af data, der skal foretages, før dataene er anvendelige i AI-systemet. Et arbejde, der kaldes feature engineering.

Data er ofte indsamlet med specifikt formål
AI-systemer er i princippet ikke bedre end de data, der anvendes, og den feature engineering, der foretages. Men er vi sikre på, at de data, der skal danne grundlag for oplæring og anvendelse af algoritmerne og dermed AI-systemerne, de facto er egnede hertil? Er data ikke nærmest per definition farvet af kontekst? Data synes ofte indsamlet med et specifikt formål på et givent tidspunkt, og derved repræsenterer data også en given tid, et sted, et samfundssyn. Er det muligt helt at tage højde for de forskelle gennem feature engineering? Er der overhovedet opmærksomhed herpå hos den enkelte feature engineer, der forestår arbejdet? Og hvor søger vedkommende hjælp, når data skal korrigeres for unøjagtigheder og eksempelvis bias?

Som med andre af livets øvrige forhold synes der her at være en risiko for, at “nissen flytter med”. Med andre ord, at fejl, unøjagtigheder eller eventuelle (bevidste eller ubevidste) fordomme eller forudfattede meninger eller holdninger (på engelsk bias eller unconsciously bias) i eller bag de indsamlede data vil afspejle sig i de resultater, et AI-system fremkommer med. Ansvaret hos udviklere og i sidste ende hos den enkelte feature engineer for at sikre korrekt håndtering og “rengøring” af data synes betydeligt.

Anvendelse af potentielt “biased” data synes at kunne udfordre AI-systemernes resultater, og dermed – afhængig af område – kan AI- systemernes resultater skabe rets sikkerhedsmæssige problemer. Eksempelvis inden for kriminalitetsforebyggelse. Et område, hvor der er en legitim interesse i og et ønske om at kunne iværksætte forskellige foranstaltninger så tidligt som muligt, og hvor AI-systemer formentlig får en rolle.

Et i dansk sammenhæng måske lidt eksotisk eksempel er predictive policing, der kendes fra flere stater i USA. Her forsøger myndighederne med hjælp fra en form for et AI-system og på baggrund af analyser af data at forudsige, hvor og hvornår forskellige typer af forbrydelser med størst sandsynlighed indtræffer. Grænsen i forhold til at forudsige, hvem der statistisk er den mest sandsynlige lovovertræder, forekommer ligefor. Inden for sundhedsområdet kan AI-systemer formentlig også bistå med at forudsige forskellige sygdomme i forskellige patientgrupper. Umiddelbart et hensyn, der synes at være i alles interesse. Udfordringen er dog igen, om de data, der er indsamlet, er repræsentative, eller om dataene repræsenterer et givent befolkningssegment. Et køn, en alder, en etnicitet eller andre forhold, der bevirker, at pågældende data ikke er repræsentative eller måske “biased” på en måde, der resulterer i, at forkerte personer undersøges eller slet ikke undersøges. Kravene til feature engineering synes igen høje.

Såfremt data skal danne grundlaget for dels træning af, dels anvendelse af AI-systemer, er opfordringen herfra, at “retssikkerhedens kikkert” ikke sættes for det blinde øje, men at der fra gang til gang rettes et målrettet og kritisk blik på anvendt data og feature engineering. I modsat fald er der risiko for, at allerede eksisterende udfordringer med data potentielt forstørres gennem AI-systemer. Ikke på grund af AI-systemet i sig selv, men på grund af data og anvendelsen heraf. Dette med uoverskuelige retssikkerhedsmæssige konsekvenser for borgere, virksomheder og beslutningstagere til følge. Trods Kommissionens ønske om gennemsigtige, sporbare og menneskeligt kontrollerbare AI-løsninger, vil det formentlig i praksis være særdeles vanskeligt for enkeltpersoner at vurdere et AI-systems resultat. Herunder – om nødvendigt – præcist at påpege, hvorfor resultatet ikke forekommer rigtigt.

Data og anvendelsen heraf er således et område, der på overfladen kan virke tilforladeligt, måske endda for nogle advokater kedeligt, men som kan rumme kimen til problemer for retssikkerheden. Et område hvor advokater bør og kan spille en rolle. Advokatens vigtigste samarbejdspartner inden for AI-området kunne blive feature engineers. For teknologien er smart, og den vil blive anvendt. Anvendelsen skal dog gerne finde sted på den måde, som Kommissionen ønsker, nemlig til at finde løsninger og ikke til at skabe problemer.

 

PETER ISTRUP
Ph.d.-stipendiat ved Juridisk Institut på Aarhus Universitet med blockchain og smart  contracts som forskningsområde. Er uddannet advokat og har i en årrække været formand for Danske Virksomhedsjurister.