Regeringens hvidbog “Mod et bedre samfund med tech-giganter” peger på, at tech-giganter skal tage et større ansvar for indhold. Men hvordan sikrer vi en god balance mellem på den ene side, at platformene tager et større ansvar i forhold til nedtagning af ulovligt indhold, men på den anden side at der ikke fjernes så meget indhold, at ytringsfriheden indskrænkes?
Den 18. juni 2021 præsenterede statsministeren regeringens hvidbog “Mod et bedre samfund med tech-giganter” på Folkemødet. Der peges blandt andet på, at tech-giganter skal tage et større ansvar for indhold på deres platforme.
I den kontekst peges på internettets store dilemma: “Hvor vi på den ene side ønsker, at platformene tager et større ansvar i forhold til nedtagning af ulovligt indhold, men på den anden side ønsker vi ikke en indholdsmoderation, hvor platformene tager så meget indhold ned, at ytringsfriheden indskrænkes”.
Algoritmer som indholdspoliti
I dag bestemmer algoritmer i stort omfang, hvilke informationer vi får vist på nettet. Dette gøres på forskellige måder. Anbefalingsalgoritmer afgør eksempelvis, hvad vi skal se som næste video, eller hvilke opslag vi får vist på sociale medier, mens filteralgoritmer kontrollerer, hvad der kan lægges op af brugerne.
I virkeligheden foretager disse algoritmer tusindvis af mere eller mindre komplekse juridiske vurderinger: Krænker et uploaded musikværk nogens ophavsret, eller er der tale om en lovlig parodi? Er den tekst, der bliver postet, hadtale eller ikke? Er det billede, der postes på sociale medier, i strid med tjenestens vilkår?
I praksis er det næppe muligt at kontrollere de enorme mængder af information, der lægges på platformene, uden brug af sådanne algoritmer. Ønsker man indholdskontrol, er brugen af algoritmebaserede afgørelser med andre ord en nødvendighed. Brugen af filteralgoritmer rejser dog en række problemstillinger.
En udstrakt brug af algoritmer kan i praksis betyde, at der indføres en omfattende overvågning og censurering af indhold på internettet.
Fejl i algoritmerne kan endvidere medføre, at krænkende indhold ikke bliver opdaget og fjernet, og at ikke-krænkende indhold omvendt bliver fjernet af algoritmen.
Jo bedre en algoritme er i stand til at foretage en korrekt juridisk vurdering, desto mindre problematisk er dens anvendelse. Men når jurister kan være usikre på, om noget kvalificeres som en ophavsretlig parodi eller som en personlighedskrænkelse, vil algoritmer så nogensinde kunne træffe fejlfri afgørelser?
Det kan endvidere være et demokratisk problem, at det ikke er gennemskueligt, hvilke kriterier algoritmen lægger til grund for sine afgørelser. “Algoritmedilemmaet” er således ikke ubetydeligt: Filtreringsalgoritmer er en forudsætning for platformenes indholdskontrol, men brugen af dem rummer samtidig en række retssikkerhedsmæssige betænkeligheder.
Dette dilemma afspejles også i den eksisterende og forventeligt kommende regulering af platformenes brug af filtreringsalgoritmer.
Filteralgoritmer kan ikke pålægges generelt, men…
Efter e-handelsdirektivets art. 15 er EU’s medlemsstater underlagt et forbud mod generelt at pålægge platforme en pligt til at overvåge den information, brugerne deler herpå.
Forbuddet har været genstand for en række sager ved EU-Domstolen. I to sager fra 2011 og 2012 (C-70/10 og C-360/10) har EU-Domstolen fastslået, at dette forbud indebærer, at platformen ikke kan pålægges en pligt til at foretage generel filtrering af indhold.
EU-Domstolen har dog i en østrigsk sag (C-18/18), der omhandler hadtale på Facebook, fastslået, at det ikke indebærer en “generel” overvågningsforpligtelse, hvis platforme pålægges at fjerne identisk information eller information, der har samme betydning som information, der tidligere er erklæret ulovlig. I praksis betyder det, at Facebook (og andre platforme) kan pålægges at anvende filtreringsalgoritmer for at finde dette indhold.
I sin nyeste afgørelse på området (C-682/18 og C-683/18) har EU-Domstolen fastslået, at platformene potentielt kan blive underlagt et ansvar for brugernes ulovlige delinger af ophavsretligt beskyttet materiale, hvis de “undlader at gennemføre passende tekniske foranstaltninger”, der skal sikre mod de ulovlige delinger. Dette afhænger dog af en række yderligere faktorer, og desuden behøver disse foranstaltninger ikke være filteralgoritmer.
EU-Domstolen har således i sin nyeste praksis fastslået, både at EU-retten ikke forbyder, at der i national ret stilles krav om visse former for indholdsfiltrering, og at EU-ophavsretten muligvis pålægger en vis pligt til at foretage indholdsfiltrering ad bagdøren.
Dette er dog kun et skridt i retning af en udvikling, hvor der på EU-plan vil blive stillet flere krav til platforme om indholdskontrol og regulering heraf.
I sin henstilling om “foranstaltninger til effektiv bekæmpelse af ulovligt indhold på nettet” fra 2018 (henstilling (EU) 2018/334) opfordrede Kommissionen således til, at platforme i visse situationer bør tilskyndes til at træffe proaktive foranstaltninger vedrørende ulovligt indhold, der også kan omfatte brug af algoritmer.
Denne henstilling er blevet fulgt op af en ophavsretlig regulering, der pålægger platforme en eksplicit pligt til at foretage indholdskontrol, og dermed i praksis en pligt til at anvende filteralgoritmer.
Det følger af DSM-direktivets art. 17, at platforme under visse omstændigheder kan blive holdt ansvarlig, når brugerne uploader ophavsretligt krænkende materiale, hvis ikke platformen aktivt har søgt at hindre dette. Bestemmelsen, der netop er implementeret i ophavsretsloven, er genstand for en verserende sag ved EU-Domstolen, hvor Polen har gjort gældende, at den er i strid med borgernes grundlæggende rettigheder, fordi den medfører en generel overvågning af indhold på internettet.
Både EU-Domstolens seneste prak-sis og DSM-direktivet indebærer en øget forpligtelse for platforme til at kontrollere indhold og dermed gøre brug af filteralgoritmer.
En yderligere udvikling i algoritmereguleringen vil foreligge med den kommende Digital Services Act.
Nye EU-regler på vej for algoritmer på nettet
Den 15. december 2020 fremsatte Europa-Kommissionen retsakt om digitale tjenester (Digital Services Act). Forordningsforslaget har blandt andet til formål at opdatere de 21 år gamle regler i e-handelsdirektivet, der i dag danner grundlag for onlineplatformenes ansvarsfritagelse for det indhold, brugerne uploader.
Ifølge disse regler er en onlineplatform ansvarsfritaget, hvis dens aktivitet er passiv, og hvis ulovligt indhold fjernes, når platformen er blevet gjort opmærksom på det. Som udgangspunkt foreslås disse principper, der har vist sig at være centrale for et velfungerende digitalt indre marked, bibeholdt. Det har været omdiskuteret, om platforme, der gennemfører frivillige undersøgelser på eget initiativ, for eksempel ved brug af filtersystemer, ikke længere skal anses for at være passive og dermed miste deres ansvarsfritagelse.
I den kontekst foreslås indført en ny såkaldt “god samaritaner”-klausul, inspireret af amerikansk ret og Biblens lignelse om den barmhjertige samaritan, der skal tydeliggøre, at platforme i disse tilfælde ikke mister deres ansvarsfritagelse. Ifølge lovforslaget er der tale om en præcisering, der sigter mod at skabe retssikkerhed og undgå̊ at hæmme frivillige aktiviteter.
Når der i forvejen bruges filteralgoritmer på frivillig basis, kan der dog spørges, om den nuværende retsstilling reelt medfører den påståede retsusikkerhed for onlineplatforme. Under alle omstændigheder er denne “god samaritaner”-afklaring udtryk for, at EU-lovgiver ønsker, at internetaktører gør mere for at bekæmpe ulovligt indhold på nettet.
Ydermere foreslås der et særligt regime for de meget store onlineplatforme, der har mere end 45 mio. brugere i EU. Disse forpligtes til at gennemføre en vurdering af de systemiske risici, som deres platform medfører, såsom udbredelse af ulovligt indhold eller negativ indvirkning på udøvelsen af de grundlæggende rettigheder til respekt for privatliv og familieliv, ytrings- og informationsfrihed samt forbuddet mod forskelsbehandling.
Disse meget store onlineplatforme er forpligtet til at indføre risikobegrænsende foranstaltninger, der blandt andet kan bestå i tilpasning af indholdsmoderations- eller -anbefalingssystemer, i deres beslutningsprocesser.
Forpligtelser, der skal sikre borgernes rettigheder
Forordningsforslaget indeholder også en række forpligtelser, der skal sikre internetbrugernes (og rettighedshaveres) stilling i forhold til filteralgoritmer.
Der stilles krav til platformenes vilkår og betingelser, som blandt andet skal oplyse om politikker, procedurer, foranstaltninger og værktøjer, der anvendes med henblik på indholdsmoderation, herunder algoritmisk beslutningstagning og menneskelig gennemgang. Disse vilkår skal være affattet i et klart og utvetydigt sprog og være offentligt tilgængelige i et lettilgængeligt format. I denne sammenhæng foreslog den danske MEP Christel Schaldemose, der er rapporteur for forordningsudkastet i Europa-Parlamentet, for nylig, at der skal bruges grafiske elementer for at illustrere centrale aspekter i vilkår.
Ydermere forpligtes platforme til at tage hensyn til alle involverede parters rettigheder og legitime interesser og handle med omhu, når disse vilkår håndhæves.
Forordningsudkastet specificerer også fjernelsesmekanismer og pålægger en oplysningspligt, hvis der bruges algoritmer til afgørelsen. Ligeledes skal platforme give en begrundelse for deres beslutning, herunder om der blev anvendt automatiserede metoder. Forslaget vil også forpligte platforme til at oprette et klagebehandlingssystem. Afgørelser af klagesager må ikke træffes udelukkende på grundlag af automatiserede metoder. Med andre ord skal der være et menneske involveret i hvert fald, når der klages over en beslutning truffet af en algoritme.
Algoritmedilemmaet
EU-Domstolens praksis og de seneste EU-lovgivningsinitiativer illustrerer algoritmedilemmaet. På den ene side illustrerer overvågningsforbuddet i e-handelsdirektivet og EU-Domstolens tidligere afgørelse om forbud mod en generel filtreringspligt betænkelighederne ved at indføre omfattende teknisk overvågning af borgernes aktiviteter på internettet, blandt andet gennem algoritmekontrol. På den anden side er der åbnet for mere omfattende filtrering, både med EU-Domstolens seneste afgørelser og DSM-direktivets art. 17.
Om EU-lovgiver er gået for langt med DSM-direktivets art. 17, får EU-Domstolen som anført lejlighed til at tage stilling til inden længe.
Overvågningsforbuddet er rettet mod medlemsstater. Platforme selv er ikke begrænset af dette, når de indfører automatisk indholdsmoderation. Det er derfor heller ikke uden retssikkerhedsmæssige betænkeligheder, når stater “opfordrer” platforme til at gøre mere i kampen mod ulovligt indhold, uden at der er klare spilleregler. Digital Services Act forsøger at afbøde nogle af de betænkeligheder, som brugen af algoritmebaseret indholdskontrol medfører. Det er dog ikke noget tryllemiddel, og også efter vedtagelsen af Digital Services Act vil der være behov for løbende overvejelser om omfanget af algoritmebrug.
I disse overvejelser vil mange forskellige hensyn skulle inddrages: hensynet til en effektiv kriminalitetsbekæmpelse, beskyttelsen af rettighedshavere og ofre for privatlivskrænkelser, der eksponeres på internettet. Og heroverfor hensynet til informations- og ytringsfrihed samt platformenes ret til at udøve virksomhed.
I tillæg til disse “klassiske” hensyn skal det overvejes, hvilken betydning det har, at kontrollen er overladt til nogle få tech-giganter, og hvad det betyder for vores demokrati.
Efter vores opfattelse taler meget for, at tech-giganternes adgang til (frivilligt eller obligatorisk) at kontrollere internettets indhold gennem filteralgoritmer gøres til genstand for en tættere regulering. Digital Services Act er et vigtigt skridt i denne retning.
Det må forventes, at flere skridt vil blive taget i de kommende år, der drejer sig om internettets store dilemma: Hvor meget skal tech-giganternes private filteralgoritmer rydde op på nettet, og hvordan kan retssikkerhed for alle parter – platforme, internetbrugere og rettighedshavere – sikres?
HENRIK UDSEN
Professor ved Center for informations- og innovationsret (CIIR), Københavns Universitet.
SEBASTIAN FELIX SCHWEMER
Lektor ved Center for informations- og innovationsret (CIIR), Københavns Universitet, og Førsteamanuenis II ved Senter for rettsinformatikk (SERI), Universitetet i Oslo.