Det republikanske flertal i det amerikanske Repræsentanternes Hus' retsudvalg har netop offentliggjort en omfangsrig “midlertidig medarbejderrapport” (3. februar), der præsenterer dokumentation for vidtrækkende digital censur udført af onlineplatforme under tilsyn af Europa-Kommissionen. Rapporten med titlen "Truslen fra udenlandsk censur, del II: Europas årtilange kampagne for at censurere det globale internet...", er tankevækkende læsning, der bekræfter de værste frygt hos kritikere af Digital Services Act (DSA). Det er værd at understrege, at den censurordning, som DSA muliggør, ikke kun bør bekymre europæere, men også ikke-europæere, da deres praktiske effekt, givet de tekniske udfordringer og økonomiske omkostninger ved at indføre regionsspecifikke modereringsordninger, er at begrænse ytringsfriheden på tværs af kloden og ikke kun i Europa.
DSA banede vejen for vilkårlig censur
In denne blogDen 5. september 2023, kort efter at Digital Services Act (DSA) blev anvendt på "meget store onlineplatforme" (VLOP'er), advarede jeg om, at "nettoeffekten af loven ville være at lægge et næsten uimodståeligt pres på sociale medieplatforme for at få dem til at spille "mod-desinformation"-spillet på en måde, der ville gå igennem hos Kommissionens revisorer og dermed undgå at blive ramt af store bøder." Og ifølge denne rapport er det altså sket.
Vi behøver ikke at læse Retsudvalgets interimsrapport for at forstå, at ordlyden af Lov om digital service skaber enorme skønsbeføjelser for Europa-Kommissionen i forbindelse med at føre tilsyn med platformenes indholdsmodereringspolitikker. Loven pålægger onlineplatforme byrdefulde "due diligence-forpligtelser" for at "afbøde" vagt definerede "systemiske risici", herunder risici relateret til "desinformation" og påvirkning af "borgerlig diskurs" og valgprocesser.
Selve loven giver betydelig plads til fortolkning med hensyn til, hvordan Europa-Kommissionen og dens revisorer vil vurdere "systemiske risici" som desinformation, trusler mod "borgerlig diskurs" og hadefuld tale, og hvordan de vil evaluere tilstrækkeligheden af tjenesteudbydernes afbødende indsatser. Denne tvetydighed giver håndhævere af loven bred skønsbeføjelse til at fortolke den, som de finder passende. Kommissionen har undersøgelses- og håndhævelsesbeføjelser i henhold til DSA, herunder muligheden for at pålægge bøder på op til 6 % af en platforms globale årlige omsætning for manglende overholdelse.
Den 160 sider lange rapport fremfører overbevisende argumenter for, at loven om digitale tjenester i realiteten er kulminationen af en årtilang kampagne for at give Europa-Kommissionen stadig større magt over indholdsmodereringspolitikkerne på onlineplatforme. De mange drejninger i denne kampagne, som inkluderer tidligere "frivillige" adfærdskodekser koordineret af EU-institutionerne, er beskrevet i indberette.
Her foreslår jeg udelukkende at fokusere på, hvad rapporten præsenterer som nogle af de bitre frugter af Digital Services Act, nemlig de censurhandlinger, der udføres under dens tilsynsmekanismer. Rapporten fokuserer overvejende på interaktioner mellem EU-Kommissionen og TikTok, og forudsat at de understøttende dokumenter kan autentificeres, giver den os et foruroligende glimt af et dybt forankret censurregime, der er fuldstændig uigennemsigtigt for den gennemsnitlige borger. Dette er kun toppen af isbjerget. Der er ingen måde at vide, hvad der ellers kunne blive afsløret, hvis en efterforsker fik adgang til lignende beviser på andre platforme som Meta, YouTube og LinkedIn.
Sådan fungerer DSA-tilsyn i praksis
EU-embedsmændenes kontrolmekanismer over platformmodereringspolitikker, som beskrevet i rapporten, deler et fælles mønster: Europa-Kommissionen selv eller nationale tilsynsmyndigheder udpeget under DSA (kendt som "Digital Services Coordinators" i hver medlemsstat), forespørger platforme om deres "risikoreducerende" foranstaltninger vedrørende et bestemt emne (f.eks. vacciner, valgdisinformation, hadefuld tale eller krigen i Ukraine), enten skriftligt eller personligt, og anmoder om dokumentation, der beskriver de skridt, der er taget eller vil blive taget. Platformene indsender derefter rapporter, der beskriver deres compliance-indsats og planer for at forbedre deres risikoreducerende strategier, hvorefter Kommissionen kan give feedback eller anmode om yderligere foranstaltninger. Rapporten fra Repræsentanternes Hus' retsudvalg karakteriserer plausibelt mange af disse udvekslinger som værende i færd med at lægge pres på platforme for at udvide modereringsindsatsen for at undgå potentielle sanktioner.
Retningslinjer for valget i 2024
Men det er ikke blot en generisk udvidelse af mængden af moderering, der er på spil i denne rapport: det er også ensidig indflydelse på den politiske og ideologiske indhold af modereringsreglerne. Kommissionen holder trods alt styr på Big Techs modereringspolitikker, delvist afhængig af sin egen hær af "betroede anmeldere", ofte hentet fra venstreorienterede NGO'er, og er ikke i sig selv ideologisk eller politisk neutral. Så det burde ikke komme som nogen overraskelse, at resultatet af en sådan proces er begrænsning af indhold, der er yderst kritisk over for EU-Kommissionens progressive venstreorienterede/teknokratiske politik og ideologiske forpligtelser.
Et eksempel er Valgretningslinjer udstedt af Europa-Kommissionen i april 2024, forud for valget til Europa-Parlamentet, hvori platforme opfordres til at "opdatere deres risikoreducerende foranstaltninger, reducere fremtrædelsen af disinformation (herunder "kønsbestemt disinformation"), samarbejde med faktatjekkere og udvikle foranstaltninger, der har til formål at opbygge modstandsdygtighed over for "disinformations"-fortællinger. Kommissionen inviterede Apple, Google, LinkedIn, Meta, Microsoft, Pinterest, Snapchat, Wikimedia, X og YouTube til en "valgberedskabsrundbordssamtale" og mindede dem om, at "den aktivt overvåger overholdelsen" af valgforpligtelserne i henhold til DSA og ville "tage håndhævelsesforanstaltninger i forbindelse med valget".
Valgretningslinjer var ikke en del af Digital Services Act, og de var heller ikke bindende lov. De blev faktisk offentligt fremsat som vejledning og anbefalinger snarere end juridisk bindende forpligtelser. Imidlertid hævder den foreløbige rapport fra Repræsentanternes Hus' retsudvalg, at Prabhat Agarwal, der i rapporten er identificeret som en højtstående embedsmand involveret i håndhævelse af DSA, "bag lukkede døre" ved en Meta-rundbordsdiskussion om DSA-valgretningslinjerne, der blev afholdt den 1. marts 2024, beskrev retningslinjerne som et "gulv" for overholdelse af DSA og udtalte, at hvis platforme afveg fra dem, ville de skulle "have alternative foranstaltninger, der er lige så gode eller bedre". Hvor mærkelig en sådan erklæring end måtte lyde, er den i overensstemmelse med DSA's opfattelse af en "due diligence-forpligtelse" for store digitale platforme til at træffe rimelige foranstaltninger for at afbøde platformrisici. Hvis håndhæveren af en vag forpligtelse tilbyder en idiotsikker måde at opfylde den på - selvom den præsenteres som en "retningslinje" - bliver "retningslinjen" en attraktiv måde at undgå at blive sanktioneret på.
Bevis for platformsoverholdelse: Sagen med TikTok
Overholdt platformene Kommissionens retningslinjer for valget i 2024? Baseret på intern platformkommunikation og udvekslinger mellem platforme og EU-embedsmænd, der er gengivet eller opsummeret i rapporten, ser det ud til, at mindst nogle platforme justerede deres politikker som reaktion herpå. Udvalgets rapport angiver især, at TikTok informerede Europa-Kommissionen om, at de havde fjernet eller begrænset over 45,000 indholdsstykker, der blev identificeret som "misinformation", herunder politiske ytringer om emner som migration, klimaforandringer, sikkerhed og forsvar samt LGBTQ-rettigheder, forud for EU-valget i 2024.
Et resumé af en opdatering af TikToks retningslinjer for fællesskabet fra 20. marts 2024, der er citeret i rapporten, nævner "opdateringer" til TikToks retningslinjer for fællesskabet, "primært relateret til overholdelse af Digital Services Act", herunder politikker, der omhandler "marginalisering af tale og adfærd", "misinformation, der underminerer tilliden til integriteten af den demokratiske proces" og "forvanskning af autoritativ information, såsom videnskabelige data". Hovedpointen med disse ændringer var, ifølge TikToks egen indrømmelse, at overholde DSA. De er ikke politikændringer bestemt af uafhængige kriterier.
Nu er det ret indlysende, at hvis man tænker over de nye TikTok-politikker, der blev lanceret i 2024 for at sikre overholdelse af DSA, kan de i bund og grund betyde, hvad man vil. ønsker hvad de mener. For eksempel er politisk diskurs i sagens natur konfliktfyldt, så næsten enhver fjendtlig bemærkning kan opfattes som "marginaliserende tale og adfærd". På samme måde, hvis nogen i god tro kritiserer "den demokratiske process integritet", "underminerer de så tilliden" til den? Og hvad med "forvanskningen" af "autoritativ information"? Videnskab kan kun fungere, hvis såkaldte "autoritative" videnskabelige påstande ikke kunstigt beskyttes mod hård kritik.
Subtilt, men reelt regulatorisk pres
Det er sandt, at specifikke konturer af TikToks censurregime var ikke direkte pålagt af Europa-Kommissionen. Kommissionen er generelt ikke i gang med at beordre specifikke opslag fjernet. De blev dog tydeligvis udarbejdet under pres fra DSA-reguleringssystemet og dets håndhævere. TikTok måtte, i forbindelse med udviklingen af foranstaltninger til at "afbøde risiko" med henblik på overholdelse af DSA, på en eller anden måde foregribe regulatorernes synspunkter vedrørende vagt definerede risici som "hadefuld tale", "desinformation" og skade på "borgerlig diskurs".
Nu undrer du dig måske over, hvordan TikTok så kunne skræddersy sine politikker, så de kunne blive godkendt af EU's tilsynsmyndigheder, hvis disse risikokategorier er så vagt definerede? Svaret er ikke kompliceret. Når der er hundredvis af millioner af dollars på spil (sanktioner på op til 6% af en platforms årlige globale omsætning), ville en intelligent og ressourcefuld virksomhed gøre det til sin opgave at "læse mellem linjerne" og finde ud af EU's tilsynsmyndigheders politiske og ideologiske tilbøjeligheder. De kunne komme med et kvalificeret gæt om, hvilken slags censur der var musik i Kommissionens ører.
For eksempel har Kommissionen konsekvent taget parti for vaccineindustriens og officielle sundhedsorganers side som WHO. Kommissionen repræsenterer et bredt venstreorienteret-progressivt perspektiv på køn, hadefuld tale og miljøspørgsmål. Tilsvarende er det indlysende, at Kommissionen er interesseret i at undertrykke pro-russisk krigspropaganda. Så selvom DSA ikke indeholder en udtømmende liste over argumenter, som censorer skal have som mål, gør historien om Kommissionens lovgivningsinitiativer og tidligere udtalelser meget tydeligt, hvilke slags ting de anser for at være "systemiske risici". Disse intuitioner finjusteres utvivlsomt i de offentlige og private møder med EU-embedsmænd, som platformens ledere rutinemæssigt indkaldes til.
Markering af "problematiske" slovakiske TikTok-konti
Hvis rapporten fra Repræsentanternes Hus er korrekt, ser det ud til, at EU-embedsmænd ikke er generte for at gå direkte ind og bede en platform om at undersøge en specifik konto eller et sæt af konti, der anses for at være "problematiske". Rapporten angiver, at Kommissionen i september 2023, fire dage før det slovakiske parlamentsvalg, sendte TikTok et regneark med lister over "problematiske konti tilhørende slovakisk TikTok", der skulle undersøges. Regnearket angiveligt indeholdt mindst 63 konti med et følgertal fra 1,000 til 120,000. Ifølge rapporten fra domstolene i Repræsentanternes Hus,
TikToks opsummerende rapport efter valget bemærkede, at de forbød 19 af disse konti som direkte svar på Kommissionens anmodning – fem af dem for at "sprede had". Seksten konti markeret af Europa-Kommissionen havde "ingen eller meget få overtrædelser", herunder "satires konti med fokus på politik". Andre konti blev placeret på TikToks "overvågningsliste".
Dødkonflikt mellem EU-Kommissionen og X
Der er én social mediegigant, der iøjnefaldende har trodset EU-Kommissionens regulatoriske ambitioner. I maj 2023 trak X sig tilbage fra den "frivillige" desinformationskodeks, der var forløberen for DSA, og indfører tilsyneladende ikke den slags moderationspolitikker, som Kommissionen har anmodet om under DSA-ordningen. Derfor har Kommissionen X i sit sigtekorn. Den har pålagt X en stor bøde på 120 millioner euro for manglende overholdelse af loven - dog mærkeligt nok baseret på, hvad der synes at være noget sjældne lovovertrædelser, såsom manglende overholdelse af Twitters gamle Blue Check-system eller lagring af oplysninger af offentlig interesse i det forkerte format. Dette er den første bøde, der er pålagt i henhold til DSA.
Rapporten synes at bekræfte DSA's skadevirkninger for ytringsfriheden
Jeg er kun lige begyndt at kradse i overfladen af denne rapport. Men forhåbentlig er mønsteret allerede tydeligt nok: Hvis denne rapport er nøjagtig – og hvis de meddelelser, den citerer, er korrekt autentificeret – så antyder den, at DSA giver en privilegeret gruppe af offentlige embedsmænd beføjelse til, gennem omfattende tilsynsmekanismer, hvis logik er uigennemtrængelig for den gennemsnitlige borger, at beslutte, hvilke typer information og argumenter der er egnede til offentlig forbrug, og hvilke typer der aldrig må nå borgernes ører.
Vi behøvede faktisk ikke denne rapport for at indse, at den "progressive" politiske elite i Den Europæiske Union er ved at opføre en kompleks og flerlags censurmaskine lige for øjnene af os. Det fremgår allerede tydeligt nok af teksten i rapporten. Lov om digital service selve. Indtil nu har vores viden om dette regime dog været ret legalistisk og mere baseret på de logiske konsekvenser af ordlyden af DSA'en og de kontrolmekanismer, den skaber, end på håndfaste beviser for dens anvendelse.
Denne rapport fremlægger, hvad der kan vise sig at være ret belastende dokumentation for en række mekanismer, hvorigennem EU-embedsmænd tilsyneladende har udnyttet DSA til at presse store tech-virksomheder til at begrænse europæernes politiske ytringsfrihed på vidtrækkende måder, under trussel om store økonomiske sanktioner. Desuden er disse restriktioner på grund af de tekniske og økonomiske udfordringer ved fragmentering af platformregler i praksis ofte også blevet anvendt uden for Europa.
Nu hvor disse påstande og ledsagende beviser er kommet frem i lyset, skylder EU-Kommissionen os alle at forklare sig. Indtil videre har EU's talsmand for digitale anliggender, Thomas Reigner, netop sagt: "Om de seneste censurpåstande. Rent vrøvl. Fuldstændig ubegrundet." Antyder Reigner, at et retsudvalg i Repræsentanternes Hus har fabrikeret e-mails og mødenotater mellem EU-embedsmænd og digitale platformforvaltere ud af det hele?
Jeg afventer med stor interesse et mere seriøst svar fra Europa-Kommissionen.
Genudgivet fra forfatterens understak
-
David Thunder er forsker og underviser ved University of Navarras Institut for Kultur og Samfund i Pamplona, Spanien, og modtager af det prestigefyldte Ramón y Cajal forskningsstipendium (2017-2021, forlænget til 2023), tildelt af den spanske regering for at støtte fremragende forskningsaktiviteter. Inden han blev udnævnt til University of Navarra, havde han adskillige forsknings- og undervisningsstillinger i USA, herunder gæsteprofessor ved Bucknell og Villanova, og postdoc-forsker i Princeton Universitys James Madison-program. Dr. Thunder tog sin BA og MA i filosofi ved University College Dublin og sin Ph.D. i statskundskab ved University of Notre Dame.
Vis alle indlæg