Før Covid ville jeg have beskrevet mig selv som en teknologisk optimist. Nye teknologier dukker næsten altid op midt i overdrevne frygter. Jernbaner skulle forårsage mentale sammenbrud, cykler skulle gøre kvinder infertile eller sindssyge, og tidlig elektricitet blev beskyldt for alt fra moralsk forfald til fysisk kollaps. Med tiden forsvandt disse bekymringer, samfundene tilpassede sig, og levestandarden steg. Mønsteret var velkendt nok til, at kunstig intelligens syntes sandsynligt at følge det: forstyrrende, nogle gange misbrugt, men i sidste ende håndterbar.
Covid-årene rystede den tillid – ikke fordi teknologien fejlede, men fordi institutionerne gjorde det.
Over store dele af verden reagerede regeringer og ekspertorganer på usikkerhed med hidtil usete sociale og biomedicinske interventioner, begrundet i worst-case-modeller og håndhævet med bemærkelsesværdig sikkerhed. Konkurrerende hypoteser blev marginaliseret snarere end debatteret. Nødforanstaltninger blev hårdere til langsigtet politik. Når beviserne ændrede sig, var indrømmelser af fejl sjældne, og ansvarlighed endnu sjældnere. Erfaringen afslørede et dybere problem end nogen enkelt politisk fejltagelse: moderne institutioner synes dårligt rustet til at håndtere usikkerhed uden at overskride grænserne.
Den lektie vejer nu tungt i debatterne om kunstig intelligens.
Risikokløften inden for AI
Overordnet set falder bekymringen omkring avanceret kunstig intelligens i to lejre. Den ene gruppe – forbundet med tænkere som Eliezer Yudkowsky og Nate Soares – argumenterer for, at tilstrækkeligt avanceret kunstig intelligens som standard er katastrofalt farlig. I deres bevidst barske formulering, Hvis nogen bygger det, dør alleProblemet er ikke dårlige intentioner, men incitamenter: konkurrence sikrer, at nogen springer over, og når et system først slipper for meningsfuld kontrol, betyder intentioner ikke længere noget.
En anden lejr, inklusive personer som Stuart Russell, Nick Bostrom og Max Tegmark, tager også AI-risiko alvorligt, men er mere optimistiske med hensyn til, at tilpasning, omhyggelig styring og gradvis implementering kan holde systemer under menneskelig kontrol.
Trods deres uenigheder er begge lejre enige om én konklusion: Ubegrænset AI-udvikling er farlig, og en form for tilsyn, koordinering eller begrænsning er nødvendig. Hvor de divergerer, er gennemførlighed og hastende karakter. Det, der dog sjældent undersøges, er, om de institutioner, der forventes at yde denne begrænsning, selv er egnede til rollen.
Covid giver grund til tvivl.
Covid var ikke blot en folkesundhedskrise; det var et levende eksperiment i ekspertdrevet forvaltning under usikkerhed. Stillet over for ufuldstændige data valgte myndighederne gentagne gange maksimale interventioner begrundet i spekulative skadevirkninger. Uenighed blev ofte behandlet som en moralsk fejl snarere end en videnskabelig nødvendighed. Politikker blev forsvaret ikke gennem gennemsigtige cost-benefit-analyser, men gennem appeller til autoriteter og frygt for hypotetiske fremtider.
Dette mønster er vigtigt, fordi det afslører, hvordan moderne institutioner opfører sig, når indsatser fremstilles som eksistentielle. Incitamenter skifter mod beslutsomhed, narrativ kontrol og moralsk sikkerhed. Fejlretning bliver omdømmemæssigt dyrt. Forsigtighed holder op med at være et værktøj og bliver til en doktrin.
Lærdommen er ikke, at eksperter er unikke fejl. Den er, at institutioner belønner overdreven selvtillid langt mere pålideligt end ydmyghed, især når politik, finansiering og offentlig frygt går hånd i hånd. Når ekstraordinære beføjelser først gøres krav på i sikkerhedens navn, opgives de sjældent frivilligt.
Det er netop den dynamik, der nu er synlig i diskussioner om AI-overvågning.
"Hvad nu hvis"-maskinen
En tilbagevendende begrundelse for ekspansiv statslig intervention er den hypotetiske dårlige aktør: Hvad hvis en terrorist bygger dette? Hvad hvis en slyngelstat gør det? Fra denne præmis udspringer argumentet om, at regeringer skal handle forebyggende, i stor skala og ofte i hemmelighed for at forhindre katastrofer.
Under Covid retfærdiggjorde lignende logik omfattende biomedicinske forskningsdagsordener, nødtilladelser og sociale kontroller. Ræsonnementet var cirkulært: fordi noget farligt måske Hvis det sker, skal staten træffe ekstraordinære foranstaltninger nu – foranstaltninger, der i sig selv indebar betydelige, dårligt forståede risici.
AI-styring indrammes i stigende grad på samme måde. Faren er ikke kun, at AI-systemer kan opføre sig uforudsigeligt, men at frygten for denne mulighed vil legitimere permanent nødstyring – centraliseret kontrol over beregning, forskning og informationsstrømme – med den begrundelse, at der ikke er noget alternativ.
Privat risiko, offentlig risiko
En undervurderet sondring i disse debatter er mellem risici genereret af private aktører og risici genereret af statslige myndigheder. Private virksomheder er begrænset – ufuldkomment, men meningsfuldt – af ansvar, konkurrence, omdømme og markedsdisciplin. Disse begrænsninger eliminerer ikke skade, men de skaber feedback-loops.
Regeringer fungerer anderledes. Når stater handler i katastrofeforebyggelsens navn, svækkes feedbacken. Fejl kan omklassificeres som nødvendigheder. Omkostninger kan eksternaliseres. Hemmeligholdelse kan retfærdiggøres af sikkerhed. Hypotetiske fremtidige skader bliver til politiske løftestænger i nutiden.
Flere AI-tænkere anerkender implicit dette. Bostrom har advaret om "lock-in"-effekter – ikke kun fra AI-systemer, men også fra styringsstrukturer skabt i panikøjeblikke. Anthony Aguirres opfordring til global tilbageholdenhed er, omend logisk sammenhængende, afhængig af internationale koordineringsorganer, hvis nylige resultater med hensyn til ydmyghed og fejlkorrektion er dårlige. Endnu mere moderate forslag forudsætter, at regulatorer er i stand til at modstå politisering og mission creep.
Covid giver os ikke meget grund til at have tillid til den antagelse.
Tilsynsparadokset
Dette fører til et bekymrende paradoks i hjertet af AI-debatten. Hvis man oprigtigt mener, at avanceret AI skal begrænses, bremses eller stoppes, er det regeringer og transnationale institutioner, der sandsynligvis har magten til at gøre det. Alligevel er det netop disse aktører, hvis nylige adfærd giver mindst tillid til en tilbageholden, reversibel brug af denne magt.
Nødstrategier er vanskelige at håndtere. Autoritet erhvervet til at håndtere hypotetiske risici har en tendens til at vare ved og udvide sig. Institutioner nedgraderer sjældent deres egen betydning. I AI-sammenhæng rejser dette muligheden for, at reaktionen på AI-risiko forankrer skrøbelige, politiserede kontrolsystemer, der er sværere at afvikle end nogen individuel teknologi.
Faren er med andre ord ikke blot, at AI undslipper menneskelig kontrol, men at frygten for AI accelererer koncentrationen af autoritet i institutioner, der allerede har vist sig at være langsomme til at indrømme fejl og fjendtlige over for uenighed.
Gentænkning af den reelle risiko
Dette er ikke et argument for selvtilfredshed med hensyn til AI, og heller ikke en benægtelse af, at kraftfulde teknologier kan gøre reel skade. Det er et argument for at udvide rammen. Institutionel fiasko er i sig selv en eksistentiel variabel. Et system, der antager velvillig, selvkorrigerende styring, er ikke sikrere end et, der antager velvillig, afstemt superintelligens.
Før Covid var det rimeligt at tilskrive det meste af teknologisk pessimisme til menneskelig negativitetsbias – tendensen til at tro, at vores generations udfordringer er enestående uhåndterlige. Efter Covid ligner skepsis mindre bias og mere erfaring.
Det centrale spørgsmål i AI-debatten er derfor ikke blot, om maskiner kan afstemmes med menneskelige værdier, men om moderne institutioner kan have tillid til at håndtere usikkerhed uden at forstærke den. Hvis denne tillid er blevet svækket – og Covid antyder, at den er – så fortjener krav om omfattende AI-tilsyn mindst lige så megen granskning som påstande om teknologisk uundgåelighed.
Den største risiko er måske ikke, at AI bliver for magtfuld, men at frygten for den mulighed retfærdiggør former for kontrol, som vi senere opdager er langt sværere at leve med – eller undslippe.
-
Roger Bate er Brownstone Fellow, Senior Fellow ved International Center for Law and Economics (januar 2023-nu), bestyrelsesmedlem i Africa Fighting Malaria (september 2000-nu) og Fellow ved Institute of Economic Affairs (januar 2000-nu).
Vis alle indlæg