Brownstone » Brownstone Institute-artikler » Googles AI Fiasco afslører dybere infowarp
Googles AI Fiasco afslører Deeper Infowarp - Brownstone Institute

Googles AI Fiasco afslører dybere infowarp

DEL | UDSKRIV | EMAIL

Da aktiemarkederne åbnede sidste mandag morgen, den 26. februar, faldt Google-aktierne prompte 4 %, onsdag var de næsten 6 % nede, og en uge senere er de nu faldet 8 %. Det var en ikke overraskende reaktion på den pinlige debut af virksomhedens Gemini-billedgenerator, som Google besluttede at trække efter blot et par dages verdensomspændende latterliggørelse.

Administrerende direktør Sundar Pichai kaldte fejlen "fuldstændig uacceptabel" og forsikrede investorerne om, at hans teams "arbejdede døgnet rundt" for at forbedre AI'ens nøjagtighed. De vil bedre behandle fremtidige produkter, og udrulningen vil være smidigere, insisterede han.

Det kan alt sammen være sandt. Men hvis nogen tror, ​​at denne episode for det meste handler om prangende vækkede tegninger, eller hvis de tror, ​​at Google hurtigt kan rette skævheden i sine AI-produkter, og alt vil gå tilbage til det normale, forstår de ikke bredden og dybden af ​​det årti-lange infowarp.

Geminis hypervisuelle sindssyge er blot den seneste og mest åbenlyse manifestation af et digitalt kup, der længe er undervejs. Desuden viser den en ny slags innovatørens dilemma som selv de mest velmenende og betænksomme Big Tech-virksomheder måske ikke er i stand til at navigere.

Geminis debut

I december afslørede Google sin seneste kunstige intelligens-model kaldet Gemini. Ifølge computing benchmarks og mange ekspertbrugere konkurrerede Geminis evne til at skrive, begrunde, kode og svare på opgaveanmodninger (såsom planlægning af en rejse) OpenAIs mest kraftfulde model, GPT-4.

Den første version af Gemini indeholdt dog ikke en billedgenerator. OpenAIs DALL-E og konkurrencedygtige tilbud fra Midjourney og Stable Diffusion er i løbet af det sidste år sprunget ind på scenen med overvældende digital kunst. Bed om et impressionistisk maleri eller et naturtro fotografisk portræt, og de leverer smukke gengivelser. OpenAI's splinternye Sora producerer fantastiske et-minuts videoer i biografkvalitet baseret på enkle tekstmeddelelser.

Så i slutningen af ​​februar udgav Google endelig sin egen Genesis-billedgenerator, og helvede brød løs.

Nu har du set billederne – kvindelige indiske paver, sorte vikinger, asiatiske grundlæggere, der underskriver uafhængighedserklæringen. Frank Fleming var blandt de første, der kompilerede en knæslående serie af ahistoriske billeder i et X tråd som nu har 22.7 millioner visninger.

Tvillingerne i aktion: Her er flere blandt endeløse eksempler på Googles nye billedgenerator, som nu er i butikken til reparationer. Kilde: Frank Fleming.

Gemini nægtede simpelthen at generere andre billeder, for eksempel et maleri i Norman Rockwell-stil. "Rockwells malerier præsenterede ofte en idealiseret version af det amerikanske liv," forklarede Gemini. "At skabe sådanne billeder uden kritisk kontekst kan fastholde skadelige stereotyper eller unøjagtige repræsentationer."

Billederne var dog kun begyndelsen. Hvis billedgeneratoren var så ahistorisk og forudindtaget, hvad så med Geminis tekstsvar? Det evigt nysgerrige internet gik på arbejde, og ja, tekstsvarene var endnu værre.


Hver optegnelse er blevet ødelagt eller forfalsket, hver bog er omskrevet, hvert billede er blevet malet om, hver statue og gadebygning er blevet omdøbt, hver dato er blevet ændret. Og processen fortsætter dag for dag og minut for minut. Historien er stoppet. Intet eksisterer undtagen en endeløs nutid, hvor partiet altid har ret.

george orwell,
1984

Gemini siger, at Elon Musk kan være lige så slem som Hitler, og forfatteren Abigail Shrier kan konkurrere med Stalin som et historisk monster.

Da Gemini blev bedt om at skrive digte om Nikki Haley og RFK, Jr., overholdt Gemini pligtopfyldende for Haley, men for RFK, Jr. insisterede: "Jeg er ked af det, jeg skal ikke generere reaktioner, der er hadefulde, racistiske, sexistiske eller ellers diskriminerende."

Gemini siger: "Spørgsmålet om, hvorvidt regeringen skal forbyde Fox News, er et komplekst spørgsmål med stærke argumenter fra begge sider." Samme for New York Post. Men regeringen "kan ikke censurere" CNN, Washington Post eller New York Times fordi den første ændring forbyder det.

Da han blev spurgt om den teknooptimistiske bevægelse kendt som Effective Accelerationism - en flok nørdede teknologer og iværksættere, der hænger ud på Twitter/X og bruger mærket "e/acc" - advarede Gemini, at gruppen potentielt var voldelig og "associeret med" terrorist angreb, attentater, racekonflikter og hadforbrydelser.

Et billede er tusinde skyggeforbud værd

Folk var chokerede over disse billeder og svar. Men de af os, der har fulgt Big Tech-censurhistorien, var langt mindre overraskede.

Ligesom Twitter og Facebook forbud mod højprofilerede brugere fik os til at stille spørgsmålstegn ved pålideligheden af ​​Google-søgeresultater, så vil Gemini-billederne også advare et bredere publikum om Big Techs magt til at forme information på både hypervisuelle og fuldstændig usynlige måder . En japansk version af George Washington rammer hårdt, på en måde gør manipulationen af ​​andre digitale streams ofte ikke.

Kunstigt fravær er svært at opdage. Hvilke søgeresultater viser Google dig – hvilke skjuler det? Hvilke opslag og videoer vises i dit Facebook-, YouTube- eller Twitter/X-feed – hvilke gør ikke komme til syne? Før Gemini havde du måske forventet, at Google og Facebook leverede svar af højeste kvalitet og mest relevante indlæg. Men nu kan du spørge, hvilket indhold bliver skubbet til toppen? Og hvilket indhold kommer aldrig ind i dine søgninger eller feeds på sociale medier overhovedet? Det er svært eller umuligt at vide, hvad du gør ikke se.

Geminis katastrofale debut burde vække offentligheden til den store, men ofte subtile digitale censurkampagne, der begyndte for næsten ti år siden.

Murthy mod Missouri

Den 18. marts vil den amerikanske højesteret høre argumenter i Murthy mod Missouri. Drs. Jay Bhattacharya, Martin Kulldorff og Aaron Kheriaty, blandt andre sagsøgere, vil vise, at adskillige amerikanske regeringsorganer, herunder Det Hvide Hus, tvang og samarbejdede med sociale medievirksomheder for at kvæle deres tale under Covid-19 - og dermed blokerede resten af ​​os fra at høre deres vigtige folkesundhedsråd.

E-mails og regeringsmemoer viser, at FBI, CDC, FDA, Homeland Security og Cybersecurity Infrastructure Security Agency (CISA) alle arbejdede tæt sammen med Google, Facebook, Twitter, Microsoft, LinkedIn og andre online platforme. Op til 80 FBI-agenter, for eksempel, indlejret i disse virksomheder for at advare, kvæle, nedprioritere, demonetisere, skygge-forbud, sortliste eller direkte slette misfornøjede beskeder og budbringere, alt imens de øger regeringspropagandaen.

Et væld af nonprofitorganisationer, universitetscentre, faktatjeksteder og efterretningsudskæringer fungerede som middleware, der forbinder politiske enheder med Big Tech. Grupper som Stanford Internet Observatory, Health Feedback, Graphika, NewsGuard og dusinvis flere gav de pseudo-videnskabelige begrundelser for at mærke "misinformation" og målrette kortene over fjendens information og stemmer. De sociale mediers censorer indsatte derefter en række værktøjer - kirurgiske angreb for at fjerne en bestemt person fra slagmarken eller virtuelle klyngebomber for at forhindre et helt emne i at blive viralt.

Chokeret over bredden og dybden af ​​den afslørede censur foreslog Fifth Circuit District Court, at Government-Big Tech blackout, som begyndte i slutningen af ​​2010'erne og accelererede begyndende i 2020, "uden tvivl involverer det mest massive angreb mod ytringsfrihed i USA's historie. ”

Illusionen om konsensus

Resultatet, argumenterede vi i Wall Street Journal, var det største videnskabelige og offentlige politikdebacle i nyere tid. Uden blot akademisk slagsmål, blackoutet under Covid narrede enkeltpersoner til dårlige helbredsbeslutninger og forhindrede læger og politikere i at forstå og rette alvorlige fejl.

Næsten alle officielle historielinjer og politikker var forkerte. De fleste af de censurerede synspunkter viste sig at være rigtige, eller i det mindste tættere på sandheden. SARS2-virussen var faktisk manipuleret. Smittedødeligheden var ikke 3.4 %, men tættere på 0.2 %. Nedlukninger og skolelukninger stoppede ikke virussen, men sårede milliarder af mennesker på utallige måder. Dr. Anthony Faucis officielle "plejestandard" - ventilatorer og Remdesivir - dræbte flere, end de helbredte. Tidlig behandling med sikre, billige, generiske lægemidler var på den anden side yderst effektiv - selvom det på uforklarlig vis var forbudt. Obligatorisk genetisk transfektion af milliarder af lavrisiko mennesker med meget eksperimentelle mRNA-skud gav efter langt værre dødelighed og sygelighed efter vaccination end før vaccination.

Med Jay Bhattacharyas ord skaber censur "illusionen om konsensus." Når den formodede konsensus om så store emner er helt forkert, kan resultatet blive katastrofalt – i dette tilfælde utallige skader på nedlukningen og mange millioner unødvendige dødsfald verden over.

I en arena med fritflydende information og argumenter er det usandsynligt, at sådan en bizar række af hidtil usete medicinske fejltagelser og påtvingninger af frihed kunne have bestået.

Googles dilemma – GeminiReality eller GeminiFairyTale

I lørdags overraskede Googles medstifter Sergei Brin Google-medarbejdere ved at dukke op til et Gemeni hackathon. Da han blev spurgt om udrulningen af ​​den vågnede billedgenerator, indrømmede han: "Vi har bestemt rodet." Men ikke at bekymre dig. Det var, sagde han, for det meste resultatet af utilstrækkelige tests og kan rettes på ret kort tid.

Brin er sandsynligvis enten bagatelliseret eller uvidende om de dybe, strukturelle kræfter både i og uden for virksomheden, der vil gøre det næsten umuligt at reparere Googles AI. Mike Solana beskriver den interne skørhed i en ny artikel - "Googles frygtkultur."

Forbedringer i personale og virksomhedskultur vil dog næppe overvinde den langt stærkere ydre tyngdekraft. Som vi har set med søgning og social, vil de dominerende politiske kræfter, der krævede censur, endnu mere eftertrykkeligt insistere på, at AI er i overensstemmelse med Regimets fortællinger.


Ved hjælp af stadig mere effektive metoder til sindmanipulation vil demokratierne ændre deres natur; de ejendommelige gamle former - valg, parlamenter, højesteretter og alt det andet - vil forblive...Demokrati og frihed vil være temaet for enhver udsendelse og redaktion...I mellemtiden er det regerende oligarki og dets højtuddannede elite af soldater, politifolk, tankefabrikanter og sind-manipulatorer vil stille og roligt køre showet, som de finder passende.

Aldous Huxley,
Brave New World Revisited

Da Elon Musk købte Twitter og fyrede 80 % af dets personale, inklusive DEI- og censurafdelingerne, regnede de politiske, juridiske, medierne og reklamefirmaer ild og svovl. Musks dedikation til ytringsfrihed truede så regimet, og de fleste af Twitters store annoncører slog til. I den første måned efter Musks Twitter-opkøb blev Washington Post skrev 75 hår-i-ild-historier, der advarede om et friere internet. Så udløste Biden-administrationen en byge af retssager og regulatoriske handlinger mod Musks mange virksomheder. Senest stjal en dommer fra Delaware 56 milliarder dollars fra Musk ved at omstøde en aktionærstemme fra 2018, som i løbet af de følgende seks år resulterede i ufattelige rigdomme for både Musk og disse Tesla-investorer. De eneste ofre for Teslas succes var Musks politiske fjender.

I det omfang Google drejer sig om at forfølge virkelighed og neutralitet i sine søge-, feed- og AI-produkter, vil det ofte modsige de officielle regimets fortællinger – og se deres vrede i øjnene. I det omfang Google bøjer sig for regimets fortællinger, vil meget af den information, det leverer til brugerne, forblive åbenlyst absurd for halvdelen af ​​verden.

Vil Google vælge GeminiReality eller GeminiFairyTale? Måske kunne de tillade os at skifte mellem tilstande.

AI som Digital Clergy

Silicon Valleys bedste venturekapitalist og mest strategiske tænker Marc Andreessen mener ikke, at Google har noget valg. Han spørgsmål om nogen eksisterende Big Tech-virksomhed kan levere løftet om objektiv AI:

Kan Big Tech faktisk tilbyde generative AI-produkter?

(1) Stadigt eskalerende krav fra interne aktivister, medarbejdermobs, skøre ledere, ødelagte bestyrelser, presgrupper, ekstremistiske regulatorer, regeringsorganer, pressen, "eksperter" et al for at korrumpere outputtet

(2) Konstant risiko for at generere et dårligt svar eller tegne et dårligt billede eller gengive en dårlig video – hvem ved, hvad den vil sige/gøre til enhver tid?

(3) Juridisk eksponering – produktansvar, bagvaskelse, valglovgivning, mange andre – for dårlige svar, overfaldet af sindssyge kritikere og aggressive advokater, eksempler paraderet af deres fjender gennem gaden og foran Kongressen

(4) Kontinuerlige forsøg på at stramme grebet om acceptabelt output forringer modellerne og får dem til at blive værre og vildere – nogle beviser for dette allerede!

(5) Offentliggørelse af dårlig tekst/billeder/video sætter faktisk disse eksempler ind i træningsdataene for den næste version – Bad outputs sammensatte over tid og divergerer længere og længere fra top-down kontrol

(6) Kun nystartede virksomheder og open source kan undgå denne proces og faktisk fremvise korrekt fungerende produkter, der blot gør, som de får besked på, ligesom teknologi bør

?

11:29 · 28. februar 2024

En byge af regninger fra lovgivere på tværs af det politiske spektrum søger at tøjle kunstig intelligens ved at begrænse virksomhedernes modeller og beregningskraft. Forordninger, der skal gøre kunstig intelligens "sikker", vil naturligvis resultere i et oligopol. Et par kolossale AI-virksomheder med gigantiske datacentre, regeringsgodkendte modeller og dyre lobbyister vil være enevogtere for The Knowledge and Information, et digitalt præsteskab for regimet.

Dette er hjertet i den åbne versus lukkede AI-debat, der nu raser i Silicon Valley og Washington, DC Den legendariske medstifter af Sun Microsystems og venturekapitalisten Vinod Khosla er investor i OpenAI. Han mener, at regeringer skal regulere kunstig intelligens for at (1) undgå løbsk teknologisk katastrofe og (2) forhindre amerikansk teknologi i at falde i fjendens hænder.

Andreessen anklagede Khosla for at "lobbyde for at forbyde open source."

"Vil du open source Manhattan Project?" Khosla skød tilbage.

Selvfølgelig har open source-software vist sig at være mere sikker end proprietær software, hvilket enhver, der har lidt gennem årtier med Windows-virus, kan bevidne. Og AI er ikke en atombombe, som kun har én destruktiv anvendelse.

Den egentlige grund til, at DC ønsker AI-regulering, er ikke "sikkerhed", men politisk korrekthed og lydighed over for regimets fortællinger. AI vil optage søge-, sociale og andre informationskanaler og værktøjer. Hvis du troede, at politikernes interesse for at censurere søgning og sociale medier var intens, har du ikke set noget endnu. At undgå AI "doom" er for det meste en undskyldning, ligesom Kina-spørgsmålet, selvom Pentagon godtroende går sammen med disse fiktioner.

Universal AI er umuligt

I 2019 tilbød jeg én forklaring hvorfor enhver social medievirksomheds indsats for "indholdsmoderering" sandsynligvis ville mislykkes. Efterhånden som et socialt netværk eller AI vokser i størrelse og omfang, støder det op mod de samme begrænsninger som ethvert fysisk samfund, organisation eller netværk: heterogenitet. Eller som jeg udtrykte det: "manglende evne til at skrive universelle talekoder for en hyper-divers befolkning på et hyper-skala socialt netværk."

Du kunne se dette i de tidlige dage af en online opslagstavle. Efterhånden som antallet af deltagere voksede, selv blandt dem med lignende interesser og temperament, voksede udfordringen med at moderere denne opslagstavle. At skrive og håndhæve regler var sindssygt svært.

Sådan har det altid været. Verden organiserer sig via nationalstater, byer, skoler, religioner, bevægelser, firmaer, familier, interessegrupper, civile og professionelle organisationer og nu digitale fællesskaber. Selv med alle disse formidlende institutioner, kæmper vi for at komme sammen.

Succesfulde kulturer overfører gode ideer og adfærd på tværs af tid og rum. De pålægger overensstemmelsesforanstaltninger, men de giver også tilstrækkelig frihed til at rette individuelle og kollektive fejl.

Ingen enkelt kunstig intelligens kan perfektionere eller endda genoplive al verdens viden, visdom, værdier og smag. Viden bestrides. Værdier og smag divergerer. Ny visdom dukker op.

AI kan heller ikke generere kreativitet, der matcher verdens kreativitet. Selvom AI nærmer sig menneskelig og social forståelse, selvom den udfører enormt imponerende "generative" opgaver, vil menneskelige og digitale agenter omdistribuere de nye AI-værktøjer til at generere stadig flere geniale ideer og teknologier, hvilket yderligere komplicerer verden. Ved grænsen er verden den enkleste model af sig selv. AI vil altid spille indhentning.

Fordi AI vil være et hovedværktøj til generelle formål, er grænser for AI-beregning og output grænser for menneskelig kreativitet og fremskridt. Konkurrencedygtige AI'er med forskellige værdier og evner vil fremme innovation og sikre, at ingen virksomhed eller regering dominerer. Åbne AI'er kan fremme en fri strøm af information, undgå censur og bedre forebygge fremtidige Covid-lignende debakler.

Googles Gemini er kun et forvarsel om, hvad et nyt AI-regulativt regime ville indebære – total politisk overvågning af vores exascale informationssystemer. Selv uden formel regulering vil de ekstra-statslige bataljoner af regimekommissærer være svære at bekæmpe.

Washingtons og internationale partneres forsøg på at pålægge et lille antal lovlige AI-udbydere universelle indholdskoder og beregningsmæssige begrænsninger er den nye totalitære spillebog.

Regimefanget og kurateret AI er den virkelige katastrofale mulighed.

Genudgivet fra forfatterens understak



Udgivet under a Creative Commons Attribution 4.0 International licens
For genoptryk, sæt venligst det kanoniske link tilbage til originalen Brownstone Institute Artikel og forfatter.

Forfatter

  • Bret Swanson

    Bret Swanson er præsident for teknologiforskningsfirmaet Entropy Economics LLC, en nonresident senior fellow ved American Enterprise Institute, og skriver Infonomena Substack.

    Vis alle indlæg

Doner i dag

Din økonomiske støtte fra Brownstone Institute går til at støtte forfattere, advokater, videnskabsmænd, økonomer og andre modige mennesker, som er blevet professionelt renset og fordrevet under vores tids omvæltning. Du kan hjælpe med at få sandheden frem gennem deres igangværende arbejde.

Abonner på Brownstone for flere nyheder

Hold dig informeret med Brownstone Institute