Min erfaring inden for medicin giver mig mulighed for at skelne mellem ægte innovation og subtil omklassificering, der fundamentalt ændrer praksis, samtidig med at den fremstår uændret. Kunstig intelligens har for nylig tiltrukket sig betydelig opmærksomhed, herunder den udbredte påstand om, at AI har fået "lovlig tilladelse til at praktisere medicin" i USA. Fortolket bogstaveligt er denne påstand unøjagtig. Intet lægeråd har licenseret en maskine. Ingen algoritme har svoret en ed, accepteret fiduciær pligt eller påtaget sig personligt ansvar for patientskade. Ingen robotlæge åbner en klinik, fakturerer forsikringsselskaber eller står for en jury for fejlbehandling.
Men hvis man stopper ved denne observation, overses det bredere problem. Juridiske begreber om ansvar bliver i øjeblikket omdefineret, ofte uden offentlighedens bevidsthed.
En betydelig transformation er i gang, som kræver mere end enten refleksiv afvisning eller ukritisk teknologisk entusiasme. Den nuværende udvikling er ikke licensering af kunstig intelligens som læge, men snarere en gradvis erosion af lægevidenskabens kernegrænse: den iboende forbindelse mellem klinisk dømmekraft og menneskelig ansvarlighed. Klinisk dømmekraft indebærer at træffe informerede beslutninger, der er skræddersyet til hver patients unikke behov og omstændigheder, hvilket kræver empati, intuition og en dyb forståelse af medicinsk etik.
Menneskelig ansvarlighed refererer til det ansvar, som sundhedsudbydere påtager sig for disse beslutninger og deres resultater. Denne udhuling er ikke et resultat af dramatisk lovgivning eller offentlig debat, men sker stille og roligt gennem pilotprogrammer, lovgivningsmæssige genfortolkninger og sprog, der bevidst tilslører ansvaret. Når denne grænse opløses, transformeres medicinen på måder, der er vanskelige at vende om.
Hovedbekymringen er ikke, om AI kan genopfylde recepter eller spotte unormale laboratorieresultater. Medicin har længe brugt værktøjer, og sundhedsudbydere byder generelt velkommen til hjælp, der reducerer administrative opgaver eller forbedrer mønstergenkendelse. Det virkelige spørgsmål er, om medicinsk dømmekraft – at træffe beslutninger om de rigtige handlinger, patienter og risici – kan ses som et computergenereret resultat adskilt fra moralsk ansvar. Historisk set har bestræbelser på at afbryde dømmekraft fra ansvarlighed ofte forårsaget skade uden at tage ejerskab.
Den seneste udvikling afklarer årsagerne til den nuværende forvirring. I flere stater giver begrænsede pilotprogrammer nu AI-drevne systemer mulighed for at hjælpe med receptfornyelser for stabile kroniske lidelser under snævert definerede protokoller. På føderalt niveau har lovforslag overvejet, om kunstig intelligens kan kvalificere som en "praktiserende læge" til specifikke lovmæssige formål, forudsat at den er passende reguleret. Disse initiativer præsenteres typisk som pragmatiske svar på lægemangel, forsinkelser i adgang og administrativ ineffektivitet. Selvom ingen eksplicit betegner AI som en læge, normaliserer de samlet set den mere bekymrende præmis om, at medicinske handlinger kan finde sted uden en klart identificerbar menneskelig beslutningstager.
I praksis er denne sondring fundamental. Medicin defineres ikke ved den mekaniske udførelse af opgaver, men ved tildeling af ansvar, når resultaterne er ugunstige. At skrive en recept er ligetil; at acceptere ansvar for dens konsekvenser – især når man tager højde for komorbiditeter, social kontekst, patientværdier eller ufuldstændig information – er langt mere komplekst. Gennem min karriere har dette ansvar løbende ligget hos et menneske, der kunne blive stillet spørgsmålstegn ved, udfordret, korrigeret og holdt ansvarlig. Når Dr. Smith begår en fejl, ved familien, hvem de skal kontakte, hvilket sikrer en direkte linje til menneskelig ansvarlighed. Ingen algoritme, uanset sofistikering, kan opfylde denne rolle.
Den primære risiko er ikke teknologisk, men regulatorisk og filosofisk. Denne overgang repræsenterer et skift fra dydsetik til proceduralisme. Når lovgivere og institutioner omdefinerer medicinsk beslutningstagning som en funktion af systemer snarere end personlige handlinger, ændrer den moralske ramme for medicin sig. Ansvarlighed bliver diffus, skade er vanskeligere at tilskrive, og ansvaret flyttes fra klinikere til processer, fra dømmekraft til protokoloverholdelse. Når fejl uundgåeligt opstår, bliver den fremherskende forklaring, at 'systemet fulgte etablerede retningslinjer'. Anerkendelsen af denne overgang tydeliggør skiftet fra individualiseret etisk beslutningstagning til mekaniseret proceduremæssig overholdelse.
Denne bekymring er ikke teoretisk. Moderne sundhedspleje står allerede over for udfordringer relateret til udvandet ansvarlighed. Jeg har observeret patienter, der er blevet skadet af algoritmedrevne beslutninger, blive fortabt blandt administratorer, leverandører og uigennemsigtige modeller, uden et klart svar på det grundlæggende spørgsmål: Hvem traf denne beslutning? Kunstig intelligens accelererer dette problem betydeligt. En algoritme kan ikke give moralske forklaringer, udvise tilbageholdenhed baseret på samvittighed, afvise handlinger på grund af etiske bekymringer eller indrømme fejl over for en patient eller familie.
Fortalere for øget AI-autonomi nævner ofte effektivitet som begrundelse. Klinikker er overbelastede, læger oplever udbrændthed, og patienter venter ofte i måneder på behandling, der kun burde tage få minutter. Disse bekymringer er legitime, og enhver ærlig kliniker anerkender dem. Effektivitet alene retfærdiggør dog ikke en ændring af det etiske grundlag for medicin. Systemer, der er optimeret til hastighed og skala, ofrer ofte nuance, diskretion og individuel værdighed. Historisk set har medicin modstået denne tendens ved at understrege, at behandling fundamentalt set er en relation snarere end en transaktion.
Kunstig intelligens risikerer at vende dette forhold på hovedet. Når systemer snarere end individer leverer pleje, er patienten ikke længere engageret i en aftale med en kliniker, men bliver en del af en arbejdsgang. Lægen påtager sig rollen som maskinleder eller, mere bekymrende, fungerer som en juridisk buffer, der absorberer ansvar for beslutninger, der ikke personligt er truffet. Med tiden viger klinisk dømmekraft for protokoloverholdelse, og moralsk handlekraft mindskes gradvist.
AI introducerer også et mere subtilt og farligt problem: maskeringen af usikkerhed. Medicin lever i tvetydighed. Evidens er probabilistisk. Retningslinjer er foreløbige. Patienter præsenteres sjældent som rene datasæt. Klinikere er trænet ikke blot til at handle, men til at tøve – til at genkende, hvornår information er utilstrækkelig, hvornår intervention kan forårsage mere skade end gavn, eller hvornår den rette fremgangsmåde er at vente. Forestil dig et scenarie, hvor AI'en anbefaler udskrivelse, men patientens ægtefælle virker frygtsom, hvilket fremhæver spændingen mellem algoritmisk beslutningstagning og menneskelig intuition. Sådan friktion i den virkelige verden understreger, hvor stor tvetydigheden er på spil.
AI-systemer oplever ikke usikkerhed; de genererer output. Når de er forkerte, gør de det ofte med uberettiget tillid. Denne egenskab er ikke en programmeringsfejl, men et iboende træk ved statistisk modellering. I modsætning til erfarne klinikere, der åbent udtrykker tvivl, kan store sprogmodeller og maskinlæringssystemer ikke genkende deres egne begrænsninger. De producerer plausible svar, selv når dataene er utilstrækkelige. Inden for medicin kan plausibilitet uden dokumentation være farlig.
Efterhånden som disse systemer integreres tidligere i kliniske arbejdsgange, påvirker deres output i stigende grad efterfølgende beslutninger. Med tiden kan klinikere begynde at stole på anbefalinger, ikke på grund af deres gyldighed, men fordi de er blevet normaliserede. Vurderingen skifter gradvist fra aktiv ræsonnement til passiv accept. Under sådanne omstændigheder tjener "menneske-i-løkken" kun som en symbolsk sikkerhedsforanstaltning.
Fortalere hævder ofte, at AI kun vil "forstærke" klinikere snarere end at erstatte dem. Denne forsikring er dog svag. Når AI viser effektivitetsgevinster, har økonomisk og institutionelt pres en tendens til at føre til øget autonomi. Hvis et system sikkert kan genopfylde recepter, kan det snart få tilladelse til at initiere dem. Hvis det præcist kan diagnosticere almindelige tilstande, sættes der spørgsmålstegn ved nødvendigheden af lægelig gennemgang. Hvis det overgår mennesker i kontrollerede benchmarks, mindskes tolerancen for menneskelig variabilitet.
I betragtning af disse tendenser er implementering af specifikke sikkerhedsforanstaltninger afgørende. For eksempel kan obligatoriske uoverensstemmelsesrevisioner på 5 % af AI-drevne beslutninger tjene som en konkret kontrol, der sikrer overensstemmelse mellem AI-anbefalinger og menneskelig klinisk vurdering, samtidig med at det giver tilsynsmyndigheder og hospitalsbestyrelser brugbare målinger til at overvåge AI-integration.
Disse spørgsmål stilles ikke med ondsindet hensigt; de opstår naturligt i systemer med fokus på omkostningsbegrænsning og skalerbarhed. De peger dog på en fremtid, hvor menneskelig dømmekraft bliver undtagelsen snarere end normen. I et sådant scenarie vil personer med ressourcer fortsat modtage menneskelig pleje, mens andre styres gennem automatiserede processer. Todelt medicin vil ikke være et resultat af ideologi, men af optimering.
Det, der gør dette øjeblik særligt usikkert, er manglen på klare ansvarslinjer. Når en AI-drevet beslutning skader en patient, hvem er så ansvarlig? Er det klinikeren, der nominelt fører tilsyn med systemet? Den institution, der implementerede det? Leverandøren, der trænede modellen? Regulatoren, der godkendte dens brug? Uden eksplicitte svar fordamper ansvaret. Og når ansvaret fordamper, følger tilliden hurtigt.
Medicin er fundamentalt afhængig af tillid. Patienter lægger deres kroppe, frygt og ofte deres liv i hænderne på klinikere. Denne tillid kan ikke overføres til en algoritme, uanset dens sofistikerede karakter. Den er baseret på sikkerheden for, at et menneske er til stede – en person, der er i stand til at lytte, tilpasse sig og være ansvarlig for sine handlinger.
Det er unødvendigt helt at afvise kunstig intelligens. Når den bruges fornuftigt, kan kunstig intelligens reducere administrative byrder, identificere mønstre, der kan undgå menneskelig opdagelse, og understøtte klinisk beslutningstagning. Det kan gøre det muligt for læger at bruge mere tid på patientpleje i stedet for administrative opgaver. At realisere denne fremtid kræver dog en klar forpligtelse til at bevare menneskeligt ansvar i centrum for lægepraksis.
'Human-in-the-loop' skal betyde mere end symbolsk tilsyn. Det bør kræve, at en specifik person er ansvarlig for hver medicinsk beslutning, forstår dens begrundelse og bevarer både autoriteten og forpligtelsen til at tilsidesætte algoritmiske anbefalinger. Det skal også omfatte gennemsigtighed, forklarlighed og informeret patientsamtykke, samt en forpligtelse til at investere i menneskelige klinikere i stedet for at erstatte dem med kunstig intelligens.
Den primære risiko er ikke den overdrevne magt af kunstig intelligens, men snarere institutionernes villighed til at fralægge sig ansvar. I jagten på effektivitet og innovation er der en fare for, at medicin bliver et teknisk avanceret, administrativt strømlinet felt, der dog mangler moralsk substans.
Når vi ser på fremtiden, er det vigtigt at spørge: Hvilken slags healer forestiller vi os ved vores sygeseng i 2035? Dette spørgsmål opfordrer til kollektiv moralsk fantasi og opfordrer os til at forme en fremtid, hvor menneskelig ansvarlighed og medfølende omsorg forbliver i centrum for lægepraksis. Mobilisering af kollektiv handlekraft vil være afgørende for at sikre, at fremskridt inden for kunstig intelligens styrker, snarere end underminerer, disse grundlæggende værdier.
Kunstig intelligens har ikke fået licens til at praktisere medicin. Men medicin bliver stille og roligt omstruktureret omkring systemer, der ikke bærer moralsk vægt. Hvis den proces fortsætter uhæmmet, kan vi en dag opdage, at lægen ikke er blevet erstattet af en maskine, men af en protokol – og at når der sker skade, er der ingen tilbage til at stå til ansvar for den.
Det ville ikke være fremskridt. Det ville være en abdikation.
-
Joseph Varon, læge, er intensivlæge, professor og præsident for Independent Medical Alliance. Han har skrevet over 980 fagfællebedømte publikationer og er chefredaktør for Journal of Independent Medicine.
Vis alle indlæg