MEGOSZTÁS | NYOMTATÁS | EMAIL
Orvosi tapasztalatom lehetővé teszi számomra, hogy különbséget tegyek a valódi innováció és a látszólag változatlannak tűnő, alapvetően megváltoztató finom átsorolás között. A mesterséges intelligencia az utóbbi időben jelentős figyelmet kapott, beleértve azt a széles körben elterjedt állítást is, miszerint a mesterséges intelligencia „jogilag felhatalmazást kapott az orvosi gyakorlatra” az Egyesült Államokban. Szó szerint értelmezve ez az állítás pontatlan. Egyetlen orvosi bizottság sem adott ki engedélyt gépre. Egyetlen algoritmus sem tett esküt, nem vállalt bizalmi kötelezettséget, és nem vállalt személyes felelősséget a betegek káráért. Egyetlen robotorvos sem nyit klinikát, nem számláz a biztosítóknak, és nem áll műhibaügyekben eljáró esküdtszék előtt.
Azonban ha ennél a megfigyelésnél megállunk, az figyelmen kívül hagyja a tágabb problémát. A felelősség jogi fogalmait jelenleg újraértelmezik, gyakran a nyilvánosság tudatossága nélkül.
Jelentős átalakulás van folyamatban, amely többet indokol, mint reflexszerű elutasítás vagy kritikátlan technológiai lelkesedés. A jelenlegi fejlemény nem a mesterséges intelligencia orvosi engedélyezése, hanem az orvostudomány alapvető határainak fokozatos erodálódása: a klinikai ítélőképesség és az emberi elszámoltathatóság közötti belső kapcsolaté. A klinikai ítélőképesség magában foglalja a betegek egyedi igényeihez és körülményeihez igazított, megalapozott döntések meghozatalát, ami empátiát, intuíciót és az orvosi etika mélyreható megértését igényli.
Az emberi elszámoltathatóság az egészségügyi szolgáltatók által ezekért a döntésekért és azok kimeneteléért vállalt felelősségre utal. Ez az erózió nem drámai jogszabályok vagy nyilvános vita eredménye, hanem csendben történik kísérleti programok, szabályozási újraértelmezések és a felelősséget szándékosan elfedő nyelvezet révén. Amint ez a határ feloldódik, az orvostudomány olyan módon alakul át, amelyet nehéz visszafordítani.
A fő kérdés nem az, hogy a mesterséges intelligencia képes-e újraírni a recepteket, vagy kiszűrni a rendellenes laboreredményeket. Az orvostudomány régóta használ eszközöket, és az egészségügyi szolgáltatók általában örömmel fogadják azokat a segítséget, amelyek csökkentik az adminisztratív feladatokat, vagy javítják a mintázatfelismerést. A valódi kérdés az, hogy az orvosi ítélőképesség – a helyes intézkedésekről, betegekről és kockázatokról való döntés – tekinthető-e számítógép által generált, az erkölcsi felelősségtől elkülönült eredménynek. Történelmileg az ítélőképesség és a felelősségre vonás szétválasztására irányuló erőfeszítések gyakran kárt okoztak anélkül, hogy felelősséget vállaltak volna.
A legújabb fejlemények tisztázzák a jelenlegi zavar eredetét. Számos államban korlátozott kísérleti programok lehetővé teszik, hogy a mesterséges intelligencia által vezérelt rendszerek szűken meghatározott protokollok szerint segítsék a stabil krónikus betegségek receptjeinek megújítását. Szövetségi szinten a javasolt jogszabály azt vizsgálta, hogy a mesterséges intelligencia minősülhet-e „szakembernek” meghatározott törvényi célokból, feltéve, hogy megfelelően szabályozzák. Ezeket a kezdeményezéseket jellemzően pragmatikus válaszként mutatják be az orvoshiányra, a hozzáférési késedelmekre és az adminisztratív hatékonysági problémákra. Bár egyik sem nevezi meg kifejezetten orvosként a mesterséges intelligenciát, összességében normalizálják azt a még aggasztóbb feltételezést, hogy az orvosi beavatkozások egyértelműen azonosítható emberi döntéshozó nélkül is történhetnek.
A gyakorlatban ez a különbségtétel alapvető fontosságú. Az orvostudományt nem a feladatok mechanikus végrehajtása, hanem a felelősségvállalás határozza meg kedvezőtlen eredmények esetén. A recept felírása egyszerű; a következményekért való felelősségvállalás – különösen a társbetegségek, a társadalmi kontextus, a beteg értékei vagy a hiányos információk figyelembevételével – sokkal összetettebb. Pályafutásom során ez a felelősség folyamatosan egy embernél volt, akit meg lehet kérdőjelezni, meg lehet támadni, ki lehet javítani és felelősségre lehet vonni. Amikor Dr. Smith hibázik, a család tudja, kihez kell fordulnia, így biztosítva a közvetlen kapcsolatot az emberi elszámoltathatósággal. Egyetlen algoritmus sem, a kifinomultságától függetlenül, képes betölteni ezt a szerepet.
Az elsődleges kockázat nem technológiai, hanem szabályozási és filozófiai jellegű. Ez az átmenet az erényetikától a proceduralizmus felé való elmozdulást jelenti. Amikor a törvényhozók és az intézmények az orvosi döntéshozatalt a rendszerek, nem pedig a személyes cselekedetek függvényeként újraértelmezik, az orvoslás erkölcsi keretrendszere megváltozik. Az elszámoltathatóság diffúzvá válik, a kárt nehezebb tulajdonítani, és a felelősség a klinikusokról a folyamatokra, az ítélkezésről a protokoll betartására helyeződik át. Amikor elkerülhetetlenül hibák történnek, az uralkodó magyarázat az lesz, hogy „a rendszer a megállapított irányelveket követte”. Ennek az átmenetnek a felismerése tisztázza az individualizált etikai döntéshozatalról a gépesített eljárási megfelelésre való áttérést.
Ez az aggodalom nem elméleti jellegű. A kortárs egészségügy már most is kihívásokkal néz szembe a felhígult elszámoltathatóság miatt. Megfigyeltem, hogy az algoritmusvezérelt döntések által károsított betegek elvesznek az adminisztrátorok, a beszállítók és az átláthatatlan modellek között, anélkül, hogy egyértelmű válasz lenne az alapvető kérdésre: Ki hozta meg ezt a döntést? A mesterséges intelligencia jelentősen felgyorsítja ezt a problémát. Egy algoritmus nem tud erkölcsi magyarázatokat adni, lelkiismereti önmérsékleten alapuló önmérsékletet gyakorolni, etikai aggályok miatt megtagadni a cselekvést, vagy beismerni a hibát a betegnek vagy a családjának.
A mesterséges intelligencia fokozott autonómiájának hívei gyakran a hatékonyságot hozzák fel indoklásként. A klinikák túlterheltek, az orvosok kiégnek, és a betegek gyakran hónapokig várnak olyan ellátásra, amelynek mindössze perceket kellene igénybe vennie. Ezek az aggodalmak jogosak, és minden becsületes klinikus felismeri őket. A hatékonyság önmagában azonban nem indokolja az orvostudomány etikai alapjainak megváltoztatását. A sebességre és a méretezésre optimalizált rendszerek gyakran feláldozzák a finomhangolást, a diszkréciót és az egyéni méltóságot. Történelmileg az orvostudomány azzal állt ellen ennek a tendenciának, hogy hangsúlyozta, hogy az ellátás alapvetően kapcsolat, nem pedig tranzakció.
A mesterséges intelligencia kockáztatja, hogy felborítja ezt a kapcsolatot. Amikor a rendszerek, és nem az egyének, nyújtják az ellátást, a beteg már nem egy klinikussal kötött szövetségben áll, hanem egy munkafolyamat részévé válik. Az orvos átveszi a gépi felügyelő szerepét, vagy – ami még aggasztóbb – jogi pufferként szolgál, amely elnyeli a felelősséget a nem személyesen hozott döntésekért. Idővel a klinikai ítélőképesség átadja a helyét a protokoll betartásának, és az erkölcsi cselekvőképesség fokozatosan csökken.
A mesterséges intelligencia egy árnyaltabb és veszélyesebb problémát is felvet: a bizonytalanság elfedését. Az orvostudomány a kétértelműség birodalmában él. A bizonyítékok valószínűségiek. Az irányelvek ideiglenesek. A betegek ritkán jelennek meg tiszta adathalmazként. A klinikusokat nemcsak cselekvésre, hanem habozásra is képezik – hogy felismerjék, mikor nem elegendő az információ, mikor okozhat beavatkozás több kárt, mint hasznot, vagy mikor a helyes eljárás a várakozás. Képzeljünk el egy olyan forgatókönyvet, amelyben a mesterséges intelligencia a beteg elbocsátását javasolja, de a beteg házastársa félni látszik, ami rávilágít az algoritmikus döntéshozatal és az emberi intuíció közötti feszültségre. Az ilyen valós súrlódások kiemelik a kétértelműség tétjét.
A mesterséges intelligencia rendszerek nem tapasztalnak bizonytalanságot; kimeneteket generálnak. Amikor helytelenek, azt gyakran indokolatlan magabiztossággal teszik. Ez a jellemző nem programozási hiba, hanem a statisztikai modellezés velejárója. A tapasztalt klinikusokkal ellentétben, akik nyíltan hangot adnak kétségeiknek, a nagy nyelvi modellek és a gépi tanulási rendszerek nem ismerik fel saját korlátaikat. Hihető válaszokat produkálnak akkor is, ha az adatok nem elegendőek. Az orvostudományban a megalapozatlan hihetőség veszélyes lehet.
Ahogy ezeket a rendszereket korábban integrálják a klinikai munkafolyamatokba, kimeneteik egyre inkább befolyásolják a későbbi döntéseket. Idővel a klinikusok elkezdhetnek megbízni a javaslatokban, nem azok érvényessége, hanem azért, mert normalizálódtak. Az ítélőképesség fokozatosan az aktív érvelésről a passzív elfogadásra helyeződik át. Ilyen körülmények között az „emberi beavatkozás” nem szolgál többet szimbolikus biztosítéknál.
A szószólók gyakran állítják, hogy a mesterséges intelligencia csak „kiegészíti” a klinikusokat, nem pedig helyettesíti őket. Ez a biztosíték azonban bizonytalan. Amint a mesterséges intelligencia hatékonyságnövekedést mutat, a gazdasági és intézményi nyomás általában a nagyobb autonómiát ösztönzi. Ha egy rendszer biztonságosan képes újraírni a recepteket, hamarosan engedélyezhetik számára azok kiváltását. Ha pontosan képes diagnosztizálni a gyakori betegségeket, akkor az orvosi felülvizsgálat szükségessége megkérdőjelezhető. Ha kontrollált referenciaértékekben felülmúlja az embereket, az emberi változékonysággal szembeni tolerancia csökken.
Tekintettel ezekre a trendekre, elengedhetetlen a konkrét biztosítékok bevezetése. Például a mesterséges intelligencia által vezérelt döntések 5%-ára vonatkozó kötelező eltérés-ellenőrzések konkrét ellenőrzésként szolgálhatnak, biztosítva az összhangot a mesterséges intelligencia ajánlásai és az emberi klinikai megítélés között, miközben a szabályozó hatóságok és a kórházi igazgatótanácsok számára gyakorlatias mutatókat biztosítanak a mesterséges intelligencia integrációjának nyomon követéséhez.
Ezek a kérdések nem rosszindulatból merülnek fel; természetes módon merülnek fel a költségcsökkentésre és a skálázhatóságra összpontosító rendszerekben. Ugyanakkor egy olyan jövőt jeleznek, ahol az emberi ítélőképesség inkább kivétellé, mint normává válik. Ilyen forgatókönyvben az erőforrásokkal rendelkező egyének továbbra is emberi ellátásban részesülnek, míg másokat automatizált folyamatok irányítanak. A kétszintű orvoslás nem ideológiából, hanem optimalizálásból fog születni.
Ami ezt a pillanatot különösen bizonytalanná teszi, az a világos elszámoltathatósági vonalak hiánya. Amikor egy mesterséges intelligencia által vezérelt döntés kárt okoz egy betegnek, ki a felelős? Névlegesen a klinikus felügyeli a rendszert? Az intézmény, amely bevezette? Az a szállító, amely betanította a modellt? A szabályozó hatóság, amely jóváhagyta a használatát? Kifejezett válaszok nélkül a felelősség elpárolog. És amikor a felelősség elpárolog, a bizalom hamarosan követi.
Az orvostudomány alapvetően a bizalomra támaszkodik. A betegek testüket, félelmeiket és gyakran az életüket is a klinikusok kezébe adják. Ez a bizalom nem vihető át egy algoritmusra, függetlenül annak kifinomultságától. Abban a bizonyosságban gyökerezik, hogy egy emberi lény van jelen – valaki, aki képes meghallgatni, alkalmazkodni és felelősséget vállalni a tetteiért.
A mesterséges intelligencia teljes elutasítása felesleges. Megfontolt alkalmazás esetén a mesterséges intelligencia csökkentheti az adminisztratív terheket, azonosíthatja az emberi észlelés alól kimaradt mintázatokat, és támogathatja a klinikai döntéshozatalt. Lehetővé teheti az orvosok számára, hogy több időt szenteljenek a betegellátásnak az adminisztratív feladatok helyett. Ennek a jövőnek a megvalósításához azonban egyértelmű elkötelezettségre van szükség az emberi felelősségvállalás fenntartása mellett az orvosi gyakorlat középpontjában.
Az „emberi részvétel a folyamatban” elvének többet kell jelentenie, mint szimbolikus felügyeletet. Meg kell követelnie, hogy minden egyes orvosi döntésért egy adott személy felelős legyen, megértse annak indoklását, és megtartsa mind a jogkörét, mind a kötelezettségét az algoritmikus ajánlások felülbírálására. Magában kell foglalnia az átláthatóságot, a megmagyarázhatóságot és a betegek tájékozott beleegyezését, valamint az emberi klinikusokba való befektetés iránti elkötelezettséget a mesterséges intelligenciával való helyettesítésük helyett.
Az elsődleges kockázat nem a mesterséges intelligencia túlzott ereje, hanem inkább az intézmények hajlandósága a felelősség áthárítására. A hatékonyság és az innováció hajszolása során fennáll annak a veszélye, hogy az orvostudomány egy technikailag fejlett, adminisztratívlag leegyszerűsített, mégis erkölcsileg megalapozott területté válik.
A jövőre tekintve elengedhetetlen a kérdés: Milyen gyógyítót képzelünk el az ágy mellett 2035-ben? Ez a kérdés kollektív erkölcsi képzelőerőt igényel, amely arra ösztönöz minket, hogy olyan jövőt alakítsunk, ahol az emberi felelősségvállalás és az együttérző gondoskodás az orvosi gyakorlat középpontjában marad. A kollektív cselekvőképesség mozgósítása kulcsfontosságú lesz annak biztosításához, hogy a mesterséges intelligencia fejlődése erősítse, ne pedig aláássa ezeket az alapvető értékeket.
A mesterséges intelligencia nem kapott orvosi engedélyt. Az orvostudományt azonban csendben átszervezik olyan rendszerek köré, amelyeknek nincs erkölcsi súlyuk. Ha ez a folyamat ellenőrizetlenül folytatódik, egy napon rájöhetünk, hogy az orvost nem egy gép, hanem egy protokoll váltotta fel – és amikor baj történik, nincs senki, aki felelősségre vonhatná.
Az nem lenne előrelépés. Ez lemondás lenne.
-
Dr. Joseph Varon, kritikus ellátásban részt vevő orvos, professzor és a Független Orvosi Szövetség elnöke. Több mint 980 lektorált publikáció szerzője, és a Journal of Independent Medicine főszerkesztője.
Mind hozzászólás