MEGOSZTÁS | NYOMTATÁS | EMAIL
A Covid előtt technológiai optimistának neveztem volna magam. Az új technológiák szinte mindig eltúlzott félelmek közepette jelennek meg. A vasutakról azt tartották, hogy mentális összeomlásokat okoznak, a kerékpárokról azt gondolták, hogy meddővé vagy őrültté teszik a nőket, a korai elektromosságot pedig mindenért okolták az erkölcsi hanyatlástól a fizikai összeomlásig. Idővel ezek a szorongások elmúltak, a társadalmak alkalmazkodtak, és az életszínvonal emelkedett. A minta elég ismerős volt ahhoz, hogy a mesterséges intelligencia valószínűleg kövesse azt: zavaró, néha rosszul használt, de végül kezelhető.
A Covid-évek megingatták ezt a bizalmat – nem azért, mert a technológia kudarcot vallott, hanem azért, mert az intézmények.
A világ nagy részén a kormányok és szakértői testületek példátlan társadalmi és biomedicinális beavatkozásokkal reagáltak a bizonytalanságra, amelyeket a legrosszabb esetre vonatkozó modellekkel igazoltak, és figyelemre méltó bizonyossággal érvényesítettek. A versengő hipotéziseket inkább háttérbe szorították, mintsem megvitatták. A vészhelyzeti intézkedések hosszú távú politikává szilárdultak. Amikor a bizonyítékok megváltoztak, a hibák beismerése ritka volt, és az elszámoltathatóság még ritkább. A tapasztalat mélyebb problémát tárt fel, mint egyetlen politikai hiba: a modern intézmények látszólag rosszul felszereltek a bizonytalanság túlzott mértékű kezelésére.
Ez a tanulság most komoly súllyal esik latba a mesterséges intelligenciáról szóló vitákban.
A mesterséges intelligencia kockázati megosztottsága
Általánosságban elmondható, hogy a fejlett mesterséges intelligenciával kapcsolatos aggodalmak két táborra oszlanak. Az egyik csoport – olyan gondolkodókhoz köthető, mint Eliezer Yudkowsky és Nate Soares – azt állítja, hogy a kellően fejlett mesterséges intelligencia alapértelmezés szerint katasztrofálisan veszélyes. Szándékosan nyers megfogalmazásukban, Ha valaki megépíti, mindenki meghalA probléma nem a rossz szándék, hanem az ösztönzők: a verseny biztosítja, hogy valaki spóroljon a költségeken, és ha egy rendszer kikerül az érdemi kontroll alól, a szándékok már nem számítanak.
Egy másik tábor, amelyben olyan személyiségek szerepelnek, mint Stuart Russell, Nick Bostrom és Max Tegmark, szintén komolyan veszi a mesterséges intelligencia kockázatát, de optimistábbak abban, hogy az összehangolás, a gondos irányítás és a fokozatos telepítés emberi ellenőrzés alatt tarthatja a rendszereket.
A különbségek ellenére mindkét tábor egyetért egy következtetésben: a korlátozás nélküli mesterséges intelligencia fejlesztése veszélyes, és valamilyen felügyelet, koordináció vagy korlátozás szükséges. Ahol eltérnek a vélemények, az a megvalósíthatóság és a sürgősség. Azt azonban ritkán vizsgálják, hogy azok az intézmények, amelyektől elvárják ezt a korlátozást, maguk is alkalmasak-e a szerepre.
A Covid okot ad a kételyekre.
A Covid nem pusztán közegészségügyi válság volt; egy élő kísérlet a szakértők által vezérelt kormányzásban bizonytalan körülmények között. A hiányos adatokkal szembesülve a hatóságok ismételten a spekulatív károkkal indokolt maximális beavatkozásokat választották. Az ellenvéleményt gyakran erkölcsi kudarcként, nem pedig tudományos szükségszerűségként kezelték. A politikákat nem átlátható költség-haszon elemzéssel, hanem a tekintélyre való hivatkozással és a hipotetikus jövőktől való félelemmel védték.
Ez a minta azért fontos, mert rávilágít arra, hogyan viselkednek a modern intézmények, amikor a téteket egzisztenciálisként fogalmazzák meg. Az ösztönzők a határozottság, a narratív kontroll és az erkölcsi bizonyosság felé tolódnak el. A hibák kijavítása a hírnév szempontjából költségessé válik. Az elővigyázatosság megszűnik eszköz lenni, és doktrínává válik.
A tanulság nem az, hogy a szakértőknek egyedülálló hibáik vannak. Hanem az, hogy az intézmények sokkal megbízhatóbban jutalmazzák a túlzott önbizalmat, mint az alázatot, különösen akkor, ha a politika, a finanszírozás és a közvélemény félelmei egybeesnek. Ha egyszer a biztonság nevében rendkívüli hatalmat igényelnek, ritkán adják fel azt önként.
Pontosan ezek a dinamika látszik most a mesterséges intelligencia felügyeletével kapcsolatos vitákban.
A „mi lett volna, ha…” gép
Az expanzív állami beavatkozás visszatérő igazolása a hipotetikus rossz szereplő: Mi van, ha egy terrorista építi ezt? Mi van, ha egy lázadó állam teszi ezt? Ebből az előfeltevésből fakad az az érv, hogy a kormányoknak megelőző jelleggel, nagy léptékben és gyakran titokban kell cselekedniük a katasztrófa megelőzése érdekében.
A Covid idején hasonló logika indokolta az átfogó biomedicinális kutatási programokat, a vészhelyzeti engedélyezéseket és a társadalmi ellenőrzéseket. Az érvelés körkörös volt: mert valami veszélyes esetleg Ha ez megtörténik, az államnak most rendkívüli intézkedéseket kell tennie – olyan intézkedéseket, amelyek önmagukban is jelentős, kevéssé ismert kockázatokkal jártak.
A mesterséges intelligencia irányítását egyre inkább hasonló módon fogalmazzák meg. A veszély nemcsak az, hogy a mesterséges intelligenciarendszerek kiszámíthatatlanul viselkedhetnek, hanem az is, hogy az ettől való félelem legitimálja az állandó vészhelyzeti irányítást – a számítás, a kutatás és az információáramlás feletti központosított ellenőrzést – azon az alapon, hogy nincs más alternatíva.
Magánkockázat, közkockázat
Egyetlen, ezekben a vitákban alulértékelt különbségtételt találunk a magánszereplők által generált kockázatok és az állami hatalom által generált kockázatok között. A magáncégeket – tökéletlenül, de értelmesen – korlátozza a felelősség, a verseny, a hírnév és a piaci fegyelem. Ezek a korlátozások nem szüntetik meg a károkat, de visszacsatolási hurkokat hoznak létre.
A kormányok másképp működnek. Amikor az államok a katasztrófamegelőzés nevében cselekszenek, a visszacsatolás gyengül. A kudarcok átminősíthetők szükségszerűségekké. A költségek kiszervezhetők. A titkolózás a biztonsággal igazolható. A hipotetikus jövőbeli károk a jelenben politikai eszközökké válnak.
Számos mesterséges intelligencia-gondolkodó elismeri ezt burkoltan. Bostrom figyelmeztetett a „beragadási” hatásokra – nemcsak a mesterséges intelligencia-rendszerek, hanem a pánik pillanataiban létrehozott irányítási struktúrák esetében is. Anthony Aguirre globális önmérsékletre irányuló felhívása, bár logikailag koherens, olyan nemzetközi koordinációs testületekre támaszkodik, amelyek legutóbbi eredményei az alázat és a hibajavítás terén gyengek. Még a mérsékeltebb javaslatok is feltételezik, hogy a szabályozók képesek ellenállni a politizálásnak és a küldetésbeli kúszásnak.
A Covid kevés okot ad arra, hogy bízzunk ebben a feltételezésben.
A felügyelet paradoxona
Ez egy nyugtalanító paradoxonhoz vezet a mesterséges intelligencia vita középpontjában. Ha valaki őszintén hiszi, hogy a fejlett mesterséges intelligenciát korlátozni, lassítani vagy megállítani kell, akkor a kormányok és a transznacionális intézmények azok, amelyeknek a legnagyobb valószínűséggel van hatalmuk erre. Mégis pontosan azok a szereplők, akiknek a legutóbbi viselkedése a legkevésbé ad bizalmat e hatalom visszafogott, visszafordítható használatában.
A vészhelyzeti keretrendszer nehezen megfogható. A hipotetikus kockázatok kezelésére megszerzett tekintély általában fennmarad és bővül. Az intézmények ritkán tekintik kisebb jelentőségűnek saját magukat. A mesterséges intelligencia kontextusában ez felveti annak a lehetőségét, hogy a mesterséges intelligencia kockázatára adott válasz törékeny, politizált kontrollrendszereket mélyít el, amelyeket nehezebb feloldani, mint bármely egyedi technológiát.
A veszély tehát nemcsak az, hogy a mesterséges intelligencia kicsúszik az emberi kontroll alól, hanem az is, hogy a mesterséges intelligenciától való félelem felgyorsítja a hatalom koncentrációját azokban az intézményekben, amelyekről már bebizonyosodott, hogy lassan ismerik el a hibákat, és ellenségesen viszonyulnak az ellenvéleményhez.
A valódi kockázat újragondolása
Ez nem az MI-vel kapcsolatos önelégültség melletti érv, és nem is annak tagadása, hogy a nagy teljesítményű technológiák valódi kárt okozhatnak. Ez egy érv a keret kiszélesítése mellett. Az intézményi kudarc önmagában is egzisztenciális változó. Egy olyan rendszer, amely jóindulatú, önmagát korrigáló kormányzást feltételez, nem biztonságosabb, mint egy olyan, amely jóindulatú, összehangolt szuperintelligenciát feltételez.
A Covid előtt ésszerű volt a technológiai pesszimizmus nagy részét az emberi negativitás elfogultságának tulajdonítani – annak a hajlamnak, hogy azt higgyék, generációnk kihívásai egyedülállóan kezelhetetlenek. A Covid után a szkepticizmus kevésbé tűnik elfogultságnak, és inkább tapasztalatnak.
A mesterséges intelligenciáról szóló vita központi kérdése tehát nem csupán az, hogy a gépek összhangban lehetnek-e az emberi értékekkel, hanem az is, hogy megbízhatunk-e a modern intézményekben abban, hogy a bizonytalanságot anélkül kezelik, hogy felerősítenék azt. Ha ez a bizalom megkopott – és a Covid ezt sugallja –, akkor a kiterjedt mesterséges intelligencia-felügyelet iránti igények legalább akkora figyelmet érdemelnek, mint a technológiai elkerülhetetlenségre vonatkozó állítások.
A legnagyobb kockázat talán nem az, hogy a mesterséges intelligencia túl erőssé válik, hanem az, hogy ettől a lehetőségtől való félelem igazolja az olyan kontrollformákat, amelyekkel később sokkal nehezebb együtt élni – vagy amelyektől elmenekülni.
-
Roger Bate Brownstone-ösztöndíjas, a Nemzetközi Jogi és Gazdasági Központ vezető munkatársa (2023. január – napjainkig), az Africa Fighting Malaria igazgatósági tagja (2000. szeptember – napjainkig), valamint a Gazdasági Ügyek Intézetének munkatársa (2000. január – napjainkig).
Mind hozzászólás