Idén májusban számos terület szakértői gyűltek össze Montenegróban, hogy körbejárják az „Egzisztenciális veszélyek és egyéb katasztrófák: hogyan kezeljük őket” témát. Az „egzisztenciális kockázat” kifejezést Nick Bostrom svéd filozófus egy 2002-es esszéjében vezette be, és meghatározása szerint azokat a kockázatokat fedte le vele, amelyek „kedvezőtlen kimenet esetén képesek megsemmisíteni a földi eredetű intelligens életet, vagy véglegesen és drasztikusan csökkenthetik annak lehetőségeit”.
Túléli-e az emberiség a következő száz esztendőt?
Az egzisztenciális kockázatok és más katasztrófák közötti különbségtétel megértéséhez mérlegeljük egy pillanatra az éghajlatváltozást. Egyes forgatókönyvek szerint az elszabadult globális felmelegedés következtében a Föld nagy része túl meleg lesz az emberi élet számára, de az Antarktisz, valamint Európa, Ázsia és Észak-Amerika néhány északi régiója lakhatóvá válna.
Ez csökkentené az intelligens élet lehetőségét a Földön, talán évezredekre, de végül a bolygó lehűlne, és a túlélők leszármazottai újra benépesítenék. Ha ezek valóban a legrosszabb forgatókönyvek, akkor az éghajlatváltozás, bármilyen katasztrofális következményekkel is járjon, nem egzisztenciális kockázat.
Persze az is igaz, hogy ha egy katasztrófa súlyossága egyenesen arányos az általa elpusztított emberek számával, akkor nem is tűnik olyan nagynak a különbség egy a Föld csaknem teljes népességét elpusztító katasztrófa és egy olyan esemény között, amely a kihalásunkhoz vezet. Az egzisztenciális kockázatok miatt aggódó számos filozófus számára azonban ez a megközelítés elfogadhatatlan, mivel nem veszi figyelembe azt a rengeteg embert, akik akkor születnének meg, ha fajunk még hosszú ideig fennmaradna, de ez nem történne meg, ha a Homo sapiens kihalna.
A montenegrói konferencia a címében is szereplő „egyéb katasztrófákra” reflektálva nem korlátozódott pusztán az egzisztenciális kockázatokra, de a vita nagy része ezekről szólt. A konferencia utolsó ülésszakának közeledtével a résztvevők egy része úgy érezte, hogy az általunk megvitatott kérdések olyan súlyosak, egyszersmind annyira elhanyagoltak, hogy fel kellene hívnunk a közvélemény és a kormányok figyelmét a témára. Szóba került egy ilyen nyilatkozat általános tartalma, jómagam pedig tagja voltam annak a szűkebb csoportnak, amelyet a nyilatkozat megfogalmazásával megbíztak.
A nyilatkozat leszögezi, hogy az emberiség túlélését komoly kockázatok fenyegetik, legtöbbjük pedig emberi tevékenység eredménye: vagy szándékos tevékenységé, mint például a bioterrorizmus, vagy akaratlan eredménye a tetteinknek, mint például az éghajlatváltozás, de ide sorolhatjuk egy olyan mesterséges szuperintelligencia létrehozásának a kockázatát is, amely nem lesz összhangban az emberi értékeinkkel. Ezeket a kockázatokat – folytatja a nyilatkozat – a kormányok nem kezelik olyan komoly vagy sürgető problémaként, mint ahogy megérdemelnék.
A nyilatkozat a maga álláspontját két olyan tétellel támasztja alá, amelyeket Toby Ord (ausztrál filozófus, az Oxfordi Egyetem kutatója – a szerk megj.) fogalmazott meg 2020-as könyvében (The Precipice). Ord 16-17%-ra (vagyis 1:6-hoz) becsülte annak a valószínűségét, hogy fajunk kihal a következő 100 évben. Becslése szerint azok az eszközök, melyeket az emberiség az e kockázat csökkentését célzó beavatkozásokra költ, a világ GDP-jének kevesebb mint 0,001%-át teszik ki.
Egy idén júliusban megjelent frissítésben Ord azt mondja: az új bizonyítékok tükrében a legszélsőségesebb éghajlatváltozási forgatókönyvek valószínűtlennek tűnnek, ezért a klímakatasztrófa jelentette egzisztenciális kockázat kisebb, mint azt 2020-ban gondolta. Másrészt viszont az ukrajnai háború azt jelenti, hogy nőtt a kihalásunkat okozó nukleáris háború kockázata, míg a szuperintelligens mesterséges intelligencia és a világjárványok kockázata szerinte bizonyos szempontból alacsonyabb, más szempontból pedig magasabb. Ord úgy látja, hogy a chatbotokra való összpontosítás kevésbé veszélyes irányba tereli az MI-t, ugyanakkor azzal számol, hogy a fejlett mesterséges általános intelligencia létrehozásáért folyó verseny fokozódásával a mesterséges intelligencia biztonsága terén valószínűleg még éles kanyarokhoz érünk.
Összességében Ord nem változtatott a becslésén – hangsúlyozva, hogy nagyon durva becslésről van szó –, mely szerint 1:6-hoz annak az esélye, hogy fajunk nem éli túl a következő 100 esztendőt. Üdvözli, hogy világszerte megnövekedett az érdeklődés a kihalás kockázatának csökkentése iránt, pozitív példaként hozza fel, hogy a téma bekerült az ENSZ főtitkárának 2021-es jelentésébe, továbbá előtérbe került a világ korábbi befolyásos vezetőiből álló, The Elders („A Vének”) néven ismert nemzetközi szervezet napirendjén.
A montenegrói nyilatkozat arra szólítja fel a kormányokat, hogy működjenek együtt az egzisztenciális katasztrófák megelőzése érdekében, és különösen a jómódban élő országok kormányait sürgeti, hogy fordítsanak „jelentős erőforrásokat” az emberi kihalás kockázatának a csökkentésére. Bár a nyilatkozat nem pontosítja, mit jelent a „jelentős” ebben az összefüggésben, Ord másutt a globális GDP 1%-ának megfelelő kötelezettségvállalást javasolt az extinkciós kockázat csökkentése érdekében. Ez ezerszer több, mint ami a 2020-as becslésében szerepelt, vagyis hogy a kormányok négy éve ennyit szántak erre a célra. Ugyanakkor nehéz lenne azon vitatkozni, hogy ez túl sok, ha a pusztulásunk a másik lehetőség.
Peter Singer
A szerző filozófus, a Princeton University emeritus professzora, szakterülete a bioetika
©Project Syndicate
Támogassa az ujszo.com-ot
A támogatásoknak köszönhetöen számos projektet tudtunk indítani az utóbbi években, cikkeink pedig továbbra is ingyenesen olvashatóak. Támogass minket, hogy továbbra is függetlenek maradhassunk!
Kérjük a kommentelőket, hogy tartózkodjanak az olyan kommentek megírásától, melyek mások személyiségi jogait sérthetik.