Itt a mesterséges intelligencia első halálos áldozata: egy katonai légiforgalom-irányító, akivel a saját drónja végzett tesztelés közben. Valamit félrenyomkodtak. Az MI tévedhet, hiszen még a tanulási fázisban van, és bár rendkívül gyorsan tanul, ha valamit nem tud, összevissza kamuzik. A saját kezelőjére azonban még nem támadt rá, egészen mostanáig. Nézzük, mi is történt.
Apa, kezdodik!
Az amerikai hadsereg szimulációs gyakorlata során egy mesterséges intelligenciával felszerelt drón megölte az irányítóját, hogy mindenképp végrehajtsa, amit kértek tőle. Azt a feladatot kapta, hogy semmisítse meg az ellenség légvédelmi rendszerét, és támadjon bárkit, aki meg akarja ezt akadályozni. A rendszert úgy alakították ki, hogy az emberé legyen az utolsó szó, azaz a toronyból érkezzen a megerősítés, hogy mehet-e a támadás vagy sem. A tanulás során azonban az MI azt „tapasztalta”, hogy a megerősítést jelentő pontokat az ellenséges célpontok megsemmisítéséért kapja, az emberi kezelő pedig többször is akadályozza őt ebben. És bár arra tanították, hogy soha ne ölje meg a kezelőjét, mert akkor pontokat veszít, mégis a torony ellen fordult, ahonnan a kezelő kommunikált vele – ezúttal azt, hogy egyes célpontokat ne semmisítsen meg.
Ma már minden szakértő az MI és az etika kapcsolatának hiányáról beszél, egyre ijedtebben, és maguk a fejlesztők kongatják leghangosabban a vészharangot. A robotnak ugyanis nincs „lelke”, azaz etikus, humánus, hűséges, igazságos, bajtársias sem lehet. Egyelőre. Ha majd ezeket a dolgokat is sikerül megtanítanunk neki, akkor talán nem szabadul el a pokol – vélik sokan. De legalább ugyanannyian úgy látják, elveszíthetjük a kontrollt a gépek felett, ha lelket adunk nekik.
Május végén több mint háromszázötven tudós és technológiai vezető közös nyilatkozatban jelentette ki, hogy a mesterséges intelligencia olyan mértékű kihalási kockázatot jelent az emberiség számára, mint a világjárványok vagy az atomháború. Az aláírók között voltak a ChatGPT, az OpenAI és a Google vezetői is.
Az amerikai légierő többek között az F–16-os vadászgépekbe kezdett el mesterséges intelligenciára alapuló rendszereket beépíteni. Ez örökre meg fogja változtatni a hadseregeket, és persze a társadalmat. De mivel ezeket a rendszereket könnyű becsapni vagy manipulálni, jobban kellene értenünk, hogy a szoftver miért hoz meg bizonyos döntéseket.
A végére hagytam a feloldást, mert van lelkem: a katonai gyakorlat és a gyilkosság is virtuális volt, nem élesben ment, azaz senki nem halt meg. A teljes kudarccal végződött esetről egy konferencián beszélt egy tesztelő pilóta, csak úgy mellékesen. De talán nem véletlen, hogy az amerikai légierő nem hajlandó nyilatkozni a sajtónak az üggyel kapcsolatban...
Támogassa az ujszo.com-ot
A támogatásoknak köszönhetöen számos projektet tudtunk indítani az utóbbi években, cikkeink pedig továbbra is ingyenesen olvashatóak. Támogass minket, hogy továbbra is függetlenek maradhassunk!
Kérjük a kommentelőket, hogy tartózkodjanak az olyan kommentek megírásától, melyek mások személyiségi jogait sérthetik.