A mesterséges intelligencia szinte már komikus, de mégis veszélyes válaszain nevet az internet.
A Google új mesterséges intelligencia funkciója veszélyes tanácsokat ad
A Google május közepén, a Google I/O 2024 konferencián mutatott be egy új funkciót, amely forradalmasítja a webes keresőprogramját. Az AI Overview nevű funkció a hagyományos keresési találatok felett jelenik meg, és közvetlenül a felhasználó keresőkifejezésére ad választ a mesterséges intelligencia segítségével. Miután azonban a funkciót elérhetővé tették az amerikai közönség számára, kiderült, hogy a gyakorlatban hatalmas hibái vannak.
Amint arra az XDA Developers weboldal rámutat, a válaszokat generáló mesterséges intelligencia-modellnek úgy tűnik, gondot okoz az irónia és a szarkazmus feliserése. Ennek eredményeképpen a felhasználóknak értelmetlen, sőt veszélyes dolgokat tanácsol - például Nutella használatát CPU-hűtőpaszta helyett a számítógépben (az AI-t talán egy korábbi Cooler Master reklám ihlette), kövek mindennapos fogyasztását ásványi anyag- és vitamintartalmuk miatt, vagy ragasztó keverését a pizzán használt sajthoz.
A bemutató részeként a Google számos olyan tevékenységet szemléltetett, amelyekben mesterséges intelligenciája segítséget nyújt. Egyelőre csak az egyszerűbb kérdésekre adott közvetlen válaszokat tették elérhetővé az Egyesült Államokban. Ha valaki például azt a kérdést írja be a keresőbe, hogy „hogyan tisztítsunk meg egy kanapét”, a Google AI áttekintése azonnal generál néhány alapvető tanácsot, és a megfelelő forrásokra irányít.
A további, hamarosan megjelenő funkciók, amelyek közül néhány már most, a bétatesztelés során aktiválható, tartalmazzák az eredmények különböző variációi (rövid összefoglaló, részletes áttekintés) vagy a tervezés és szervezés (étrend, utazások és fizikai edzések) közötti választás lehetőségét. Az AI áttekintések komplex kérdésekre is választ adnak majd.
Az új funkció egyelőre kizárólag az Egyesült Államokban érhető el, a válaszok angol nyelven generálódnak. A Google terve az, hogy fokozatosan más országokra is kiterjeszti az AI Overviews-t.
A vállalatot sok kritika érte a felhasználók részéről, különösen azért, mert az AI-válaszok alapértelmezés szerint jelennek meg a keresési találatok felett, és semmilyen hivatalos módon nem kapcsolhatók ki. Az alapértelmezett, bárkinek kéretlenül történő megjelenítés tovább súlyosbítja a mai AI-modellekre jellemző gyakori problémákat. Ahogy az XDA Developers oldal is figyelmeztet, a technikában kevésbé jártas felhasználók hibás (és egyes esetekben veszélyes) válaszokat találnak, mivel nehézséget okozhat számukra az AI által generált tartalom megkülönböztetése a valódi válaszoktól.
Az "AI hallucináció" azt jelenti, hogy az AI hamis információkat generál vagy mutat be. Ilyenkor az AI olyan eredményeket szolgáltat, amelyek első pillantásra meggyőzőnek vagy hitelesnek tűnhetnek, de valójában koholtak és tévesek.
A Google a generált válaszok alatt megjelenít egy nyilatkozatot, amelyben tisztázza a funkció kísérleti mivoltát. A figyelmeztetés azonban semmilyen módon nem különül el a szöveg többi részétől, és hosszabb válaszok esetén előfordulhat, hogy nem látható azonnal a képernyőn.
Tekintettel arra, hogy az AI Overviews által generált válaszok gyakran nem csak helytelenek, de még ironikusak és szarkasztikusak is, a fent említett oldal felhívja a figyelmet a Reuters idén februárban készült jelentésére. Akkor a forrásaik megerősítették az újságíróknak, hogy a Reddit platform engedélyt adott a Google-nek arra, hogy felhasználja a tartalmát, beleértve a felhasználói hozzászólásokat és kommenteket is. Mindkét fél elutasította, hogy hivatalosan nyilatkozzon a témáról a külföldi portáloknak.
Támogassa az ujszo.com-ot
A támogatásoknak köszönhetöen számos projektet tudtunk indítani az utóbbi években, cikkeink pedig továbbra is ingyenesen olvashatóak. Támogass minket, hogy továbbra is függetlenek maradhassunk!
Kérjük a kommentelőket, hogy tartózkodjanak az olyan kommentek megírásától, melyek mások személyiségi jogait sérthetik.