Figyelmeztet az Apple: vigyázzon a mesterséges intelligenciával!

mesterséges intelligencia k

Az Apple mesterséges intelligenciával foglalkozó kutatócsoportja azt vizsgálta, hogyan képesek kezelni a matematikai érvelési feladatokat a vezető nagy nyelvi modellek (LLM). Arra az eredményre jutottak, hogy közel sem biztos, hogy ezek a rendszerek olyan okosak, mint amilyennek tűnnek.

Azt hihetnénk, hogy a mesterséges intelligencia szinte mindent tud, azonban időnként kiábrándító jelentések érkeznek a képességeikről. Ezek közé tartozik az Apple MI-kutatócsoportjának friss tanulmánya is, amely jelentős hiányosságokra mutatott rá a nagy nyelvi modellek (LLM-ek) érvelési képességében.

A kutatók több vezető nyelvi modellt is megvizsgáltak, beleértve az OpenAI, a Meta és más jelentős fejlesztők modelljeit (OpenAI o1, GPT 40, Meta LlaMa, Google Gemma-2 stb.). Arra voltak kíváncsiak, hogy mennyire képesek kezelni ezek a modellek a matematikai érvelési feladatokat. Az eredmények kissé meglepőek voltak. Arra jutottak ugyanis, hogy elég volt csak csekély változtatás a kérdés megfogalmazásában, és máris jelentős volt az eltérés a modell válaszában. Ez viszont alááshatja a MI megbízhatóságába vetett hitet, amikor következetes logikáról lenne szó.

Kiderült például, hogy a pontosság néhány százalékponttal csökkent, ha egy kérdésben módosultak a nevek és a változók. Azonban a kutatók megjegyezték, hogy az OpenAI modelljei jobban teljesítettek, mint a többi nyílt forráskódú modell. Ettől függetlenül az eltérést „nem elhanyagolhatónak” ítélték, ami azt jelenti, hogy ennek nem kellett volna bekövetkeznie.

A dolgok akkor váltak igazán érdekessé, amikor a szakemberek „látszólag releváns, de végső soron lényegtelen kijelentéseket” adtak a keverékhez. Az egyik egyszerű matematikai feladatban az volt a kérdés, hogy hány kivit gyűjtött össze több napon keresztül egy ember. Amikor viszont hozzáadtak a kérdéshez néhány, a kivi méretével kapcsolatban irreleváns részletet (például, hogy néhány kivi kisebb volt), az LLM-ek hajlamosak voltak kivonni a kisebb kiviket az egyenletből, ugyanis nem értették meg, hogy a méret irreleváns a probléma szempontjából. Ez azt jelzi, hogy „a modellek hajlamosak az állításokat műveletekké konvertálni anélkül, hogy valóban megértenék a jelentésüket”. Ez pedig igazolja a kutatók azon feltevését, hogy az LLM-ek mintákat keresnek az érvelési problémákban, ahelyett, hogy megértenék a koncepciót.

„A jelenlegi LLM-ek nem képesek valódi logikus érvelésre, ehelyett megpróbálják megismételni a képzési adataikban megfigyelt érvelési lépéseket” – írják a kutatók, hozzátéve, hogy mindez aggasztó jel a jövőbeli mesterségesintelligencia-alkalmazások számára, amelyektől következetes, pontos érvelést várnánk el. Az Apple szerint a mesterséges intelligenciának kombinálnia kellene a neurális hálózatokat a hagyományos, szimbólum alapú érveléssel, hogy pontosabb döntéshozatali és problémamegoldó képességeket nyerjen. 

(hvg.hu)

Hozzászólások

Kérjük a kommentelőket, hogy tartózkodjanak az olyan kommentek megírásától, melyek mások személyiségi jogait sérthetik.

Kedves olvasó!

Valószínűleg reklámblokkolót használ a böngészőjében. Weboldalunkon a tartalmat ön ingyenesen olvassa, pénzt nem kérünk érte. Ám mivel minden munka pénzbe kerül, a weboldalon futó reklámok némi bevételt biztosítanak számunkra. Ezért arra kérjük, hogy ha tovább szeretné olvasni a híreket az oldalunkon, kapcsolja ki a reklámblokkolót.

Ennek módját az “ENGEDÉLYEZEM A REKLÁMOKAT” linkre kattintva olvashatja el.

Engedélyezem a reklámokat

Azzal, hogy nem blokkolja a reklámokat az oldalunkon, az újságírók munkáját támogatja! Köszönjük!

18+ kép

Figyelem! Felnőtt tartalom!

Kérjük, nyilatkozzon arról, hogy elmúlt-e már 18 éves.

Támogassa az ujszo.com-ot

A támogatásoknak köszönhetöen számos projektet tudtunk indítani az utóbbi években, cikkeink pedig továbbra is ingyenesen olvashatóak. Támogass minket, hogy továbbra is függetlenek maradhassunk!

Ezt olvasta már?