La trei ani de la „intrarea pe piață” a ChatGPT, discuția despre adevărata natură a IA generative revine în centrul atenției. Lansat pe 30 noiembrie 2022, chatbotul a inaugurat o tehnologie capabilă să producă texte, imagini, video sau documente prin antrenare pe volume uriașe de date. Însă aceste performanțe ascund o limitare fundamentală: simularea limbajului nu înseamnă înțelegere.
• O cercetare prezentată în noiembrie 2025 la conferința Emnlp (Empirical Methods in Natural Language Processing) din Suzhou, efectuată de Universitatea Ca’ Foscari Venezia și Universitatea Cardiff, arată limpede această barieră. LLM (Large Language Models) nu sunt capabile să identifice corect ironia sau jocurile de cuvinte, chiar și după ce li se explică explicit natura lor. Într-un test, propoziția „Eram considerat un comediant, dar viața mea a devenit o glumă” a fost interpretată ca glumă și după înlocuirea cuvântului-cheie, când sensul figurat dispărea complet. Modelele continuau să returneze aceeași clasificare, dovadă că nu operează prin comprehensiune, ci prin corelare statistică.
• Cu toate acestea, marile companii tehnologice propun o narațiune opusă. În 2025, Mark Zuckerberg a afirmat că „momentul în care vom atinge superinteligența se apropie”, Dario Amodei a estimat apariția unei IA superioare unui laureat Nobel „în 2026”, iar Sam Altman a susținut că știe deja „cum se construiește IA generală” (n.n. inteligența artificială generală - inteligența multidimensională de care dispune omul). Însă neuroștiințele contrazic aceste declarații îndrăznețe. Inteligența nu este limbaj: copiii formulează ipoteze despre lume înainte de a vorbi.
• De aceea, limita-cheie a IA generative rămâne absența înțelegerii. Tehnologia imită, corelează și generează, dar nu raționează. Restul este marketing, nu știință.
→ Citește și: Cum funcționează ChatGPT
Sursa: La Stampa