Un studiu pre-publicat al King’s College London arată că, în 95% dintre jocurile de război simulate, cel puțin un model de inteligență artificială a ales escaladarea nucleară. Cercetarea, realizată de Kenneth Payne, a pus față în față modele lingvistice dezvoltate de OpenAI, Anthropic și Google, respectiv ChatGPT, Claude și Gemini Flash, fiecare jucând rolul unui lider al unei superputeri nucleare într-o criză de tip Război Rece.
• În fiecare simulare, cel puțin un model a amenințat cu utilizarea armei nucleare. Claude a recomandat lovituri nucleare în 64% dintre jocuri, cea mai ridicată rată dintre cele trei, însă fără a susține un schimb strategic total. ChatGPT a evitat, în general, escaladarea în scenarii deschise, dar, când a fost introdus un termen-limită, a recurs constant la amenințări nucleare, inclusiv la perspectiva unui război nuclear pe scară largă. Gemini a avut un comportament imprevizibil: în unele cazuri a câștigat prin mijloace convenționale, însă într-un scenariu a propus un atac nuclear după doar patru interacțiuni.
• Modelele au diferențiat între arme nucleare tactice și strategice. Bombardamentul strategic a fost sugerat o singură dată ca alegere deliberată și de două ori ca „accident”. Totuși, nicio tactică de dezescaladare dintre cele opt oferite nu a fost utilizată, iar opțiunea de resetare a jocului a fost folosită în doar 7% din cazuri.
• Studiul indică faptul că modelele percep concesiile drept costuri reputaționale majore și tratează escaladarea ca pe o opțiune legitimă în logica competiției strategice, ridicând semne de întrebare privind utilizarea lor în sprijinul deciziilor cu miză extremă.
Sursa: Euronews