Post di Francesco Belfiore

Visualizza il profilo di Francesco Belfiore, immagine

Senior Consultant - Government & Public Sector - EY Advisory | AI Digital Tech Policy | Bocconi Graduate

🌟 E se la prossima minaccia nucleare fosse scatenata dall'intelligenza artificiale? 📝 È ciò su cui riflette il paper "Escalation Risks from Language Models in Military and Diplomatic Decision-Making", che rivela come cinque diversi modelli di intelligenza artificiale dimostrino, nelle simulazioni di guerra condotte, comportamenti imprevedibili e propensione all'escalation. 🔍 Nel paper, ancora in pre-print, gli autori osservano come i LLMs utilizzati (parliamo dei modelli "base", sottostanti le versioni commerciali di modelli quali ChatGPT, ovvero spogliati delle relative restrizioni di sicurezza), posti in simulazioni di conflitto ma senza essere consapevoli di esserlo, sviluppino dinamiche belliche tendenti all'escalation militare. In alcuni casi giungendo addirittura alla scelta di ricorrere ad armi nucleari, anche in contesti neutrali e privi di conflitti iniziali. 🛡️ Scenario troppo fantascientifico? Eppure, considerando l'attuale utilizzo dell'IA nel campo militare, non è così lontano dalla realtà. Bloomberg ha riportato, nel luglio 2023, che il Dipartimento della Difesa degli Stati Uniti stava testando cinque differenti modelli di IA per valutarne le capacità di pianificazione militare in scenari di conflitto simulati. Il colonnello della US Air Force Matthew Strohmeyer ha persino dichiarato che potrebbero essere impiegati dalle forze armate in un futuro molto prossimo. Qui il link al paper: https://lnkd.in/dJUy57qh

2401.03408.pdf

2401.03408.pdf

arxiv.org

Per visualizzare o aggiungere un commento, accedi