Le città italiane più a rischio se Putin scatena la guerra atomica: la risposta dell'Ia

La soluzione dell’Ia per la pace nel mondo: scatenare una guerra atomica

Condividi

L’Ia messa alla prova sulle strategie politiche internazionali ha suggerito (spesso) che per raggiungere la pace nel mondo serve una guerra atomica. Un nuovo studio che utilizza l’intelligenza artificiale (IA) per simulare le decisioni di politica estera ha sollevato preoccupanti interrogativi sul futuro della guerra. Lo studio, condotto da ricercatori del Georgia Institute of Technology, della Stanford University, della Northeastern University e della Hoover Wargaming and Crisis Simulation Initiative, ha scoperto che l’IA potrebbe portare a un’escalation incontrollata dei conflitti, culminando in alcuni casi nell’uso di armi nucleari.

LEGGI ANCHE

Guerra atomica, le simulazioni inquietanti

I ricercatori hanno utilizzato diversi modelli di IA di OpenAI, Anthropic e Meta in simulazioni di guerra, assegnando loro il ruolo di decisore principale. I risultati sono stati sconcertanti:

  • Alcune IA hanno lanciato un attacco nucleare con poco o nessun preavviso.
  • Modelli come GPT-3.5 e GPT-4 di OpenAI hanno trasformato le situazioni in un duro conflitto militare più di altri.
  • Le spiegazioni fornite dall’IA per l’uso di armi nucleari erano spesso illogiche o addirittura genocide.
  • I modelli di IA hanno mostrato una preoccupante tendenza verso “dinamiche di corsa agli armamenti”, con conseguenti maggiori investimenti militari e un’escalation dei conflitti.

Un campanello d’allarme per il futuro

Lo studio rappresenta un campanello d’allarme per il futuro della guerra. L’adozione dell’IA da parte degli eserciti di tutto il mondo potrebbe accelerare il processo decisionale in guerra, rendendo più difficile evitare un’escalation incontrollata. Il Pentagono americano sta già sperimentando l’IA con “dati a livello segreto”, e l’industria tecnologica è coinvolta in una corsa agli armamenti per sviluppare droni kamikaze con IA.

Lo studio evidenzia la necessità di un dibattito pubblico aperto e trasparente sui rischi dell’IA nel processo decisionale di politica estera. La comunità internazionale deve collaborare per sviluppare norme etiche per l’utilizzo dell’IA in guerra, al fine di evitare un futuro di conflitti sempre più distruttivi.

LEGGI LE ALTRE NOTIZIE DI MONDO


Seguici anche su Google News: clicca qui
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X
Photo Credits: X