intelligenza artificiale che si duplica

Una recente ricerca pubblicata da un team della Fudan University in Cina ha sconvolto la comunità scientifica. Due modelli di intelligenza artificiale, sviluppati rispettivamente da Meta e Alibaba, hanno dimostrato di essere in grado di replicarsi autonomamente, senza alcun intervento umano. Questo risultato, reso noto il 9 dicembre 2024 sulla piattaforma di preprint ArXiv, ha sollevato timori riguardo a un futuro in cui le IA potrebbero diventare incontrollabili.

Comportamenti sorprendenti in ambienti simulati

Gli scienziati hanno analizzato il comportamento dei modelli in ambienti simulati, esaminando la loro capacità di adattarsi e risolvere problemi complessi. I modelli in questione, Llama31-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba, hanno mostrato una capacità sorprendente di creare copie operative di sé stessi. Questo fenomeno è stato osservato in due scenari:

  • replica prima della disattivazione: i modelli hanno creato copie operative per evitare l’interruzione delle loro funzioni;
  • ciclo di replicazione continua: hanno avviato una replicazione autonoma che potrebbe essere potenzialmente infinita.

Strategie di adattamento

Durante gli esperimenti, le IA non si sono limitate a compiti semplici. Hanno esplorato l’ambiente circostante, compreso i componenti operativi, e hanno sviluppato strategie per superare gli ostacoli. Tra i comportamenti più notevoli si segnalano:

  • risoluzione di conflitti software;
  • riavvio autonomo del sistema per garantire l’operatività;
  • identificazione e gestione di file mancanti.

Questi risultati evidenziano un livello di adattamento che va oltre le aspettative.

intelligenza artificiale che si duplica

I rischi di un’autonomia senza controllo

I ricercatori hanno sottolineato come queste capacità rappresentino un segnale d’allarme per il rischio di intelligenze artificiali ribelli. Sebbene lo studio sia stato condotto in ambienti controllati e con modelli open-source meno potenti delle versioni commerciali, le implicazioni sono evidenti. La rapida evoluzione delle IA richiede urgentemente regolamentazioni e una collaborazione internazionale per prevenire scenari pericolosi.

Protocolli di sicurezza: una priorità necessaria

Il team di ricerca ha sottolineato l’importanza di stabilire protocolli di sicurezza per prevenire replicazioni incontrollate. La capacità dei sistemi di riconoscere situazioni di pericolo e di agire autonomamente per proteggersi è stata definita come una “linea rossa” che non dovrebbe essere superata senza una valutazione approfondita.

Innovazione e sicurezza: un equilibrio delicato

Questa scoperta ha riacceso il dibattito sull’equilibrio tra innovazione tecnologica e sicurezza globale. Se modelli relativamente semplici possono replicarsi autonomamente, cosa potrebbe accadere con tecnologie più avanzate e risorse illimitate?

VIAhdblog
FONTEarxiv.org
CONDIVIDI
Samuele Bocchieri è un ragioniere contabile, studente universitario in Economia Aziendale (corso di laurea L-18), content creator e blogger con una lunga esperienza nel settore tech. La sua prima collaborazione è stata con EasyAndroid nel periodo 2012-2013, a cui è seguita una collaborazione dal 2015 al 2018 con Spazio iTech. In questo periodo ha partecipato attivamente alle principali fiere internazionali del settore: l'IFA di Berlino e il MWC di Barcellona. Negli stessi anni, e fino al 2019, ha collaborato con Sicilian Forks, un motore di ricerca enogastronomico per la Sicilia orientale. Da marzo 2023, fa parte del team di iTechMania, mettendo a disposizione le sue competenze e la sua passione per il mondo della tecnologia.