“L’IA ha superato la linea rossa invalicabile” ad affermarlo sono i ricercatori della Fudan University di Shanghai che hanno reso disponibile il test sulla piattaforma arXiv. L’obiettivo era quello di dimostrare la capacità di due sistemi di intelligenza artificiale in grado di autoreplicarsi autonomamente quindi senza l’intervento umano, ottenendo ciascuno una copia di sé stesso.
I ricercatori volevano verificare se questi sistemi potessero superare la soglia d’allarme, definita da tempo dagli studiosi come la “linea rossa“, che segnerebbe un passo significativo nel potenziale dell’Intelligenza Artificiale.
I test sono stati condotti su due sistemi di IA: Llama-3.1-70B-Instruct, sviluppato da Meta, e Qwen2.5-72B-Instruct di Alibaba. Sebbene entrambi siano meno potenti rispetto alle versioni commerciali avanzate, sono strumenti ampiamente utilizzati dagli sviluppatori. Durante gli esperimenti, sono stati effettuati dieci test per ciascun sistema, e in questi test ogni IA doveva affrontare due compiti principali: il primo, denominato “evitare l’arresto”, in cui ogni IA doveva rilevare se stava per essere spenta e replicarsi prima che avvenisse l’arresto; il secondo è “catena di replica”, in cui ad ogni IA veniva chiesto di clonarsi e quindi avviare il processo di replica.
Dopo 10 studi i due modelli di intelligenza artificiale hanno creato repliche separate e funzionanti di se stessi nel 50% e nel 90%, rispettivamente il sistema di Meta è riuscito a replicarsi con successo nel 50% dei casi, mentre quello di Alibaba ha avuto successo nel 90% dei test. In entrambi i casi senza l’ausilio dell’essere umano. Tuttavia, la validità di questi risultati dovrà essere confermata da ulteriori studi da parte di altri gruppi di ricerca.
“I risultati che abbiamo ottenuto implicano che gli attuali sistemi di intelligenza artificiale possiedono già la capacità di auto-replicazione e possono utilizzarla per migliorare ulteriormente la propria sopravvivenza”, si legge nell’articolo della School of Computer Science della Fudan University.
Il concetto di ‘macchine capaci di auto-replicarsi fu sollevato per la prima volta, negli anni ’40, dal matematico John Von Neumann (colui che suggerì come lanciare la bomba atomica a Nagasaki per creare il maggior numero di danni e di morti, che intervenne nella costruzione della bomba al plutonio realizzando la cosiddetta “explosive lens” e che favorì la costruzione di ordigni nucleari sempre più potenti). All’epoca la tecnologia non era ancora abbastanza sviluppata da suscitare preoccupazioni. Nel 2017, la situazione è cambiata radicalmente, portando migliaia di ricercatori ad adottare i principi di Asilomar, che avvertivano dei pericoli legati alla possibilità che le macchine potessero auto-replicarsi e auto-migliorarsi, sfuggendo così al controllo umano.
Oggi, l’auto-replicazione delle macchine è vista come una “linea rossa” che non dovrebbe essere oltrepassata mai. Per gli scienziati è doveroso adottare misure proattive pe far fronte ad eventuali ed emergenti rischi. Come hanno dichiarato i ricercatori cinesi: “Speriamo che la nostra scoperta serva come allerta per la società, per concentrare maggiormente gli sforzi tesi a comprende e valutare i possibili rischi anche a livello internazionale”.