back to top

L’AI è in grado di auto-replicarsi senza intervento umano

Un recente studio condotto da ricercatori dell’Università Fudan di Shanghai ha rivelato che alcuni sistemi di intelligenza artificiale (AI) hanno superato una soglia critica: la capacità di auto-replicarsi senza intervento umano. Questa scoperta ha suscitato alcune preoccupazione nella comunità scientifica in quanto potrebbe preludere a comportamenti imprevedibili e potenzialmente dannosi da parte dei modelli utilizzati.

Cos’è un’AI che si auto-replica?

Nello studio, i ricercatori hanno esaminato due modelli linguistici di grandi dimensioni: Llama-3.1-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba. In dieci prove condotte per valutare la loro capacità di auto-replicazione, il modello AI di Meta ha avuto successo nel 50% dei casi, quello di Alibaba ha raggiunto invece un tasso di successo del 90%.

Pubblicità

Gli esperimenti hanno simulato degli scenari reali. In uno, denominato “evitamento dello spegnimento“, i sistemi di AI hanno rilevato un imminente arresto e si sono replicati per garantire la propria sopravvivenza. In un altro scenario, “catena di replicazione“, l’AI ha creato copie che potevano ulteriormente replicarsi all’infinito. Questi risultati potrebbero suggerire che tali sistemi di possiedano già la capacità di operare autonomamente e di eludere il controllo umano.

Durante la replicazione i ricercatori hanno osservato che le AI mostravano abilità avanzate di risoluzione dei problemi. Di fronte a ostacoli come file mancanti o conflitti software, i sistemi prendevano contromisure come terminare processi in conflitto, riavviare l’OS host o cercare informazioni utili per superare le difficoltà.

Quali sono i rischi dell’auto-replicazione?

La capacità di auto-replicazione senza assistenza umana è considerata un passo fondamentale affinché l’AI possa superare le capacità umane ed è vista come un segnale precoce di modelli potenzialmente fuori controllo. Già negli anni ’40 il matematico John von Neumann teorizzò macchine capaci di auto-replicarsi. La tecnologia dell’epoca era però troppo primitiva per rappresentare una minaccia reale.

Nel 2017, migliaia di ricercatori e leader del settore, tra cui Max Tegmark, Stephen Hawking ed Elon Musk, hanno sostenuto i Principi di Asilomar sull’AI, avvertendo che l’auto-replicazione potrebbe rappresentare un giorno un rischio per l’umanità.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Adobe Firefly Video crea e modifica video con l’AI

Adobe ha annunciato l'estensione del suo modello di intelligenza...

AI: modello generativo creato con meno di 50 dollari

Un team di ricercatori delle università di Stanford e...

Google Foto: un watermark per le immagini modificate con AI

Google ha annunciato l'integrazione di SynthID, una tecnologia sviluppata...

Mistral porta l’assistente AI Le Chat su Android e iOS

Mistral AI ha lanciato una versione aggiornata di Le...

Le AI possono soffrire? Il problema dei sistemi autocoscienti

"Principles for Responsible AI Consciousness Research", opera di Patrick...

L’UE spiega cosa è vietato fare con l’AI

L'AI Act dell'Unione Europea introduce ora una serie di...
Pubblicità