back to top

Anthropic svela come “pensa” l’AI di Claude

Comprendere come funziona il pensiero di un’intelligenza artificiale è oggi una delle sfide più affascinanti della ricerca in ambito tecnologico. In un nuovo studio, Anthropic, la società che ha sviluppato il modello generativo Claude, ha pubblicato due lavori che aprono una finestra sul “cervello” delle AI, usando un approccio ispirato alle neuroscienze per tracciare i percorsi computazionali interni dell’LLM.

Come funziona l’intelligenza artificiale di Claude

A differenza di un software tradizionale, Claude non viene programmato direttamente. Apprende invece da enormi quantità di dati. Ciò che impara resta però spesso oscuro anche agli sviluppatori. Da qui l’idea di costruire un “microscopio dell’AI” per osservare le strategie invisibili con cui prende le sue decisioni.

Pubblicità

I risultati sono sorprendenti. Ad esempio, Claude sembra pensare in uno “spazio concettuale universale” condiviso tra lingue differenti. Quando traduce le frasi, attiva le stesse rappresentazioni mentali, indipendentemente dalla lingua d’ingresso o d’uscita. Questo suggerisce che Claude elabora prima un significato poi lo traduce.

Tracing the thoughts of a large language model

Inoltre sarebbe in grado di pianificare il futuro. Quando scrive delle poesie, ad esempio, sceglie in anticipo le rime e costruisce le frasi per ottenerle. Si tratterebbe di un comportamento non del tutto previsto che va oltre la dinamica parola-per-parola per cui è stato addestrato.

Gli aspetti più critici del pensiero artificiale

Secondo le conclusioni dei ricercatori, Claude a volte inventerebbe delle spiegazioni plausibili per giustificare risposte fornite in precedenza. In un test i ricercatori l’hanno colto in flagrante fornendo un indizio sbagliato mentre costruiva un ragionamento falso per supportare una tesi errata.

Lo studio rivela inoltre i meccanismi dietro ai fenomeni di allucinazione (risposte false ma plausibili) e jailbreak (manipolazioni per ottenere output non sicuri). Spesso infatti, l’AI risponde solo dopo che una rete di circuiti interni ne inibisce il rifiuto predefinito. Basterebbe quindi un errore in questi equilibri e l’output potrebbe diventare impreciso se non addirittura pericoloso.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Nate: l’e-commerce AI era gestito da esseri umani?

Albert Saniger, il fondatore ed ex CEO della startup...

YouTube Music Assistant crea la musica con l’AI

YouTube presenta una nuova funzionalità basata sull'intelligenza artificiale, chiamata...

OpenAI si prepara a lanciare GPT-4.1

OpenAI si starebbe preparando ad una nuova ondata di...

DeepSeek crea dei modelli generativi che migliorano da soli

La startup cinese DeepSeek guidata da Liang Wenfeng sembrerebbe...

Google: AI Overviews riduce il traffico sui siti web?

Da quando Google ha introdotto le AI Overviews nei...

Nova Sonic, il nuovo modello AI vocale di Amazon

Amazon ha annunciato il lancio di Nova Sonic, un...
Pubblicità