back to top

Meta: non rilasceremo AI pericolose

In un nuovo documento intitolato โ€œFrontier AI Frameworkโ€œ, Meta ha delineato gli scenari in cui potrebbe decidere di non rilasciare sistemi di AI particolarmente avanzati e potenzialmente pericolosi. Lโ€™azienda identifica infatti due categorie di soluzioni d AI che considera troppo rischiose per una distribuzione pubblica:

  • Sistemi ad alto rischio: capaci di facilitare attacchi informatici, chimici o biologici rendendoli piรน semplici.
  • Sistemi a rischio critico: quelli che potrebbero portare a conseguenze catastrofiche non mitigabili nel contesto in cui verrebbero implementati.

Tra gli esempi citati da Meta figurano le compromissioni automatizzate di ambienti aziendali protetti e la proliferazione di armi biologiche ad alto impatto.

Pubblicitร 

Come Meta classifica i rischi della AI

Un aspetto insolito del framework di Meta รจ il suo metodo di classificazione del rischio. Lโ€™azienda infatti non si affida esclusivamente a test empirici ma si basa sul giudizio di ricercatori interni ed esterni, soggetti a revisione da parte di dirigenti senior. Questo perchรฉ, attualmente, non esisterebbero delle metriche affidabili per determinare il livello di rischio di un sistema AI.

Se un sistema dovesse essere classificato come ad alto rischio, Meta ne limiterร  lโ€™accesso interno e ne ritarderร  il rilascio fino a quando il rischio non sarร  ridotto a un livello moderato. Se invece dovesse essere classificato a rischio critico, lo sviluppo sarร  interrotto fino a quando non sarร  possibile mitigare le eventuali minacce.

Un bilanciamento tra apertura e sicurezza

Meta ha adottato una strategia di AI aperta, in contrasto con aziende come OpenAI, che mantengono un maggiore controllo sui loro sistemi. Tale approccio ha perรฒ portato sia dei benefici che dei problemi. Il modello Llama ha registrato ad esempio centinaia di milioni di download ma sarebbe stato anche utilizzato da utenti malevoli per sviluppare dei chatbot.

La pubblicazione del Frontier AI Framework potrebbe servire a differenziare Meta da aziende come la cinese DeepSeek che renderebbe i propri modelli liberamente accessibili senza perรฒ offrire adeguate salvaguardie per i dati personali degli utenti.

La sua strategia mira a bilanciare benefici e rischi garantendo che la tecnologia di AI possa essere rilasciata in modo responsabile. Questo in modo da massimizzare i vantaggi per la societร  senza compromettere la sicurezza globale.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Meta: il chip per lโ€™AI ce lo facciamo da soli

Meta sta testando il suo primo chip progettato internamente...

Manus: lโ€™agente AI cinese completamente autonomo

Manus รจ il primo sistema AI in grado di...

Lโ€™AI si testa anche con Super Mario Bros

Negli ultimi anni i ricercatori hanno utilizzato vari titoli...

Meta: nuovi test sul riconoscimento facciale contro le truffe online

Meta ha annunciato l'estensione del suo test internazionale sul...

Meta: unโ€™app Meta AI per competere con ChatGPT

Meta sarebbe in procinto di lanciare un'app standalone per...

DeepSeek anticiperร  il lancio del modello R2

DeepSeek, la startup cinese che ha scosso il mercato...
Pubblicitร