In un nuovo documento intitolato โFrontier AI Frameworkโ, Meta ha delineato gli scenari in cui potrebbe decidere di non rilasciare sistemi di AI particolarmente avanzati e potenzialmente pericolosi. Lโazienda identifica infatti due categorie di soluzioni d AI che considera troppo rischiose per una distribuzione pubblica:
- Sistemi ad alto rischio: capaci di facilitare attacchi informatici, chimici o biologici rendendoli piรน semplici.
- Sistemi a rischio critico: quelli che potrebbero portare a conseguenze catastrofiche non mitigabili nel contesto in cui verrebbero implementati.
Tra gli esempi citati da Meta figurano le compromissioni automatizzate di ambienti aziendali protetti e la proliferazione di armi biologiche ad alto impatto.
Come Meta classifica i rischi della AI
Un aspetto insolito del framework di Meta รจ il suo metodo di classificazione del rischio. Lโazienda infatti non si affida esclusivamente a test empirici ma si basa sul giudizio di ricercatori interni ed esterni, soggetti a revisione da parte di dirigenti senior. Questo perchรฉ, attualmente, non esisterebbero delle metriche affidabili per determinare il livello di rischio di un sistema AI.
Se un sistema dovesse essere classificato come ad alto rischio, Meta ne limiterร lโaccesso interno e ne ritarderร il rilascio fino a quando il rischio non sarร ridotto a un livello moderato. Se invece dovesse essere classificato a rischio critico, lo sviluppo sarร interrotto fino a quando non sarร possibile mitigare le eventuali minacce.
Un bilanciamento tra apertura e sicurezza
Meta ha adottato una strategia di AI aperta, in contrasto con aziende come OpenAI, che mantengono un maggiore controllo sui loro sistemi. Tale approccio ha perรฒ portato sia dei benefici che dei problemi. Il modello Llama ha registrato ad esempio centinaia di milioni di download ma sarebbe stato anche utilizzato da utenti malevoli per sviluppare dei chatbot.
La pubblicazione del Frontier AI Framework potrebbe servire a differenziare Meta da aziende come la cinese DeepSeek che renderebbe i propri modelli liberamente accessibili senza perรฒ offrire adeguate salvaguardie per i dati personali degli utenti.
La sua strategia mira a bilanciare benefici e rischi garantendo che la tecnologia di AI possa essere rilasciata in modo responsabile. Questo in modo da massimizzare i vantaggi per la societร senza compromettere la sicurezza globale.