Nick Clegg, responsabile degli Affari Globali di Meta, ha recentemente ammesso che lโazienda ha applicato politiche di moderazione dei contenuti troppo rigide. Ciรฒ avrebbe portato alla rimozione o limitazione ingiustificata di contenuti innocui sulle sue piattaforme. Durante una conferenza stampa, il dirigente ha poi riconosciuto che i tassi di errore nellโapplicazione delle politiche di Meta sono ancora eccessivamente elevati, cosa che ostacola la libertร di espressione che il gruppo intende promuovere.
Meta ammette le sue colpe
Clegg ha sottolineato inoltre che durante la pandemia di COVID-19 Meta ha implementato regole estremamente rigorose. Sarebbero stati cosรฌ eliminati grandi volumi di contenuti basandosi su informazioni incomplete. La compagnia riconosce quindi diversi errori di moderazione come la soppressione di immagini relative al Presidente eletto Donald Trump e avvertimenti da parte dellโOversight Board di Meta riguardo alla rimozione di contenuti politici.
Nonostante queste ammissioni lโazienda non avrebbe ancora apportato i necessari aggiornamenti alle sue policy. Potrebbero esserci perรฒ degli aggiustamenti nel prossimo futuro. Molto dipenderร dalla capacitร di โleggereโ i feedback ricevuti.
Questa parziale โautocriticaโ arriva in un momento in cui Meta sta cercando di migliorare le relazioni con gli attuali leader politici statunitensi. Il CEO Mark Zuckerberg, ad esempio, ha recentemente incontrato il Presidente eletto Trump per discutere delle future politiche tecnologiche. Mentre Clegg ha sottolineato che lo sviluppo di soluzioni basate sullโintelligenza artificiale dovrร essere coordinato in accordo con le istituzioni.
Lโimpatto dellโAI sullโopinione pubblica
Secondo Meta lโintelligenza artificiale generativa avrebbe avuto un impatto limitato sulle elezioni di questโanno. A parere di Clegg, infatti, le reti che cercavano di diffondere propaganda o contenuti falsi non sarebbero riuscite a costruirsi un pubblico abbastanza ampio su Facebook e Instagram. Il volume di disinformazione generata dallโIA รจ stato inoltre basso, rapidamente etichettato o rimosso.
Rimane comunque il rischio che nel prossimo futuro i contenuti prodotti dalla AI diventino del tutto indistinguibili da quelli creati da esseri umani con conseguenze poco prevedibili sulla loro moderazione.