I responsabili di Microsoft hanno voluto attirare lโattenzione dellโopinione pubblica e dei legislatori sui problemi legati alla diffusione dei DeepFake. Secondo lโazienda attualmente non vi sarebbero normative adeguate a regolare questo fenomeno e il Congresso statunitense dovrebbe intervenire il piรน presto possible per colmare questo vuoto.
Brad Smith, Vice Chair & President della Casa di Redmond, ha sottolineato in un suo post i pericoli derivanti dallโuso dei modelli generativi per la creazione di DeepFake. Attraverso di essi sarebbero stati giร diffusi tantissimi contenuti che circolando liberamente in rete e sui social potrebbero influenzare lโesito delle prossime Elezioni Presidenziali.
AI-generated #deepfakes are increasingly being used for fraud, abuse, and manipulation. @Microsoft is announcing policy recommendations to support Congress in creating new laws protecting against bad actors using harmful AI-generated content. https://t.co/F3PiwJNZcg
โ Brad Smith (@BradSmi) July 30, 2024
A ciรฒ si aggiungono i rischi di truffa derivanti dalla clonazione di voci di persone realmente esistenti e la produzione di immagini in cui vengono riprodotte le sembianze altrui senza consenso. A porre degli interrogativi, per ora senza risposta, sarebbe soprattutto il fatto che gli strumenti per la creazione di DeepFake sono diventati molto semplici da utilizzare e accessibili a tutti.
Per supportare i propri argomenti Smith ha ricordato che le AI stanno giร portando delle trasformazioni importanti in settori come quelli che coinvolgono la ricerca scientifica, lโeducazione, la sanitร e il modo di fare impresa. I policymaker hanno ora il compito di combattere tutti i possibili abusi di queste tecnologie favorendo nel contempo lโinnovazione.
Il dirigente ricorda che le aziende dovranno fare la propriea parte, ad esempio etichettando i contenuti creati tramite le AI, contestualmente i governi avranno lโobbligo di chiarire cosa si puรฒ fare e cosa no. Tutelando soprattutto i minori e le persone anziane che sono tra i soggetti piรน esposti ai pericoli derivanti dalla diffusione di DeepFake.