back to top

La clonazione della voce umana (attraverso l’AI) apre le potre a nuovi tipi di truffe

La clonazione della voce umana attraverso l’Intelligenza Artificiale (pratica nota come voice cloning) rischia di diventare la nuova frontiera delle truffe.

Questo è quanto segnalato dalla FTC (Federal Trade Commission) statunitense, che ha lanciato un allarme riguardante un nuovo tipo di scam dai risvolti decisamente inquietanti. Nel caso specifico, i criminali informatici avrebbero iniziato ad utilizzare l’intelligenza artificiale per replicare le voci di amici e parenti delle loro vittime per estorcere denaro.

Attraverso il Deep Learning è possibile riprodurre fedelmente la voce di chiunque

La tecnologia che permette di clonare la voce è basata sul Deep Learning, che utilizza algoritmi di intelligenza artificiale per creare una copia sintetica della voce di una persona, catturando le sue caratteristiche acustiche e linguistiche come il timbro, l’intonazione, il ritmo e il vocabolario. Una volta salvato l’audio di una persona, anche per pochissimi secondi, magari in un video diffuso su un qualsiasi social network o catturato durante un vero colloquio telefonico, i truffatori possono utilizzare programmi specifici (come Murf.ai, Beyondwords, Reespecher, Play.ht, Resemble.ai) per replicare la voce registrata e fare leva sulla fiducia dei destinatari delle telefonate.

Il finto rapimento era solo una sofisticata cybertruffa

Uno dei casi più sconcertanti riguarda una donna statunitense, residente a Scottsdale in Arizona, che ha ricevuto una telefonata in cui la "figlia" (la cui voce in realtà era stata replicata sinteticamente) chiedeva aiuto disperatamente alla madre implorando di salvarla da un rapimento. Un individuo ha poi minacciato la donna raccontandole cosa avrebbe fatto alla figlia se lei non avesse pagato. In questo caso, la vittima della truffa  ha dichiarato di non aver avuto alcun dubbio che fosse la voce della figlia pertanto, in preda al panico, ha accolto le richieste dei truffatori. Ovviamente non c’era stato alcun rapimento ma si trattava semplicemente di una sofisticata cybertruffa.

E’ necessario mettere in atto delle contromisure

Questa tecnologia di clonazione della voce umana rappresenta un grave rischio per la sicurezza e il problema sembra destinato a crescere con l’aumentare della diffusione di tecnologie di AI. È importante che le istituzioni, le aziende e le persone prevedano nuove "misure di sicurezza" efficaci per proteggere i propri dati e la propria privacy, al fine di evitare di diventare vittime di queste truffe.

Il voice cloning ha anche dei risvolti positivi

Ovviamente il voice cloning non deve essere necessariamente identificato come qualcosa di negativo. Ci sono ambiti e situazioni in cui la clonazione della voce umana può avere riflessi positivi sula vita delle persone. Si pensi, ad esempio, all’ambito medico in cui, attraverso queste tecniche, sarà possibile "ridare" la voce a persone affette da patologie che inficiano le capacità comunicative mantenendo intatta la loro identità vocale. Altri ambiti di utilizzo "legittimi" potrebbero essere il cinema (in cui grazie all’AI si potrebbe riprodurre la voce di attori scomparsi) il turismo o l’education (attraverso la generazione di avatar che riproducono aspetto e voce di personaggi fisicamente non presenti sul luogo).

Dal punto di vista economico il business del voice cloning, secondo le previsioni degli economisti, potrebbe sfiorare i 2 miliardi di fatturato entro i prossimi sei anni con un +75% sul 2019.

Pubblicitร 
Massimiliano Bossi
Massimiliano Bossi
Stregato dalla rete sin dai tempi delle BBS e dei modem a 2.400 baud, ho avuto la fortuna di poter trasformare la mia passione in un lavoro (nonostante una Laurea in Giurisprudenza). Adoro scrivere codice e mi occupo quotidianamente di comunicazione, design e nuovi media digitali. Orgogliosamente "nerd" sono il fondatore di MRW.it (per il quale ho scritto centinaia di articoli) e di una nota Web-Agency (dove seguo in prima persona progetti digitali per numerosi clienti sia in Italia che all'estero).

Leggi anche...

Amazon Prime supporta i pagamenti con PayPal

Amazon ha introdotto una nuova funzionalitร  dedicata al programma...

Apple Intelligence in Italia nel 2025?

La Casa di Cupertino ha confermato che l'Apple Intelligence...

Lidl: diffidate dalle false pubblicitร  su YouTube

Lidl Italia, una delle piรน note catene della grande...

Samsung: il prossimo smartphone si potrร  arrotolare

Samsung รจ stata una delle prima aziende a scommettere...

Cercapersone esplosivi: nessun “attacco hacker”

Nella giornata del 17 settembre 2024 migliaia di cercapersone...

WhatsApp: utenti spiati con Whats Tracker

Il legame tra applicazioni e privacy รจ spesso conflittuale,...
Pubblicitร