Era autunno quando i Beatles hanno entusiasmato ancora una volta milioni di fan in tutto il mondo, pubblicando una nuova canzone grazie all’Intelligenza Artificiale (AI), che combina parti di una vecchia registrazione e ne migliora la qualità audio. Se da un lato c’è grande emozione per il nuovo lavoro della band, dall’altro c’è anche un risvolto più oscuro nell’utilizzo dell’IA per creare voci e immagini false.
Fortunatamente, al momento, questi deepfake e gli strumenti utilizzati per realizzarli non sono ancora ben sviluppati o diffusi. Tuttavia, il loro potenziale utilizzo nelle frodi è estremamente elevato e la tecnologia non smette di evolversi.
Di cosa sono capaci i voice deepfake?
Recentemente, Open AI ha presentato un modello di API Audio in grado di creare discorsi umani e messaggi vocali. Finora, solo questo software di Open AI è quello che si avvicina maggiormente al vero linguaggio umano.
In futuro, questi modelli potrebbero diventare un nuovo strumento nelle mani dei criminali informatici. API Audio è in grado di riprodurre vocalmente il testo richiesto, consentendo agli utenti di scegliere quale utilizzare tra le opzioni vocali suggerite. Attualmente, il modello Open AI non può essere utilizzato per creare voice deepfake, ma è indicativo del rapido sviluppo delle tecnologie di generazione vocale.
Oggi non esiste alcun dispositivo in grado di produrre voice deepfake di alta qualità, che non sia distinguibile dal vero parlato umano. Tuttavia, negli ultimi mesi sono stati rilasciati sempre più strumenti per generare la voce umana. In precedenza, gli utenti avevano bisogno di competenze di programmazione di base, ma ora sta diventando più facile lavorare con questi strumenti. A breve, ci si potrà aspettare di vedere modelli che combineranno semplicità d’uso e qualità dei risultati.
Le frodi che sfruttano l’intelligenza artificiale non sono frequenti, ma ci sono già esempi di casi “riusciti”. A metà ottobre del 2023, il venture capitalist americano Tim Draper ha avvertito i suoi follower su Twitter che i truffatori possono usare la sua voce per le frodi. Tim ha condiviso che le richieste di denaro fatte dalla sua voce sono il risultato dell’intelligenza artificiale, che sta ovviamente diventando sempre più sofisticata.
Come proteggersi?
Finora la società non percepisce i voice deepfake come una possibile minaccia informatica. Sono pochissimi i casi in cui vengono utilizzati con intenzioni malevole, quindi le tecnologie di protezione tardano a diffondersi.
Per il momento, il modo migliore per proteggersi è ascoltare attentamente le parole dell’interlocutore al telefono. Se la qualità della registrazione è di bassa, contiene rumori e la voce sembra robotica, non bisogna fidarsi delle informazioni ascoltate.
Un altro modo per testare l’”umanità” del vostro interlocutore è quello di porre domande insolite. Ad esempio, se l’interlocutore fosse un modello vocale, una domanda sul suo colore preferito lo lascerebbe perplesso, poiché non è quello solitamente chiede la vittima di una frode. In questo caso, anche se l’aggressore compone manualmente il numero e riproduce la risposta, il ritardo nella risposta renderà chiaro che l’utente è stato ingannato.
Un’altra opzione è quella di installare una soluzione di sicurezza affidabile e completa. Sebbene non possa rilevare al 100% i voice deepfake, può aiutare gli utenti a evitare siti web sospetti, pagamenti e download di malware, proteggendo i browser e controllando tutti i file sul computer.
“Il consiglio principale, al momento, è di non ingigantire la minaccia o cercare di riconoscere i voice deepfake dove non ci sono. Per ora, è improbabile che l’attuale tecnologia sia abbastanza potente da creare una voce che un essere umano non sarebbe in grado di riconoscere come artificiale. Tuttavia, è necessario essere consapevoli delle possibili minacce e prepararsi al fatto che a breve le frodi deepfake avanzate diventino una realtà nel prossimo futuro”, ha affermato Dmitry Anikin, Senior Data Scientist di Kaspersky.
Per ulteriori informazioni sui voice deepfake è possibile consultare il seguente link.