L’ultima frontiera della truffa, anzi cybertruffa, sta facendo tremare molti, soprattutto le persone anziane: l’Intelligenza artificiale che clona le voci. Questa nuova minaccia, già diffusa oltreoceano, sfrutta l’Intelligenza artificiale per imitare alla perfezione le voci di persone conosciute, o di parenti stretti, con l’obiettivo di raggirare le vittime al telefono. Già a Roma si sono recentemente registrati due casi di truffa che hanno portato l’attenzione su questo crimine tecnologico. Vediamo come funziona.
Come fa l’intelligenza artificiale a clonare le voci
Ma come riesce l’intelligenza artificiale a imitare perfettamente la voce di un’altra persona? In realtà, come spiega il portale specializzato Melablog, la tecnologia che rende possibile questa truffa è sempre più accessibile e non richiede altro che una breve clip audio della persona da “clonare”. Anche pochi secondi di voce, magari estratti da un video sui social, sono sufficienti per creare una copia sintetica della voce. Il processo sfrutta sofisticati algoritmi di apprendimento profondo (Deep Learning), una branca dell’Intelligenza artificiale. Questi algoritmi analizzano i dati audio per catturare le caratteristiche uniche di una voce, come timbro, intonazione e ritmo, creando così un modello vocale che può essere utilizzato per simulare la voce con un realismo impressionante. (Continua a leggere dopo la foto)
Leggi anche ► Facebook e Instagram, un “bug” mette a rischio le pagine. Ecco la truffa che minaccia il colosso di Cupertino
Voci clonate a Roma: due casi in un giorno
La prima truffa si è verificata nel quartiere San Giovanni, dove una donna anziana è stata ingannata da una truffatrice che, fingendosi la nipote, ha chiesto alla signora una somma di seimila euro, motivando la richiesta con la necessità di partecipare a un corso professionale di estetica. Poi, in quella stessa mattinata, un’altra vittima, una donna di 83 anni che vive nei pressi della Basilica di San Pietro, è stata contattata da un uomo che imitava la voce del nipote. Anche in questo caso, il truffatore ha chiesto duemila euro per un acquisto urgente. La truffa si è compiuta quando un complice, spacciandosi per un amico fidato del nipote, si è presentato alla porta per ritirare i soldi. (Continua a leggere dopo la foto)
Le app che clonano la voce: ecco come avviene la frode
Esistono già molte applicazioni in grado di clonare le voci utilizzando l’Intelligenza artificiale. Tra le più note troviamo le seguenti app:
Murf.ai
Beyondwords
Play.ht voice cloning
Resemble.ai
Reespecher
Queste app permettono di creare una riproduzione dettagliata della voce, rendendo sempre più facile per i malintenzionati sfruttare questa tecnologia a fini illeciti. I truffatori possono così creare un “modello vocale” per ingannare le vittime, convincendole di essere un parente in difficoltà o con un bisogno urgente di denaro. (Continua a leggere dopo la foto)
Truffe con l’Intelligenza artificiale: come proteggersi
L’allerta è massima: chiunque potrebbe diventare vittima di una truffa simile, soprattutto coloro che hanno familiari anziani o poco avvezzi alla tecnologia. Prestare attenzione alle telefonate insolite e non consegnare mai soldi o beni preziosi senza prima verificare l’identità della persona dall’altro lato della linea è fondamentale. La rapidità di diffusione di queste nuove truffe è un chiaro segnale dell’evoluzione dei metodi criminali e dell’urgente necessità di maggiore consapevolezza sul pericolo rappresentato dall’AI che clona le voci.