Vai al contenuto

“Pronto, nonna…”, ma è la truffa dei finti nipoti. Intelligenza artificiale nuova frontiera dei ladri

05/02/2024 14:22 - Aggiornamento 05/02/2024 14:25
truffe voce clonata ai

Pronto, nonna…”. Comincia così l’ultima truffa, anzi cyberttrufa, che ha fatto scattare l’allarme dopo due episodi verificatisi a Roma nella scorsa settimana. Il problema è che dall’altra parte della cornetta non c’era alcun nipote: attraverso l’Intelligenza artificiale, infatti, ora si possono clonare le voci. Vediamo cosa è successo nella Capitale. (Continua a leggere dopo la foto)
Leggi anche: “Diritto alla riparazione”, l’Europa raggiunge l’accordo. Interessa tutti: ecco di cosa si tratta

truffe voce clonata ai
Foto: un fotogramma tratto dalla telecamera di sorveglianza domestica

Due casi in pochi giorni

Primo episodio, siamo nel quartiere di San Giovanni: un’anziana è stata raggirata da una malintenzionata, che, proprio grazie a una apposita app basata sulla Intelligenza artificiale utilizzava la stessa voce della nipote avanzando la richiesta di soldi per partecipare a un workshop professionale. Una complice, un’altra truffatrice è arrivata a casa spacciandosi per amica della nipote, e ha messo le mani su 4mila euro in contanti e 2mila in preziosi e gioielli. Nella stessa settimana, i ladri hanno colpito anche a Largo di Porta Cavalleggeri. La donna di 83 anni è stata chiamata da un uomo, questa volta con la voce del nipote. Finto nipote che gli avrebbe chiesto duemila euro per un acquisto urgente. Come nel caso precedente, anche qui alla porta dell’abitazione della signora si è presentato un ragazzo, che si sarebbe presentato come un amico fidato del ragazzo, come si può leggere su Il Messaggero. Tutto ciò di cui il truffatore necessita per perpetrare il raggiro è un file audio del soggetto da “clonare” e un programma di Intelligenza Artificiale capace di farlo. Basterebbe, dunque, salvare l’audio di una determinata persona mentre parla, magari in un video diffuso su un qualsiasi social network. (Continua a leggere dopo la foto)
Leggi anche: WhatsApp, in arrivo la condivisione file via bluetooth

Come è possibile?

La clonazione della voce, secondo quanto apprendiamo dal portale Melablog, è una tecnologia che permette di creare una copia sintetica della voce di una persona, utilizzando algoritmi di intelligenza artificiale basati sull’apprendimento profondo, il cosiddetto Deep Learning. Il modello vocale è una rappresentazione matematica della voce che ne cattura le caratteristiche acustiche e linguistiche, come il timbro, l’intonazione, il ritmo e il vocabolario. L’Intelligenza Artificiale utilizza dei metodi di apprendimento profondo, come le reti neurali, per analizzare i dati audio e creare il modello vocale. Per quanto riguarda le applicazioni capaci di tale operazione, l’elenco è già lungo, tra i più noti figurano Murf.ai, Beyondwords, Play.ht voice cloning, Resemble.ai, Reespecher. (Continua a leggere dopo la foto)
Leggi anche:  Cosa fare se un numero internazionale (sconosciuto) ci chiama su WhatsApp?

Una truffa “importata”

Si tratta di una nuova truffa “importata” dagli Stati Uniti: a Scottsdale, in Arizona, nell’aprile del 2023 una donna ha ricevuto la telefonata della – presunta – figlia quindicenne che, disperata, invocava il suo aiuto. Poi, al telefono un individuo (in carne ed ossa) ha detto ciò che riportiamo fedelmente, per come è stato raccontato dalla malcapitata alla stampa americana: “Ascolta, abbiamo tua figlia. Ecco cosa succede ora. Se chiami la polizia o lo dici a qualcuno, la imbottisco di droghe e la scarico da qualche parte in Messico”. E in lontananza, ancora la voce della ragazza che gridava “Aiutami mamma, aiutami, aiutami!” Inutile dire che la donna ha pagato il riscatto, per poi appurare che, fortunatamente, la figlia stesse benissimo. “Era chiaramente la sua voce – nelle parole della madre – Era la sua inflessione, era il modo in cui avrebbe pianto, non ho dubitato neppure per un secondo che fosse lei”.


Leggi anche: Condizionatori e frigoriferi: cosa cambia con la nuova legge Ue