La voce è un dato e le pop star e gli attori stanno correndo ai ripari per tutelarla ed evitare un uso illegale e truffaldino. L’Intelligenza Artificiale oggi può analizzare tono, ritmo, pronuncia e schemi linguistici per generarne una copia realistica che non si distingue dall’originale. Se si posta video, si fanno podcast, s’insegna, si creano contenuti o si condivide la propria vita online, la voce potrebbe già essere parte dell’economia dei dati. La popstar americana Taylor Swift ha deciso di mettere un lucchetto legale sulla propria identità vocale. Il punto è che con tutta probabilità tutti noi dovremmo farlo.
Taylor Swift ha depositato un marchio sonoro sulla propria voce, una mossa che si appoggia sull’ELVIS Act del Tennessee, la prima legge a dichiarare guerra alla clonazione vocale IA non autorizzata. Non è una legge solo per le celebrità, protegge chiunque dalla riproduzione non autorizzata della propria voce tramite l’IA. L’attore Matthew McConaughey ha fatto lo stesso. Ma il segnale importante non è che le celebrità proteggano la propria identità, è che l’identità sia diventata qualcosa che ha bisogno di protezione legale.
Non serve essere una celebrità per avere qualcosa che vale la pena imitare. Basta una voce riconoscibile, e oggi, per un algoritmo, ogni voce lo è. La clonazione vocale consiste nell’utilizzo di tecniche di intelligenza artificiale per replicare e imitare fedelmente la voce di una persona reale. Funziona così: si forniscono all’IA diversi campioni audio contenenti la voce target da clonare. L’algoritmo analizza le caratteristiche uniche di quella voce, come timbro, tono, accento, modo di parlare. Successivamente, l’IA è in grado di generare nuovo audio che imita in maniera estremamente precisa la voce originale. In questo modo, il generatore text-to-speech è in grado di pronunciare frasi che in realtà non sono mai state dette dalla persona la cui voce è stata clonata. Questa tecnologia ha molteplici applicazioni:
- Siti web: un intero sito web può essere letto ad alta voce da un’Intelligenza Artificiale che riproduce la voce del suo autore, di una persona identificabile – l’amministratore delegato, i dirigenti di un’azienda, o quella di un attore o di un regista…
- Assistenza: le voci clonate possono essere utilizzate per personalizzare le risposte nelle applicazioni di assistenza vocale, offrendo un’esperienza più familiare e coinvolgente.
- Industria dell’intrattenimento: nel cinema, nella televisione e nei videogiochi, la clonazione vocale consente di utilizzare la voce di un attore o di un’attrice per diversi progetti, riducendo i costi di registrazione. Le voci clonate possono essere utilizzate anche per il doppiaggio, anche se nel caso di ElevenLabs è consigliabile che le voci clonate parlino nella stessa lingua delle registrazioni originali.
- Audiolibri e podcast: gli editori possono utilizzare la clonazione vocale per produrre audiolibri o podcast con la voce dell’autore o di altre voci famose (naturalmente con il loro consenso).
- Servizi di comunicazione per persone con disabilità: per le persone che non sono in grado di parlare, la clonazione vocale può consentire loro di comunicare utilizzando una voce che assomiglia alla loro voce naturale, com’era prima di perdere l’uso della parola.
- Pubblicità: le aziende possono utilizzare – ovviamente con il consenso delle persone interessate – le voci clonate di celebrità o personaggi noti per rendere più attraenti e personalizzati i loro messaggi pubblicitari.
Non serve un team legale per limitare l’uso improprio o illegale della propria voce da parte dell’IA. Basta cercare il proprio nome online e verificare quali video, podcast, foto e biografie sono pubblicamente accessibili. È importante anche chiudere o aggiornare gli account social inutilizzati, canali YouTube abbandonati, pagine pubbliche dimenticate, che possono diventare punti deboli. Meglio usare anche un branding coerente su tutte le piattaforme, username, foto profilo, biografie identiche rendono più facile individuare account falsi. Un’ulteriore precauzione consiste nel concordare in famiglia una parola di sicurezza. In caso di chiamate in cui un presunto parente in difficoltà chieda denaro, è utile richiederla per verificare l’identità. Se non viene fornita correttamente, è probabile che si tratti di un contenuto generato artificialmente.
Le truffe basate sulla clonazione vocale stanno crescendo rapidamente. Chiamate che imitano la voce di un famigliare in difficoltà per estorcere denaro. Falsi endorsement con la voce di persone reali. Robocall con voci clonate di personaggi pubblici. La tecnologia migliora ogni mese, e il confine tra voce reale e sintetica diventa sempre più difficile da riconoscere. Non serve essere una celebrità per avere qualcosa che vale la pena imitare. Basta una voce riconoscibile, e oggi, per un algoritmo, ogni voce lo è. Il problema, per le persone comuni, è la rapidità degli interventi. Quando una celebrità segnala un contenuto falso, le piattaforme intervengono subito, quando lo fa una persona qualsiasi, la rimozione può richiedere settimane, se va bene. (In collaborazione con punto-informatico.it)
