Intelligenza artificiale, OpenAi lancia “Voice Engine”: così clona la voce umana. I rischi
OpenAI, il gigante dell’intelligenza artificiale che ha creato ChatGPT, ha presentato un sistema per clonare la voce: “Voice Engine”. L’uso di questo sistema sarà limitato per impedire frodi o crimini, come il furto d’identità. Questo modello d’intelligenza artificiale è in grado di riprodurre la voce di una persona da un campione audio di 15 secondi, secondo quanto comunicato da OpenAI in base ai risultati di un test condotto su piccola scala. «Riconosciamo che la capacità di generare voci simili a quelle delle persone comporta rischi seri, che sono particolarmente rilevanti in quest’anno elettorale. Lavoriamo con partner americani e internazionali del governo, dei media, dell’intrattenimento, dell’educazione, della società civile e di altri settori e terremo conto delle loro osservazioni man mano che svilupperemo il modello», ha dichiarato la società con sede a San Francisco.
"Intelligenza artificiale": il video di Kate non mette a tacere i complottisti
OpenAI ha assicura di aver adottato «un approccio prudente e informato», prima di una più ampia diffusione del nuovo strumento «in considerazione del potenziale uso improprio delle voci sintetiche». La precisazione segue un grave incidente politico avvenuto quando un consulente della campagna presidenziale di un rivale democratico del presidente americano Joe Biden ha messo a punto un programma in grado di simulare l’identità di quest’ultimo, in corsa per la rielezione. La voce che imitava quella di Biden incitava gli elettori a non votare alle primarie del New Hampshire. Gli Stati Uniti hanno poi vietato un simile impiego delle voci clonate generate dall’IA, per contrastare le truffe politiche o commerciali.
"Così sarà l'IA italiana", la linea dopo la legge Ue: cosa ci aspetta
OpenAI ha specificato che i partner che testano Voice Engine hanno accettato regole che implicano il consenso esplicito e informato di qualsiasi persona la cui voce sia clonata e la trasparenza per coloro che l’ascoltano, i quali devono essere chiaramente informati che quelle voci sono generate dall’intelligenza artificiale. «Abbiamo adottato», ha assicurato OpenAi, «un insieme di misure di sicurezza, incluso un marchio per poter risalire all’origine di qualsiasi suono generato da Voice Engine, e un controllo proattivo del suo utilizzo». Lo scorso ottobre la Casa Bianca ha reso note le regole e i principi per disciplinare lo sviluppo dell’IA, fra i quali quello della trasparenza.