Gli esseri umani sono in grado di identificare solo il 73% dei deepfake audio generati dall'IA
Il 7 luglio scorso, il Center for Open Science ha pubblicato i dati aggiornati relativi al suo progetto OSF sul riconoscimento dei deepfake audio. Il progetto è partito all’inizio dell'anno e studia la capacità degli esseri umani di rilevare i campioni di parlato generati dall'IA. I ricercatori hanno rilevato 50 campioni di parlato deepfake generati da due set di dati pubblici in inglese e mandarino.
I deepfake sono media sintetici, generati dall'intelligenza artificiale per assomigliare alla voce o all'aspetto di una persona reale. I 529 partecipanti a cui è stato chiesto di individuare il campione reale da un discorso falso, sono stati in grado di identificare il discorso falso solo nel 73% dei casi. Il risultato non è cambiato di molto neppure dopo che i partecipanti avevano ricevuto una formazione per riconoscere gli aspetti del discorso deepfake.
Secondo gli esperti del settore, i deepfake rappresentano la maggiore preoccupazione legata all'uso dell'intelligenza artificiale. Mentre il loro sviluppo continua, i sofisticati sistemi di rilevamento, ampiamente disponibili, non sono alla portata di tutti. Inoltre, i sistemi giudiziari dei vari paesi non sono stati aggiornati per prot