La seconda versione di Sora, lanciata da OpenAI, pochissimi giorni sui dispositivi Android del Nord America, sta polverizzando ogni record: oltre un milione di download nei primi cinque giorni. L'app, fino a pochi giorni fa disponibile su invito solo per iOS (Apple) negli Stati Uniti e in Canada, consente di creare video iperrealistici di dieci secondi a partire da semplici descrizioni testuali.
In pratica, basta digitare una frase come "un cane corre a Central Park" e nel giro di pochi istanti il software genera una clip che sembra tratta da un film. Il successo è stato immediato, anche grazie alla possibilità di condividere facilmente i filmati sui social, ma l'ascesa di Sora ha già scatenato discussioni accese circa la possibilità di ricreare volti, luoghi e personaggi reali, anche defunti, alimentando il dibattito su etica, diritto d'autore e limiti dell'IA generativa.. Video impossibili. Sora 2 segna un netto salto di qualità rispetto al primo modello, di per sé già sorprendente. Oltre a una resa visiva migliorata, l'IA è integrata con un sistema che riconosce il linguaggio naturale in modo più preciso e riproduce movimenti di camera, illuminazione e texture con una fedeltà impressionante. I risultati sono spesso indistinguibili dai filmati reali e hanno invaso i social network in poche ore.
Alcuni video mostrano ricostruzioni di scene con personaggi famosi, tra cui cantanti e attori scomparsi, tanto che la figlia di Robin Williams ha chiesto pubblicamente di smettere di condividere versioni "virtuali" del padre. In altri casi, invece, gli utenti hanno spinto la creatività oltre i confini legali: un deepfake virale mostrava il CEO di OpenAI, Sam Altman, che dialogava con personaggi dei Pokémon, ironizzando sui rischi di violazione del copyright. Sorpresa dal boom degli ultimi giorni, la stessa azienda ha ammesso di essere ancora alla ricerca di un equilibrio tra libertà creativa e rispetto dei diritti dei soggetti rappresentati.. Questioni spinose. L'app Sora 2 ha sollevato un'altra questione cruciale: di chi è la responsabilità dei contenuti generati? Secondo OpenAI, la piattaforma è protetta da un sistema di moderazione e da filtri che limitano gli abusi, ma i casi di deepfake dimostrano che, con ogni probabilità, queste limitazioni non bastano. I modelli video, come quelli testuali, apprendono da enormi quantità di dati, e distinguere tra uso legittimo e sfruttamento illecito resta complesso.
Altman ha dichiarato che l'azienda introdurrà "un controllo più granulare", ossia la possibilità per i detentori dei diritti di decidere in modo dettagliato come, dove e da chi possano essere utilizzati i propri personaggi o contenuti protetti. Allo stesso tempo, il CEO ha accennato all'introduzione nel prossimo futuro di un meccanismo di condivisione dei ricavi ("revenue sharing") che consentirebbe di ridistribuire parte dei guadagni generati a chi volesse autorizzare l'uso dei propri personaggi o opere. Intanto, il successo virale di Sora 2 sta mettendo alla prova anche i server di OpenAI, sommersi dalle richieste degli utenti, con evidenti rallentamenti nella produzione di risultati.. Primato italiano. Mentre Sora 2 sbarca su Android – con il debutto previsto a breve (in una data non ancora comunicata) anche fuori dal Nord America – l'Italia sta già regolamentando il fenomeno. Dal 10 ottobre è in vigore una nuova legge sull'intelligenza artificiale che introduce per la prima volta il reato di deepfake: chi diffonde, senza consenso, video, audio o immagini falsificati che danneggiano una persona rischia da uno a cinque anni di reclusione.
La norma, la prima nel suo genere in Europa, colma un vuoto giuridico in un'epoca in cui strumenti come Sora e Sora 2 rendono la manipolazione visiva alla portata di chiunque. Il provvedimento mira a tutelare non solo la reputazione individuale, ma anche la creatività umana, minacciata da algoritmi sempre più potenti, al punto che in pochi anni un video generato artificialmente potrebbe non essere più distinguibile da uno reale, almeno a occhio nudo..