Deepfake, la start up italiana IdentifAI ottiene 5 milioni per la tecnologia anti-falsi digitali
- Postato il 24 luglio 2025
- Di Panorama
- 3 Visualizzazioni


Secondo round di finanziamento per IdentifAI, la start-up italiana che ha creato una piattaforma tecnologica basata sull’intelligenza artificiale “degenerativa” in grado di riconoscere e smascherare immagini, video e voci creati con l’Intelligenza artificiale generativa e non da esseri umani. Si tratta di 5 milioni di euro sottoscritti da United Ventures, che si affianca ai 2,2 milioni di euro già sottoscritti meno di un anno fa dal gestore di venture capital focalizzato negli investimenti in start-up tecnologiche.
La sfida ai deepfake
La start-up, unica in Italia, nata lo scorso anno dall’intuizione di Marco Ramilli, da anni attivo nel mondo della cybersecurity, e di Marco Castaldo, con cui ha anche co-fondato Yoroi, azienda poi rilevata ad aprile da Tinexta Cyber, ha già migliaia di clienti attivi nel campo dei media, ma anche in quello bancario e assicurativo, dove la piattaforma viene utilizzata per validare determinati processi e sventare così le truffe.

Ma la guerra ai deepfake di IdentiAi si sta spostando anche ad altri settori come il mondo dello sport, a cui la piattaforma di IA farà capire se i provini inviati alle società sportive sono veri o falsi, e persino al settore degli influencer e dell’e-commerce che sempre più spesso mette in vetrina prodotti ed esperienze assai “ritoccati”. «Certo» sottolinea Ramilli, «l’alterazione delle immagini c’è sempre stato anche in passato, ma prima erano in pochi a saperle ritoccare, mentre ora il pubblico è vastissimo e non serve grande esperienza per farlo in modo indistinguibile dalla realtà».
Verso nuove tutele legali
Un problema destinato a diventare sempre più incontrollato e che ha spinto la Danimarca a studiare una legge che tuteli i cittadini introducendo un copyright sulla loro immagine, tratti somatici, voce, che renderebbe così illegale la condivisione dei deepfake, introducendo tutele legali per impedire che materiale creato con l’intelligenza artificiale e raffigurante una persona venga diffuso senza il suo consenso. «E’ inevitabile che questa sarà la strada da percorrere, dato che ormai non si riesce più a distinguere tra il vero e il falso» continua Ramilli. «Questo fa perdere di valore all’informazione, al punto che in futuro bisognerà certificare che quel determinato contenuto è vero, un trend molto importante tra i giovani che passano tanto tempo sui social e faticano a capire cosa è vero e cosa no».
E tanto lavoro per IdentifAI che sta per lanciare anche Paladin, un software che all’interno delle riunioni via Zoom permetterà di verificare che chi è collegato sia davvero chi dice di essere…