Le minacce di Hegseth ad Anthropic per condividere la propria tecnologia
- Postato il 27 febbraio 2026
- Di Il Foglio
- 1 Visualizzazioni
Le minacce di Hegseth ad Anthropic per condividere la propria tecnologia
Il segretario americano alla Difesa, Pete Hegseth, ha minacciato Anthropic, dicendo di poter costringere l’azienda di intelligenza artificiale a condividere la propria tecnologia innovativa in nome della sicurezza nazionale, qualora questa non accettasse entro oggi le condizioni poste dal Pentagono, secondo quanto riferito da persone a conoscenza dei negoziati in corso. Anthropic è però pronta ad abbandonare i negoziati – e il suo contratto da 200 milioni di dollari con il dipartimento della Difesa – se non verranno prese in considerazione le preoccupazioni relative all’utilizzo della sua tecnologia per le armi autonome o la sorveglianza di massa. Il Pentagono ha sostenuto di non proporre alcun utilizzo illecito della tecnologia di Anthropic. Un alto funzionario della Difesa ha dichiarato in una nota al Washington Post che, qualora l’azienda non si dovesse adeguare entro le 17:01 di venerdì, Hegseth “farà in modo che il Defense Production Act venga invocato nei confronti di Anthropic, obbligandola a essere utilizzata dal Pentagono indipendentemente dalla sua volontà”. “Tutto ciò non ha nulla a che fare con la sorveglianza di massa o l’impiego di armi autonome”, ha aggiunto il funzionario. Anthropic è la prima azienda ad aver integrato la propria tecnologia nelle reti classificate del Pentagono, e si è posizionata in modo aggressivo come attore chiave nel campo della sicurezza nazionale. In un incontro con Hegseth tenutosi martedì, Dario Amodei, co-fondatore e amministratore delegato dell’azienda, ha ribadito con fermezza che il suo modello di AI, Claude, non dovrebbe essere utilizzato per azionare armi autonome né per condurre sorveglianza di massa ai danni dei cittadini americani, secondo le persone a conoscenza dei colloqui. Le tensioni tra l’azienda e il Pentagono si sono acuite nelle ultime settimane in merito all’utilizzo dell’AI di Anthropic durante il raid per catturare il presidente venezuelano Nicolás Maduro. I funzionari della Difesa hanno reagito prontamente, lasciando intendere che, qualora Anthropic non avesse consentito al Pentagono di applicare l’AI secondo le proprie intenzioni – nei limiti di legge – l’azienda sarebbe stata considerata un rischio per la catena di approvvigionamento, con conseguente perdita di opportunità commerciali future per essa e per qualsiasi azienda che ne subappaltasse l’AI. Nel corso dell’incontro di martedì, Hegseth è andato oltre, affermando che Anthropic potrebbe essere soggetta anche al Defense Production Act – che consente al governo di acquisire il controllo di aziende e dei loro prodotti – in nome della sicurezza nazionale. Il Dpa era già stato invocato durante la pandemia di Covid per far fronte alla carenza di forniture mediche. Tuttavia, gli esperti del Dpa hanno messo in dubbio la possibilità di utilizzarlo per costringere Anthropic ad abbandonare le limitazioni che intende mantenere sulle modalità di utilizzo della sua tecnologia. Amodei ha sostenuto che nessuno dei due limiti da lui richiesti avrebbe interferito con il lavoro del dipartimento, ha riferito la fonte anonima. “Nel corso della conversazione, Dario ha espresso apprezzamento per il lavoro del dipartimento e ha ringraziato il segretario per il suo servizio”, ha dichiarato Anthropic in una nota. “Abbiamo proseguito le conversazioni in buona fede riguardo alla nostra politica d’uso, per garantire che Anthropic possa continuare a supportare la missione di sicurezza nazionale del governo in linea con ciò che i nostri modelli possono fare in modo affidabile e responsabile”.
Il meeting arriva dopo settimane di critiche crescenti ad Anthropic da parte dei funzionari del Pentagono. Hegseth e il suo team hanno insistito nelle ultime settimane affinché le forze armate abbiano piena libertà di utilizzare gli strumenti di AI come ritengono opportuno, limitati soltanto dalla legge e non dai vincoli imposti dalle aziende che sviluppano i sistemi. I funzionari della Difesa affermano che altre aziende leader hanno acconsentito, almeno per il lavoro non classificato, dipingendo Anthropic come l’unica a fare resistenza. Un alto funzionario della Difesa ha dichiarato che anche Grok di Elon Musk, il chatbot sviluppato dalla sua società di AI xAI, è stato approvato per l’uso in un contesto classificato, e che altre aziende di AI sono prossime a consentire l’uso classificato. Anthropic e Amodei stanno cercando di muoversi su un filo sottile, presentandosi come più che disponibili a collaborare con il Pentagono e descrivendo l’AI come una tecnologia fondamentale per consentire ai paesi democratici di difendersi. Ma poco dopo che Hegseth aveva esposto le sue posizioni in una direttiva interna, Amodei ha pubblicato un saggio in cui avvertiva dei pericoli delle armi completamente autonome e degli strumenti di sorveglianza di massa. Ha scritto che, sebbene ci si potesse aspettare che i paesi democratici ponessero dei limiti all’utilizzo di tali sistemi, “alcune di queste tutele si stanno già gradualmente erodendo in alcune democrazie”. Il Pentagono ha accelerato gli sforzi per integrare l’AI nei propri sistemi d’arma, spinto dalla competizione con la Cina – che è in corsa per acquisire tecnologia AI per il proprio esercito – e da nuove minacce come i missili ipersonici ultrarapidi a cui è difficile per gli esseri umani reagire in tempo. I conflitti in Ucraina e Gaza hanno fornito un’anteprima del ruolo che l’AI potrebbe svolgere in una guerra futura, con l’uso diffuso di droni semiautonomi a basso costo e di strumenti in grado di analizzare enormi quantità di informazioni per identificare obiettivi da colpire. Negli ultimi anni, l’aeronautica militare americana ha testato un jet a pilotaggio automatico basato sull’AI, riscontrando che è in grado di battere i piloti d’élite riducendo di frazioni di secondo le virate e le manovre. Le armi completamente autonome sono probabilmente ancora a diversi anni di distanza, affermano gli esperti. L’attuale politica del dipartimento della Difesa impone che qualsiasi sistema sia sottoposto a diversi livelli di revisione e disponga di misure di sicurezza per garantire che gli esseri umani mantengano il potere decisionale sull’uso della forza. La politica sarà rivista secondo le necessità, hanno dichiarato i funzionari. Le operazioni militari moderne sono complesse, coinvolgono migliaia di persone che prendono decisioni di vita o di morte in tempi rapidi, ha osservato Emelia Probasco, senior fellow presso il Center for Security and Emerging Technology della Georgetown University. Non sorprende che queste persone commettano errori, ha aggiunto Probasco, e gli strumenti di AI potrebbero gestire le campagne in moltissimi modi senza per questo premere il grilletto. “Tutti stanno ancora cercando di capire qual è il modo migliore per utilizzare questi sistemi per migliorare le nostre decisioni”, ha dichiarato Probasco, ex ufficiale della Marina. “Nessuno ha ancora una risposta definitiva”.
Copyright Washington Post
Continua a leggere...