TV7 NEXT - AI E GUERRA: CHI DECIDE I LIMITI?
Lo scontro tra Anthropic e il Dipartimento della Difesa degli Stati Uniti apre una nuova fase nel dibattito globale sull’intelligenza artificiale.
L’azienda, sviluppatrice del modello Claude, è tra le più attente alla sicurezza nel panorama dell’AI. La sua filosofia prevede l’integrazione di forti meccanismi di controllo per impedire utilizzi dannosi o non etici della tecnologia.
Nonostante un contratto da 200 milioni di dollari con il governo americano, Anthropic ha dichiarato di non voler consentire l’uso dei propri modelli per operazioni letali o per attività di sorveglianza governativa.
Una posizione che ha creato frizioni con il Pentagono.
Tra sicurezza nazionale e limiti etici
Il Dipartimento della Difesa ha fatto sapere che i partner strategici devono essere pronti a supportare pienamente le esigenze militari. In questo contesto, limitazioni sull’uso dei modelli potrebbero essere considerate incompatibili con le necessità operative.
Il caso solleva interrogativi più ampi.
Se l’AI viene integrata nei sistemi di difesa, può rimanere neutrale? È possibile mantenere standard di sicurezza elevati quando la tecnologia viene impiegata in contesti bellici?
Negli ultimi anni molte aziende tecnologiche hanno progressivamente abbandonato le reticenze iniziali verso la collaborazione con il settore militare. L’AI è ormai considerata una leva strategica per la sicurezza nazionale.
Ma l’utilizzo in ambito militare rischia di accelerare una corsa agli armamenti digitali, con potenziali ricadute globali.
La questione non riguarda soltanto un contratto o un’azienda. Riguarda la governance dell’intelligenza artificiale e la capacità delle democrazie di stabilire regole condivise su una tecnologia sempre più potente.
Il futuro dell’AI dipenderà da chi avrà l’ultima parola sui suoi limiti. Le imprese che la progettano o gli Stati che la finanziano?
Servizio a cura di Claudia Chasen redazione Tv7