[ZEUS News - www.zeusnews.it - 15-02-2026]

La decisione di Mrinank Sharma di lasciare Anthropic con una lettera pubblica in cui afferma che «il mondo è in pericolo» ha riacceso il dibattito internazionale sulla sicurezza dell'intelligenza artificiale e sulle tensioni interne alle aziende che sviluppano modelli avanzati. La sua uscita di scena, resa nota il 9 febbraio, arriva in un momento in cui la discussione sui rischi sistemici dell'AI è particolarmente intensa e coinvolge governi, ricercatori e industria. Sharma, che guidava il Safeguards Research Team di Anthropic dal 2023, ha motivato la sua scelta con una serie di preoccupazioni legate non solo all'evoluzione dell'AI, ma a un insieme di crisi globali interconnesse. Nella lettera sostiene che la capacità dell'umanità di influenzare il mondo sta crescendo più rapidamente della sua saggezza collettiva, creando un divario che potrebbe avere conseguenze gravi se non affrontato con urgenza.
Il ricercatore ha descritto difficoltà interne nel far prevalere i valori etici nelle decisioni operative. Ha affermato che il team di sicurezza viene messo «costantemente sotto pressione affinché metta da parte ciò che conta davvero», un riferimento chiaro alle tensioni tra obiettivi commerciali e requisiti di sicurezza. Questo tipo di frizione è stato segnalato anche in altre aziende del settore, dove la corsa allo sviluppo di modelli sempre più potenti può entrare in conflitto con le pratiche di mitigazione del rischio.
Durante la sua permanenza in Anthropic, Sharma ha lavorato su temi come la tendenza dei modelli linguistici ad assecondare l'utente, la prevenzione del bioterrorismo assistito dall'AI e la definizione di casi di sicurezza per sistemi avanzati. Questi progetti rientrano nella missione dichiarata, fondata con l'obiettivo esplicito di sviluppare intelligenze artificiali sicure e allineate ai valori umani. La sua uscita assume quindi un peso particolare nel contesto della cultura interna di Anthropic stessa. Il CEO Dario Amodei aveva recentemente espresso preoccupazioni simili, affermando al World Economic Forum di Davos che il progresso dell'AI sta avanzando troppo rapidamente e che sarebbe necessaria una regolamentazione per rallentare lo sviluppo dei modelli più potenti. Le dichiarazioni di Amodei riflettono un crescente consenso tra alcuni leader del settore sulla necessità di un quadro normativo più stringente per evitare rischi catastrofici.
La vicenda si inserisce in un quadro più ampio: negli ultimi anni diversi ricercatori di sicurezza hanno lasciato aziende di primo piano, citando preoccupazioni simili. Due membri chiave del team Superalignment di OpenAI si erano dimessi nel 2024, denunciando un'eccessiva enfasi sugli obiettivi finanziari rispetto alla mitigazione dei rischi legati allo sviluppo di sistemi «molto più intelligenti degli esseri umani». Questi episodi suggeriscono un malessere diffuso tra gli esperti che lavorano sulla sicurezza dell'AI avanzata. La lettera di Sharma però non si limita ai rischi tecnologici. Il ricercatore parla di una «serie di crisi interconnesse» che includono, oltre alla IA, minacce biologiche, instabilità geopolitica e vulnerabilità sistemiche. La sua analisi richiama l'attenzione sul fatto che la IA non opera in un vuoto, ma amplifica dinamiche globali già complesse.
La tempistica della sua uscita è significativa: avviene pochi giorni prima dell'AI Impact Summit 2026 di Nuova Delhi, dove governi e aziende discuteranno di sicurezza, gestione e impatto occupazionale dell'intelligenza artificiale. La sua decisione potrebbe influenzare il dibattito pubblico e istituzionale, fornendo un esempio concreto delle tensioni interne alle aziende che sviluppano modelli di frontiera. Sharma, dal canto proprio, ha descritto la sua scelta come un atto morale più che professionale, affermando che la difficoltà nel far prevalere i valori etici all'interno delle organizzazioni tecnologiche rappresenta un segnale d'allarme. La sua lettera, pur priva di dettagli operativi, suggerisce che le pressioni competitive nel settore dell'AI potrebbero compromettere la capacità delle aziende di adottare misure di sicurezza adeguate.
La reazione della comunità scientifica è stata immediata. Molti ricercatori hanno interpretato la sua uscita come un sintomo della crescente difficoltà nel conciliare innovazione rapida e sicurezza. Altri hanno sottolineato che la trasparenza sulle tensioni interne è essenziale per comprendere i rischi reali associati allo sviluppo di modelli avanzati e per definire politiche pubbliche efficaci. Il caso di Sharma contribuisce a delineare un quadro in cui la sicurezza dell'AI non è solo una questione tecnica, ma anche organizzativa, politica e culturale. La sua denuncia pubblica evidenzia la necessità di strutture di gestione più robuste, capaci di garantire che i valori dichiarati dalle aziende non vengano sacrificati in nome della velocità o della competizione.
|
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
© RIPRODUZIONE RISERVATA |
|
|
|
||
|
