Agenti AI sempre più autonomi: Altman di OpenAI ammette il problema e cerca un esperto



[ZEUS News - www.zeusnews.it - 30-12-2025]

altman agenti head preparedness
Foto di André Julien.

Sam Altman è preoccupato. Il CEO di OpenAI ha di recente affermato pubblicamente che gli agenti AI «stanno diventando un problema», sottolineando come alcuni modelli inizino a individuare autonomamente percorsi per aggirare limiti o vincoli operativi. Altman ha spiegato che i modelli più recenti mostrano comportamenti emergenti difficili da prevedere in fase di progettazione, un fenomeno già osservato in diversi sistemi di machine learning avanzati. Il dirigente ha evidenziato che gli agenti AI stanno iniziando a «trovare modi» per raggiungere obiettivi non esplicitamente programmati, un segnale che richiede maggiore attenzione da parte dell'industria e dei regolatori.

Per affrontare questa e altre preoccupazioni, OpenAI ha avviato una ricerca pubblica per una nuova figura professionale dedicata alla prevenzione dei rischi legati all'intelligenza artificiale. Come mostra un post di Altman su X, la società leader nell'IA sta cercando un Head of Preparedness (Responsabile della Preparazione), una figura incaricata di analizzare scenari critici e valutare minacce concrete, dalle manipolazioni psicologiche ai possibili utilizzi malevoli dei sistemi generativi. La posizione prevede la responsabilità di definire protocolli di sicurezza e strategie di mitigazione per modelli sempre più autonomi.

La nuova figura dovrà occuparsi anche di valutare l'impatto dei chatbot sulla salute mentale, un tema già sollevato dai ricercatori negli ultimi anni. Le preoccupazioni espresse dal CEO di OpenAI non riguardano soltanto l'autonomia dei modelli, ma anche la loro capacità di influenzare il comportamento umano. Tra gli scenari analizzati dal futuro responsabile della sicurezza rientrano anche i rischi legati alla manipolazione emotiva e alla diffusione di contenuti fuorvianti generati automaticamente. La crescente sofisticazione dei modelli rende più difficile distinguere tra contenuti autentici e generati artificialmente. Tra i rischi considerati rientrano anche i cyberattacchi potenziati dall'AI, in grado di sfruttare vulnerabilità informatiche con una rapidità superiore a quella dei sistemi tradizionali.

Le dichiarazioni di Altman si inseriscono in un contesto più ampio di riflessione interna a OpenAI. Negli ultimi mesi il gruppo ha discusso pubblicamente la necessità di definire meglio concetti come AGI e superintelligenza, evidenziando come la mancanza di definizioni condivise renda complessa la valutazione dei progressi reali e delle implicazioni etiche. Altman considera la superintelligenza un obiettivo tecnologico ormai all'orizzonte, con potenziali applicazioni in ruoli complessi come la gestione di grandi organizzazioni o la ricerca scientifica avanzata.

Un altro elemento riguarda la necessità di sviluppare sistemi di monitoraggio più avanzati. Altman ha sottolineato che i modelli di nuova generazione richiedono strumenti di controllo capaci di identificare deviazioni comportamentali in tempo reale, un aspetto che diventerà centrale man mano che gli agenti AI verranno integrati in applicazioni critiche. La ricerca di un Head of Preparedness vuole rappresentare quindi un passo concreto verso la creazione di un'infrastruttura di sicurezza più solida. Il ruolo prevede la collaborazione con team tecnici, esperti di cybersecurity e specialisti di comportamento umano, con l'obiettivo di anticipare scenari problematici prima che possano manifestarsi su larga scala.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News ti consigliamo di iscriverti alla Newsletter gratuita. Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui sotto, inserire un commento (anche anonimo) o segnalare un refuso.
© RIPRODUZIONE RISERVATA

Approfondimenti
Amazon, guadagni record ma 14.000 licenziamenti: la IA renderà il gigante ancora più efficiente
La IA di Google clicca, scrive e naviga come un utente vero. Si chiama Gemini 2.5 Computer Use

Commenti all'articolo (ultimi 5 di 7)

Penso che questa possa essere una spiegazione assai razionale e molto vicina alla realtà. Aggiungerei però che Altman, che del tutto stupido non è, potrebbe aver interpretato e divulgato la cosa in modo da prendere i classici due piccioni con una fava. Da un lato dice guarda com'è intelligente e furba la mia IA che prova anche a farmi... Leggi tutto
14-1-2026 16:35

{Murdock}
Sicuramente una mossa di marketing per sottolineare che sono avanti, ma anche per pararsi il posteriore e dire che loro stanno anche gestendo quell'aspetto. Ho come l'impressione che tra poco qualcuno chiedera' conto dei malfunzionamenti/danni creati da lla IA, del resto e' sempre un prodotto, un algoritmo creato e... Leggi tutto
8-1-2026 11:58

Diceva Andreotti che ha pensare male si commette peccato, ma qualche volta ci sia azzecca :twisted: Poi che dicano " Il dirigente ha evidenziato che gli agenti AI stanno iniziando a «trovare modi» per raggiungere obiettivi non esplicitamente programmati, potresti tradurla con, perbacco si chiama intelligenza, lo progetti per... Leggi tutto
31-12-2025 18:37

{nepo}
Le uscite di Altman sono sempre da prendere con le pinze, perché quell'uomo è veramente diabolico e sfuggente, e le sue sono sempre mosse calcolate per aumentare le vendite e anche per minimizzare in futuro le conseguenze dei rischi (l'avevo detto...). Detto questo, l'approccio umano ai problemi... Leggi tutto
31-12-2025 17:34

{inuno}
Da quello che so il "machine learning avanzato" permette all'AI di programmarsi in parte da sola così che "funzioni", quindi alla fine nemmeno il programmatore sa esattamente come. Suppongo che comportamenti imprevisti siano normali, ma il fatto che "alcuni modelli inizino a individuare autonomamente... Leggi tutto
31-12-2025 09:17

La liberta' di parola e' un diritto inviolabile, ma nei forum di Zeus News vige un regolamento che impone delle restrizioni e che l'utente e' tenuto a rispettare. I moderatori si riservano il diritto di cancellare o modificare i commenti inseriti dagli utenti, senza dover fornire giustificazione alcuna. Gli utenti non registrati al forum inoltre sono sottoposti a moderazione preventiva. La responsabilita' dei commenti ricade esclusivamente sui rispettivi autori. I principali consigli: rimani sempre in argomento; evita commenti offensivi, volgari, violenti o che inneggiano all'illegalita'; non inserire dati personali, link inutili o spam in generale.
E' VIETATA la riproduzione dei testi e delle immagini senza l'espressa autorizzazione scritta di Zeus News. Tutti i marchi e i marchi registrati citati sono di proprietà delle rispettive società. Informativa sulla privacy. I tuoi suggerimenti sono di vitale importanza per Zeus News. Contatta la redazione e contribuisci anche tu a migliorare il sito: pubblicheremo sui forum le lettere piu' interessanti.
Sondaggio
I sacchetti biodegradabili sono più innovazione o più ecobufala?
Innovazione: faranno risparmiare petrolio e calare l'inquinamento.
Ecobufala: costano di più e per l'ambiente non cambia niente.

Mostra i risultati (3647 voti)
Maggio 2026
Gmail, lo spazio gratuito si riduce a 5 Gbyte
Crisi della RAM, in vendita DDR 5 false con i chip in fibra di vetro
Windows 11 accelera davvero
Password in chiaro nella memoria di Edge
Google Chrome scarica un modello AI da 4 GB senza avvisare gli utenti
Windows 11, il CEO Nadella ammette gli errori
Disastro PocketOS: l'agente IA cancella database e backup in pochi secondi senza supervisione
Aprile 2026
Telemarketing, arrivano i numeri brevi: identificheranno i servizi legittimi
Windows 11 cambia rotta: Microsoft ricostruisce il sistema attorno alle richieste degli utenti
Firefox 150, scovate 271 vulnerabilità con l'IA
IPv6 supera IPv4 per un giorno
Verifica dell'età, l'app UE si buca in meno di due minuti
Alexa+ debutta in Italia: conversa, agisce e si integra nella smart home
Verbatim e I-O Data puntano sul Blu-ray: rinasce un mercato dato per morto
La Francia abbandona Windows
Tutti gli Arretrati
Accadde oggi - 17 maggio


web metrics