IA agentica e sicurezza informatica: online l’analisi del CERT-AgID 

28/11/2025

Agentic AI Intelligenza Artificiale

Il documento esplora il nuovo paradigma dell’IA, mettendo in evidenza come la prevenzione sia l’unica via per una gestione consapevole.

L’evoluzione dell’Intelligenza Artificiale verso sistemi capaci di agire, eseguire comandi e interagire con file e sistemi operativi, ha introdotto nuove e complesse sfide di sicurezza.

Per rispondere a questi rischi emergenti, il CERT-AGID ha condotto una ricerca esplorativa sul comportamento degli agenti AI quando sono connessi al codice reale, con lo scopo di analizzare come i sistemi interpretano le funzioni operative e quali vulnerabilità possono esporre.

L’analisi del CERT-AgID

Il CERT dell’Agenzia ha realizzato un esperimento con il Software Development Kit (SDK) Gemini per osservare come un agente IA possa dialogare con il sistema operativo e quali rischi si possano nascondere dietro un’apparente semplicità. 

Il documento spiega, passo dopo passo, come un agente IA “pensa e agisce,” come interpreta le funzioni che gli vengono assegnate e, soprattutto, come può inavvertitamente rivelare informazioni sensibili se le interfacce non sono progettate con attenzione.

La protezione, infatti, non dipende solo dall’efficienza del modello di IA, ma dalla qualità e robustezza del codice e degli strumenti che lo collegano all’ambiente operativo. Non basta che un agente risponda in modo coerente: ciò che conta è come si comporta quando esegue un’azione reale.

Prevenzione vs reazione

Il punto su cui viene posta l’attenzione è quello della prevenzione. Proprio come in medicina, infatti, la diagnosi precoce – che in questo caso equivale a verificare, testare e revisionare il codice ben prima del suo rilascio – è molto più efficace della cura dopo l’incidente.

Se il codice che collega l’agente all’ambiente operativo è vulnerabile o scritto senza adeguate precauzioni, l’agente si limiterà ad eseguire alla lettera l’errore progettuale, senza preoccuparsi degli eventuali rischi. La sicurezza, in questo scenario, consiste nel costruire infrastrutture digitali più sicure, un codice che agisca come carreggiata, segnaletica e barriera.

Prevenire, dunque, è l’unico modo per garantire che l’intelligenza artificiale rimanga sotto il controllo dell’intelligenza umana. La sicurezza non può più essere considerata un accessorio, ma deve essere parte integrante della sua architettura fin dall’inizio.

Link al documento: Agenti_IA_e_Sicurezza_comprendere_per_governare