Owasp top 10 LLM 2025

Owasp top 10 LLM 2025

dom 01 feb 2026
1277 parole · 7 minuti

Il mondo dell’intelligenza artificiale generativa sta vivendo una rivoluzione silenziosa ma dirompente. I Large Language Models (LLM), o modelli linguistici di grandi dimensioni, stanno trasformando il modo in cui interagiamo con la tecnologia, dalla creazione di contenuti all’assistenza clienti. Ma come ogni innovazione potente, portano con sé nuove sfide, specialmente sul fronte della sicurezza. L’Open Worldwide Application Security Project (OWASP), un’organizzazione no-profit di fama mondiale dedicata alla sicurezza delle applicazioni, è scesa in campo per illuminare queste ombre crescenti. La loro “OWASP Top 10 for LLM Applications” è diventata rapidamente la bussola indispensabile per chiunque si avventuri in questo territorio inesplorato.

L’edizione 2025 di questa lista non è un semplice aggiornamento; è un grido d’allarme, una fotografia nitida di un panorama di minacce in continua evoluzione. Se pensavamo che le vulnerabilità fossero solo una questione di codice mal scritto, l’era degli LLM ci dimostra che il pericolo si annida nelle interazioni più sottili, nei dati di addestramento e persino nell’eccessiva fiducia che riponiamo in queste intelligenze artificiali. La rapidità con cui gli LLM si stanno diffondendo, con circa il 65% delle organizzazioni che li utilizzano già in qualche funzione aziendale, rende la comprensione di questi rischi più urgente che mai.

“Proteggere un sistema di intelligenza artificiale non significa solo proteggere server e reti, ma salvaguardare l’intero ciclo di vita dell’IA, dall’inserimento iniziale dei dati a ogni risposta generata dal modello.”

Esploriamo insieme le dieci vulnerabilità più critiche che minacciano le nostre applicazioni LLM, come identificate da OWASP per il 2025.

Le 10 Minacce Capitali agli LLM: Un Viaggio nel Cuore della Sicurezza

1. Prompt Injection (LLM01:2025)

Immaginate di dare istruzioni a un’IA e che questa, a sua insaputa, venga “dirottata” da un input subdolo che la costringe a fare qualcosa di completamente diverso, magari dannoso. Questa è la Prompt Injection, la regina delle vulnerabilità LLM. Gli attaccanti manipolano il modello attraverso input appositamente creati, bypassando le misure di sicurezza e inducendo l’LLM a rivelare informazioni sensibili, generare contenuti inappropriati o eseguire azioni non autorizzate. Non è solo questione di “jailbreaking” per far dire all’IA cose divertenti; si tratta di un vero e proprio attacco alla sua integrità. Gli attacchi possono essere diretti (l’input manipola direttamente il modello) o indiretti (istruzioni dannose nascoste in fonti esterne che l’LLM elabora, come una pagina web).

2. Sensitive Information Disclosure (LLM02:2025)

Gli LLM, per essere utili, spesso necessitano di accedere a una mole enorme di dati, inclusi quelli sensibili: record sanitari, dettagli finanziari, segreti aziendali. Il rischio qui è che questi modelli possano inavvertitamente rivelare tali informazioni. Che sia attraverso un’iniezione di prompt mirata, dati di addestramento compromessi o una semplice svista, la fuoriuscita di dati sensibili può avere conseguenze catastrofiche, dalle violazioni della privacy a perdite economiche miliardarie. Pensate al caso Samsung del 2023, dove i dipendenti hanno involontariamente esposto dati aziendali sensibili usando ChatGPT.

3. Supply Chain (LLM03:2025)

La catena di approvvigionamento di un’applicazione LLM è complessa: include dataset di addestramento, modelli pre-addestrati, librerie e piattaforme di deployment. Ogni anello di questa catena rappresenta un potenziale punto debole. Gli attaccanti possono iniettare malware, bias nascosti o backdoor in questi componenti esterni, compromettendo l’integrità dell’intera applicazione. È come costruire una casa con mattoni difettosi: la struttura sarà sempre a rischio, anche se il vostro lavoro è impeccabile.

4. Data and Model Poisoning (LLM04:2025)

Questo rischio si verifica quando i dati utilizzati per l’addestramento, il fine-tuning o la creazione degli embedding vengono manipolati. Gli attaccanti possono inserire dati fuorvianti o dannosi, introducendo vulnerabilità, bias o backdoor che degradano le prestazioni del modello e lo portano a generare output nocivi o distorti. Le conseguenze vanno da decisioni aziendali errate a gravi danni alla reputazione. Immaginate un LLM che, a causa di dati “avvelenati”, inizia a diffondere disinformazione politica o consigli medici pericolosi.

5. Improper Output Handling (LLM05:2025)

Cosa succede dopo che l’LLM ha generato una risposta? Se gli output non vengono adeguatamente convalidati o sanificati prima di essere passati ad altri sistemi, si aprono le porte a un’ampia gamma di exploit. Un output non controllato potrebbe trasformare una semplice richiesta in una SQL Injection, in un Cross-Site Scripting (XSS) o persino nell’esecuzione di comandi arbitrari sul sistema backend. Un’allucinazione in un sistema Text-to-SQL potrebbe accidentalmente cancellare un intero database, passando da un DELETE FROM users WHERE id = 123 a un devastante DELETE FROM users.

6. Excessive Agency (LLM06:2025)

Man mano che gli LLM diventano più “agenti”, dotati della capacità di interagire con strumenti esterni e influenzare il mondo reale (ad esempio, inviare email o accedere a database), il rischio di “eccessiva autonomia” cresce esponenzialmente. Se un LLM ha troppe funzionalità, permessi o autonomia rispetto al suo scopo, può essere ingannato per compiere azioni non intenzionali o dannose, come inoltrare email sensibili a un attaccante o eseguire comandi di shell non necessari.

7. System Prompt Leakage (LLM07:2025)

I “system prompt” sono le istruzioni interne che guidano il comportamento di un LLM, definendone regole, criteri di filtro o funzionalità sensibili. Se queste istruzioni vengono esposte, gli attaccanti possono sfruttarle per aggirare le restrizioni o compromettere il sistema. Rivelare credenziali API o le regole interne di un’applicazione può avere conseguenze devastanti, permettendo agli aggressori di prendere il controllo. Il segreto, in questo caso, è davvero l’anima della sicurezza.

8. Vector and Embedding Weaknesses (LLM08:2025)

I sistemi che utilizzano pipeline RAG (Retrieval-Augmented Generation) si basano su vector database e embedding per recuperare informazioni pertinenti. Vulnerabilità nella generazione, archiviazione o recupero di questi embedding possono essere sfruttate dagli attaccanti per iniettare contenuti dannosi, manipolare gli output o accedere a informazioni sensibili. Un database vettoriale mal configurato potrebbe esporre dati sensibili, o un attacco di “inversione di embedding” potrebbe recuperare i dati originali, compromettendo la riservatezza.

9. Misinformation (LLM09:2025)

La disinformazione generata dagli LLM è un problema persistente. Spesso si manifesta sotto forma di “allucinazioni”: output che suonano credibili ma sono completamente falsi, a causa di lacune nei dati di addestramento o bias. In contesti critici come la medicina o la finanza, output inaccurati possono portare a decisioni sbagliate, danni alla reputazione e persino responsabilità legali. La fiducia cieca negli LLM è un rischio tanto quanto un attacco mirato.

10. Unbounded Consumption (LLM10:2025)

Infine, abbiamo il rischio di consumo illimitato, che si verifica quando l’utilizzo delle risorse di un LLM sfugge al controllo. Questo può portare a degrado delle prestazioni, interruzioni del servizio o costi inaspettati. Attacchi che portano a un consumo eccessivo di risorse, come l’invio di input di dimensioni eccessive o un volume elevato di richieste API, possono causare un Denial of Service (DoS) o un “Denial of Wallet” (DoW), prosciugando le risorse economiche dell’organizzazione.

Un Futuro Sicuro per l’IA? La Nostra Responsabilità Collettiva

La “OWASP Top 10 for LLM Applications 2025” è più di una semplice lista; è una chiamata all’azione. Ci ricorda che l’innovazione tecnologica, per quanto entusiasmante, richiede una vigilanza costante e un impegno proattivo per la sicurezza. Gli LLM sono strumenti incredibilmente potenti, capaci di sbloccare nuove frontiere, ma la loro sicurezza non può essere un ripensamento.

Le strategie di mitigazione vanno dall’implementazione di rigorose convalide degli input e degli output, alla sanificazione dei dati, al controllo granulare degli accessi e all’adozione di pratiche di sviluppo sicuro lungo l’intera catena di approvvigionamento. È fondamentale trattare i system prompt come informazioni sensibili, limitare l’autonomia degli agenti LLM e implementare un monitoraggio continuo per rilevare anomalie.

In ultima analisi, la sicurezza degli LLM è una responsabilità condivisa. Sviluppatori, architetti, professionisti della sicurezza e persino gli utenti finali devono essere consapevoli di questi rischi e contribuire a costruire un ecosistema AI più robusto e affidabile. Solo così potremo sfruttare appieno il potenziale trasformativo dell’intelligenza artificiale, senza cadere nelle trappole che essa stessa può creare. Il viaggio verso un’IA sicura è appena iniziato, e la strada è ancora lunga, ma con strumenti come la OWASP Top 10, abbiamo una mappa preziosa per navigare.


Thanks for reading!

Owasp top 10 LLM 2025

dom 01 feb 2026
1277 parole · 7 minuti