OpenAI acquisisce Promptfoo: sicurezza degli agenti AI al centro
OpenAI ha acquisito Promptfoo. Lo strumento preferito dai ricercatori di sicurezza per testare le vulnerabilità dei modelli linguistici entra nell'ecosistema del creatore di ChatGPT.
La data dell'acquisizione è aprile 2026. I termini economici non sono stati divulgati.
Cos'è Promptfoo
Promptfoo è uno strumento open source per il red teaming degli LLM. Simula attacchi — prompt injection, jailbreak, data leakage — e misura la resistenza di un modello prima che lo faccia un attore malevolo.
Prima dell'acquisizione: oltre 5.000 stelle su GitHub. Usato da team di sicurezza in centinaia di aziende. Un riferimento nel campo della valutazione sistematica dei rischi AI.
Le funzionalità principali:
- Prompt injection testing — verifica se input esterni possono dirottare le istruzioni del modello
- Jailbreak scanning — testa centinaia di tecniche di circumvenzione dei guardrail
- Data leakage detection — identifica quando il modello espone dati che non dovrebbe
- Automated red teaming — genera automaticamente scenari di attacco basati sul contesto applicativo
Perché OpenAI ha acquistato Promptfoo
OpenAI sta espandendo la propria offerta di agenti autonomi. Operator, Canvas, Deep Research: sistemi che agiscono nel mondo reale, accedono a dati sensibili, eseguono operazioni irreversibili.
Un agente vulnerabile a un prompt injection non è un rischio teorico. È un rischio operativo.
L'acquisizione di Promptfoo porta in casa OpenAI tre cose:
- Tecnologia di testing — metodologie già validate da migliaia di casi d'uso reali
- Team specializzato — ricercatori di sicurezza con focus esclusivo sugli LLM
- Posizionamento — un segnale al mercato: sicurezza come priorità, non come afterthought
Il contesto: la sicurezza degli agenti AI è il problema del 2026
Il problema non è nuovo. È urgente.
Con agenti che prenotano voli, inviano email, gestiscono codice e accedono a CRM aziendali, la superficie di attacco si è moltiplicata. Un singolo prompt malevolo in un documento processato da un agente può compromettere un'intera sessione.
Anthropic, Google e Microsoft stanno investendo pesantemente nello stesso spazio. OpenAI con Promptfoo accelera su un fronte dove il vantaggio competitivo si misura in fiducia aziendale.
Le aziende scelgono il provider AI anche in base a chi offre più garanzie di sicurezza. Non solo chi offre il modello più capace.
Cosa cambia per gli sviluppatori
Promptfoo rimarrà open source nel breve termine — è parte del valore dell'acquisizione. Ma l'integrazione nell'ecosistema OpenAI porterà probabilmente:
- Testing nativo nell'API — valutazioni di sicurezza integrate direttamente negli strumenti di sviluppo
- Certificazioni enterprise — audit automatici per uso in settori regolamentati (finance, healthcare, legal)
- Continuous red teaming — monitoraggio in produzione, non solo in sviluppo
FAQ
Cos'è il red teaming nei sistemi AI? Il red teaming AI è la pratica di simulare attacchi sistematici a un modello linguistico per identificarne le vulnerabilità prima del deployment. Include prompt injection, jailbreak, estrazione di dati sensibili e comportamenti fuori specifica.
Cosa fa Promptfoo esattamente? Promptfoo automatizza la valutazione della sicurezza degli LLM. Genera scenari di attacco, li esegue contro il modello target, classifica le vulnerabilità trovate e produce report strutturati per i team di sicurezza.
OpenAI manterrà Promptfoo open source? Nel breve termine sì. L'open source è parte del valore del prodotto. Le funzionalità enterprise e l'integrazione con l'API OpenAI verranno probabilmente monetizzate separatamente.
Quali aziende usavano Promptfoo prima dell'acquisizione? Promptfoo era usato da team di sicurezza in startup AI, banche, aziende healthcare e grandi tech. Qualsiasi organizzazione che deploiava LLM in produzione lo considerava parte della propria toolchain di sicurezza.