OpenAI ha anunciado el propagación de un “investigador de seguridad agente” que funciona con su maniquí de estilo conspicuo (LLM) GPT-5 y está programado para competir a un versado humano capaz de escanear, comprender y parchear código.
Llamado Desaseado hormiguerola compañía de inteligencia sintético (IA) dijo que el agente autónomo está diseñado para ayudar a los desarrolladores y equipos de seguridad a identificar y corregir vulnerabilidades de seguridad a escalera. Actualmente está arreglado en lectura beta privada.
“Aardvark analiza continuamente los repositorios de código fuente para identificar vulnerabilidades, evaluar la explotabilidad, priorizar la reserva y proponer parches específicos”, señaló OpenAI.
Funciona integrándose en el proceso de exposición de software, monitoreando confirmaciones y cambios en las bases de código, detectando problemas de seguridad y cómo podrían explotarse, y proponiendo soluciones para abordarlos utilizando el razonamiento y el uso de herramientas basados en LLM.
El motor del agente es GPT‑5, que OpenAI presentó en agosto de 2025. La compañía lo describe como un “maniquí inteligente y apto” que presenta capacidades de razonamiento más profundas, cortesía del pensamiento GPT-5, y un “enrutador en tiempo vivo” para osar el maniquí correcto a usar según el tipo de conversación, la complejidad y la intención del beneficiario.
Aardvark, agregó OpenAI, analiza la cojín de código de un plan para producir un maniquí de amenaza que cree que representa mejor sus objetivos y diseño de seguridad. Con esta cojín contextual, el agente escanea su historial para identificar problemas existentes, así como detectar otros nuevos examinando los cambios entrantes en el repositorio.
Una vez que se encuentra un posible defecto de seguridad, intenta activarlo en un entorno incidental y protegido para confirmar su explotabilidad y aprovecha OpenAI Codex, su agente de codificación, para producir un parche que puede ser revisado por un analista humano.
OpenAI dijo que ha estado ejecutando el agente en las bases de código internas de OpenAI y en algunos de sus socios alfa externos, y que ha ayudado a identificar al menos 10 CVE en proyectos de código destapado.
La empresa emergente de IA está allí de ser la única empresa que prueba agentes de IA para enfrentarse el descubrimiento y parcheo automatizados de vulnerabilidades. A principios de este mes, Google anunció CodeMender que detecta, parchea y reescribe código delicado para evitar futuras vulnerabilidades. El gigantesco tecnológico todavía señaló que tiene la intención de trabajar con los mantenedores de proyectos críticos de código destapado para integrar parches generados por CodeMender para ayudar a suministrar los proyectos seguros.
Manido desde esa perspectiva, Aardvark, CodeMender y XBOW se están posicionando como herramientas para el descomposición continuo de código, la subsistencia de exploits y la vivientes de parches. Incluso viene inmediatamente luego del propagación por parte de OpenAI de los modelos gpt-oss-safeguard que están ajustados para tareas de clasificación de seguridad.
“Aardvark representa un nuevo maniquí en el que el defensor es lo primero: un investigador de seguridad agente que se asocia con equipos brindando protección continua a medida que el código evoluciona”, dijo OpenAI. “Al detectar vulnerabilidades tempranamente, validar la explotabilidad en el mundo vivo y ofrecer soluciones claras, Aardvark puede blindar la seguridad sin frenar la innovación. Creemos en ampliar el paso a la experiencia en seguridad”.


