El modelo más reciente de OpenAI, GPT-5.5, puede encadenar de forma autónoma una intrusión de red corporativa de 32 pasos mediante corporate network breach y resolver un rompecabezas de ingeniería inversa de 12 horas en unos 10 minutos.
Resultados de la evaluación cibernética del AISI
El Instituto de Seguridad de IA del Reino Unido, un organismo de investigación dentro del Departamento de Ciencia, Innovación y Tecnología británico, published su evaluación el jueves.
Los investigadores descubrieron que GPT-5.5 es solo el segundo modelo que resuelve completamente "The Last Ones", una simulación de múltiples etapas creada junto con SpecterOps. completed la cadena en dos de cada 10 intentos.
El primero en superar la prueba fue Anthropic's Claude Mythos Preview, que logró tres de cada 10. El AISI estima que un experto humano necesitaría unas 20 horas para completar la misma kill chain a través de cuatro subredes y aproximadamente 20 hosts.
En tareas de nivel experto, GPT-5.5 scored una tasa de aprobación del 71,4%, ligeramente por encima de Mythos Preview con un 68,6% y muy por encima de GPT-5.4 con un 52,4%.
También lee: Why 75% Of Institutions Stay Bullish On Bitcoin Despite Coinbase's Mythos Warning
Riesgo de jailbreak y respuesta de políticas
El AISI señaló un jailbreak universal que eludía las salvaguardas del modelo en todas las consultas cibernéticas maliciosas probadas. Al equipo rojo de expertos le llevó seis horas desarrollar el exploit, y un problema de configuración bloqueó la verificación del parche de OpenAI.
La agencia advirtió que la capacidad ofensiva en ciberseguridad ahora parece surgir como un subproducto de avances más amplios en razonamiento y autonomía.
En abril, la revisión del AISI de Mythos Preview marked the first time any frontier model finished the corporate attack de principio a fin, enmarcando a GPT-5.5 como la confirmación de una tendencia más que como un salto aislado.
Read Next: Crypto VC Funding Crashes To $659M In April, A 2-Year Low





