O modelo mais recente da OpenAI, o GPT-5.5, consegue encadear de forma autônoma um ataque de 32 etapas de corporate network breach e resolver um quebra-cabeça de engenharia reversa de 12 horas em cerca de 10 minutos.
Resultados da avaliação cibernética da AISI
O AI Security Institute do Reino Unido, um órgão de pesquisa dentro do Department of Science, Innovation and Technology britânico, published sua avaliação na quinta-feira.
Os pesquisadores descobriram que o GPT-5.5 é apenas o segundo modelo a resolver totalmente “The Last Ones”, uma simulação em múltiplos estágios criada com a SpecterOps. Ele completed a cadeia em duas de 10 tentativas.
O primeiro a passar no teste foi o Anthropic's Claude Mythos Preview, que conseguiu em três de 10. A AISI estima que um especialista humano precisaria de cerca de 20 horas para concluir a mesma kill chain em quatro sub-redes e aproximadamente 20 hosts.
Em tarefas de nível Expert, o GPT-5.5 scored uma taxa de aprovação de 71,4%, ligeiramente acima do Mythos Preview com 68,6% e bem à frente do GPT-5.4, com 52,4%.
Also Read: Why 75% Of Institutions Stay Bullish On Bitcoin Despite Coinbase's Mythos Warning
Risco de jailbreak e resposta de políticas
A AISI identificou um jailbreak universal que contornou as proteções do modelo em todas as consultas cibernéticas maliciosas testadas. A exploração levou seis horas de trabalho especializado de red-teaming para ser desenvolvida, e um problema de configuração impediu a verificação do patch da OpenAI.
A agência alertou que capacidades ofensivas em cibersegurança agora parecem emergir como subproduto de avanços mais amplos em raciocínio e autonomia.
Em abril, a revisão da AISI do Mythos Preview marked the first time any frontier model finished the corporate attack de ponta a ponta, enquadrando o GPT-5.5 como confirmação de uma tendência em vez de um salto isolado.
Read Next: Crypto VC Funding Crashes To $659M In April, A 2-Year Low





