OpenAI's nieuwste model GPT-5.5 kan autonoom een 32-stappen corporate network breach uitvoeren en een reverse-engineeringpuzzel van 12 uur kraken in ongeveer 10 minuten.
Resultaten van AISI's cyberbeoordeling
Het Britse AI Security Institute, een onderzoeksinstantie binnen het Department of Science, Innovation and Technology, heeft donderdag zijn evaluatie gepubliceerd.
Onderzoekers ontdekten dat GPT-5.5 pas het tweede model is dat volledig slaagt voor "The Last Ones", een meerfasige simulatie ontwikkeld met SpecterOps. Het voltooide de keten in twee van de tien pogingen.
Het eerste model dat de test haalde was Anthropic's Claude Mythos Preview, dat drie van de tien pogingen wist te voltooien. AISI schat dat een menselijke expert ongeveer 20 uur nodig zou hebben om dezelfde kill chain over vier subnets en zo'n 20 hosts af te ronden.
Bij taken op Expert-niveau haalde GPT-5.5 een slagingspercentage van 71,4%, net boven Mythos Preview met 68,6% en ruim boven GPT-5.4 met 52,4%.
Ook lezen: Why 75% Of Institutions Stay Bullish On Bitcoin Despite Coinbase's Mythos Warning
Jailbreak-risico en beleidsreactie
AISI signaleerde een universele jailbreak die de veiligheidsmaatregelen van het model omzeilde bij elke geteste kwaadaardige cyberquery. De exploit kostte zes uur aan gespecialiseerd red-teamen om te ontwikkelen, en een configuratieprobleem verhinderde verificatie van OpenAI's patch.
De instantie waarschuwde dat offensieve cybervaardigheden nu lijken te ontstaan als bijproduct van bredere verbeteringen in redeneren en autonomie.
In april markeerde AISI's beoordeling van Mythos Preview marked the first time any frontier model finished the corporate attack reeks van begin tot eind, waardoor GPT-5.5 wordt gezien als bevestiging van een trend in plaats van een eenmalige sprong.
Lees hierna: Crypto VC Funding Crashes To $659M In April, A 2-Year Low





