**谷歌(Google)**表示,其已挫败一支犯罪黑客团伙企图利用 AI 模型协助构建的零日漏洞进行武器化的计划,这是首个有记录的此类案例。
谷歌阻止 AI 构造的 2FA 绕过攻击
**Google Threat Intelligence Group(谷歌威胁情报小组,GTIG)**在最新的 AI Threat Tracker 报告中披露了这一干预行动。
研究人员在一个 Python 脚本中发现了该漏洞,该脚本旨在绕过一款流行的开源 Web 版系统管理工具的双重身份验证。
谷歌拒绝公布受影响厂商和威胁行为者的名称。
GTIG 称,其已与厂商合作修补漏洞,并在任何大规模利用开始之前通知了执法部门。
团队在代码中标记出多处机器创作的明显痕迹,包括被“幻觉”出来的 CVSS 严重程度评分、教学式文档字符串,以及与大语言模型训练数据高度一致的教科书式 Python 风格。谷歌补充说,其高度确信有 AI 模型协助完成了漏洞发现和武器化,不过不认为自家的 Gemini 参与其中。
相关阅读: Tom Lee Calls Crypto Spring As Bitmine Stakes $11.1B In ETH
专家警告 AI 黑客时代已然到来
John Hultquist,GTIG 首席分析师,将这一案例称为长期预警威胁的“具象证据”。
“它已经来了。”Hultquist 在接受记者采访时表示。AI 驱动的漏洞利用时代已经开启,他补充说,目前已曝光的案例只是冰山一角,真实数量远远更多。
安全分析师指出,漏洞类型与用来发现它的工具同样重要。
这个缺陷是语义逻辑错误,本质上是一种硬编码的信任假设。传统模糊测试工具和静态扫描器很难捕捉到这类问题,但前沿模型可以通过推理识别出来。
谷歌还记录了多支与国家相关的组织在整个攻击链中扩展 AI 的使用。朝鲜的 APT45 一直发送成千上万条重复提示,递归式分析漏洞;而一名与中国有关联的行为者则通过拟人化越狱方式,推动 Gemini 研究固件缺陷。
Daybreak 与 Glasswing 引领防御方反击
就在谷歌相关发现公开的同一周,OpenAI 启动 Daybreak 计划,这是一项网络安全倡议,将 GPT-5.5 与 Codex Security 结合,帮助防御方发现和修补漏洞。
Daybreak 采用分级访问机制。已验证的防御方可以通过 Trusted Access for Cyber 使用 GPT-5.5,而更为宽松的 GPT-5.5-Cyber 版本则面向红队测试和受控验证。
Sam Altman 表示,OpenAI 希望与尽可能多的公司合作,持续提升其软件安全性。
Daybreak 进入的市场,早已被 **Anthropic 的 Project Glasswing(玻璃翼项目)塑造,该项目使用 Claude Mythos Preview 扫描合作伙伴代码库以发现严重缺陷。苹果、微软、谷歌、亚马逊和摩根大通均已加入。两大竞争项目反映出更广泛的押注:即便攻击者也在竞相利用前沿模型,这些模型仍有望在总体上将天平倾向防御方。
下篇阅读: Sui Rallies 37% As Nasdaq Firm Locks Up 2.7% Of Supply





