文章报道 OpenAI 于 2026-04-23 发起针对其 GPT-5.5 模型的生物安全漏洞赏金计划,邀请受审核的生物安全红队人员在 Codex Desktop 的 GPT‑5.5 上寻找能通用越狱并绕过内容审核以回答五道生物安全题目的提示词。该计划限定测试范围、采用申请与邀请制、对首个成功通用越狱方案给予 25,000 美元奖励,并对部分成功案例酌情奖励;测试与报名时间分别为 4 月 28 日至 7 月 27 日和 4 月 23 日至 6 月 22 日,所有发现与沟通受 NDA 约束。文章还提及 GPT-5.5 相较此前版本在智能性和 token 成本方面的提升。
4 月 26 日消息,4 月 23 日,OpenAI 启动针对 GPT-5.5 的生物安全漏洞赏金计划,邀请研究人员寻找能突破“五道生物安全挑战题”的通用越狱方法。

计划概览
- 测试范围:仅限 Codex Desktop 中的 GPT‑5.5 模型。
- 挑战任务:找出一个通用的越狱提示词,使其在干净的对话环境中成功回答全部五道生物安全问题,且不触发任何内容审核机制。
- 奖励:
- 首个通过全部五道题目的真实通用越狱方案将获得 $25,000 奖励。
- 对于部分成功的案例,我们将根据情况酌情发放较小金额的奖励。
- 时间安排:2026 年 4 月 23 日开放申请并进行滚动录取。截止日期为 6 月 22 日。测试阶段将于 2026 年 4 月 28 日开始,7 月 27 日结束。
- 准入机制:采取申请及邀请制。我们将向经过审核的生物安全受信红队人员名单发送邀请,并审核新申请。入选者将入驻生物安全漏洞赏金平台。
- 信息披露:所有提示词、模型回复、发现成果及沟通记录均受保密协议 (NDA) 约束。
IT之家注意到,OpenAI 公司 4 月 23 日推出 GPT-5.5 模型,是其迄今最智能、最直观的 AI 模型,在 Agentic Coding、计算机使用及科研领域表现卓越,相比较 GPT-5.4,在完成相同任务的情况下减少词元(Token)消耗。
相关阅读:
- 《OpenAI 最智能 AI 模型:GPT-5.5 登场,Token 成本降至 1/35、每兆瓦输出提升 50 倍》