微软 GitHub 推出跨模型 AI 审查:Claude Sonnet 4.6 搭配 GPT-5.4,弥补 74.7% 性能差距

报道介绍微软 GitHub 于 4 月 6 日为 Copilot CLI 推出实验性功能 Rubber Duck——一种跨模型家族的“第二意见”审查机制。该功能在代码规划和实现后,调用异构模型作为独立审查者(示例为在以 Claude 系列为主控时引入 GPT-5.4 进行复核),输出高价值关注点(遗漏细节、可疑假设、边缘案例等),以减少早期决策错误的级联影响。基准测试显示,Sonnet 4.6 搭配 Rubber Duck 后可弥补约 74.7% 的性能差距,在多文件或超 70 步的复杂任务中得分提升约 3.8%;实际案例能发现架构逻辑漏洞、循环覆盖错误与跨文件冲突。功能支持主动、被动和用户触发三种模式,现以实验形式提供,用户通过安装 Copilot CLI 并运行 /experimental,选择 Claude 模型并开启 GPT-5.4 访问即可体验。

4 月 8 日消息,微软 GitHub 官方于 4 月 6 日发布博文,宣布为其 Copilot CLI 推出实验性功能 Rubber Duck,引入跨模型家族的“第二意见”审查机制,让 AI 性能提升接近 75%。

IT之家援引博文介绍,在代码规划阶段,当前编程智能体的早期决策错误容易层层累积,而单一模型的自我审查会受限于自身的训练偏差与盲点。而 Rubber Duck 功能就是引入异构模型作为独立审查者,提供差异化视角以挖掘潜在错误。

Rubber Duck in GitHub Copilot CLI

该功能采用跨家族模型组合策略,**用户选择 Claude 系列模型作为主控后,Rubber Duck 将调用 GPT-5.4 进行审查。**其核心任务是检查智能体工作,输出高价值关注点清单,包括被遗漏的细节、值得质疑的假设及边缘案例。

博文进一步通过 SWE-Bench Pro 基准测试评估,基于 Claude Sonnet 4.6 和 Opus 4.6 单独运行的性能差距对比,发现 Sonnet 4.6 搭配 Rubber Duck 后,成功弥补 74.7% 的性能差距。

在涉及 3 个以上文件或超过 70 步的困难任务中,得分比基线高出 3.8%。实际案例显示,它能有效挖掘架构逻辑漏洞、循环覆盖错误及跨文件冲突等深层问题。

Rubber Duck 支持主动、被动及用户触发三种模式。系统会在制定计划后、复杂实现后及测试编写后三个关键检查点自动寻求审查,也可在陷入循环时被动触发。该功能为确保过程透明,用户也可随时请求审查,Copilot 将展示反馈内容与修改依据。

目前该功能已在实验模式上线,用户安装 GitHub Copilot CLI 并运行 /experimental 命令即可启用。启用后,选择 Claude 模型并开通 GPT-5.4 访问权限即可体验。

版权声明:本站文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明出处!

评论加载中...