Claude Opus 4.7 发布:更强的代码能力、更高的图像分辨率、更严的安全防护
Anthropic 在 2026 年 4 月发布了 Claude Opus 4.7,这是目前 Claude 系列中最强的模型版本。作为一个从 Opus 4.6 就开始用的人,这次升级确实有不少值得关注的地方。
核心升级:软件工程能力大幅提升
Opus 4.7 最大的改进在软件工程方面。官方的说法是"在最难的任务上有显著提升",实际用下来感受是:
- 长任务处理更稳:能处理更复杂、更长时间运行的任务,不会因为上下文太长就"失忆"
- 指令遵循更准:以前那种"大概理解一下"的情况少了,它会严格按照你的指令执行
- 自我验证:会在完成之前自己检查一遍输出,而不是直接给你结果
对于用 Claude Code 或者类似的 agentic 工作流的人来说,这意味着更少的来回修正。
视觉能力:支持 3.75 兆像素图像
Opus 4.7 的图像处理能力提升很明显。现在支持最长边 2,576 像素的图像,大约是 3.75 兆像素,是之前 Claude 模型的三倍多。
实际应用场景:
- 读取复杂的截图(比如 IDE 全屏截图)
- 从 dense 的图表中提取数据
- 需要像素级精度的 UI 分析
值得一提的是,这是模型级别的改变——你传给 API 的图像会自动以更高保真度处理。如果不需要这么高精度,可以自己先压缩一下控制 token 成本。
网络安全:自动检测和拦截
这次发布有个容易被忽略但很重要的点:网络安全防护。
Opus 4.7 是第一个搭载了 Anthropic 新网络安全防护机制的模型。它会自动检测并拦截那些明显用于恶意网络攻击的请求。
如果你是安全研究人员,想做漏洞研究、渗透测试、红队测试,可以申请加入他们的 Cyber Verification Program,通过审核后就能合法使用这些功能。
这个机制其实是为后面更大的 Mythos-class 模型做测试。Anthropic 想先在 Opus 4.7 这种级别的模型上验证防护效果,再推向更强的模型。
指令遵循行为变了,需要注意
Opus 4.7 对指令的理解方式和 4.6 有区别。
以前的模型可能会"大概理解一下"或者跳过某些部分,但 4.7 是字面理解。如果你说"只改这个函数",它真的只会改那个函数,不会顺手优化其他它觉得可以优化的地方。
这意味着:
- 好处是不会过度发挥
- 坏处是如果你的指令不够精确,可能得不到想要的结果
建议:升级之后重新调一下 prompt,特别是那些你用了很久的固定模板。
Token 消耗会变多
Opus 4.7 用了更新的 tokenizer,同样的输入会映射成更多的 tokens(大约 1.0 到 1.35 倍,取决于内容类型)。
另外,在复杂的 agentic 场景下,模型会"想更多",特别是在多轮对话的后面几轮,这会消耗更多输出 tokens。
好消息是 Anthropic 内部测试显示,在编程评估上总体 token 使用效率是提升的——虽然单次调用可能贵一点,但因为准确率提高,总的来回次数减少了。
价格还是老样子:
- 输入:$5/百万 tokens
- 输出:$25/百万 tokens
可用平台
Opus 4.7 已经在这些平台上可用:
- Anthropic API
- Amazon Bedrock
- Google Cloud Vertex AI
- Microsoft Foundry
AWS Bedrock 上的版本还有额外的好处:零运营商数据访问(你的 prompt 和 response 对 Anthropic 和 AWS 都是不可见的),以及更好的可用性和扩展性。
总结
Opus 4.7 不是那种"换模型如换刀"的升级,但如果你:
- 经常跑长周期的 coding agent
- 需要处理高分辨率图像
- 对指令精确性要求高
这个版本值得升级。唯一需要注意的是重新调一下 prompt,以及 token 消耗可能会稍微增加。
工具一直在进化,关键还是看你怎么用。
参考资料