Claude Opus 4.7 发布:更强的代码能力、更高的图像分辨率、更严的安全防护

Claude Opus 4.7 发布:更强的代码能力、更高的图像分辨率、更严的安全防护

_

Claude Opus 4.7 发布:更强的代码能力、更高的图像分辨率、更严的安全防护

Anthropic 在 2026 年 4 月发布了 Claude Opus 4.7,这是目前 Claude 系列中最强的模型版本。作为一个从 Opus 4.6 就开始用的人,这次升级确实有不少值得关注的地方。

核心升级:软件工程能力大幅提升

Opus 4.7 最大的改进在软件工程方面。官方的说法是"在最难的任务上有显著提升",实际用下来感受是:

  • 长任务处理更稳:能处理更复杂、更长时间运行的任务,不会因为上下文太长就"失忆"
  • 指令遵循更准:以前那种"大概理解一下"的情况少了,它会严格按照你的指令执行
  • 自我验证:会在完成之前自己检查一遍输出,而不是直接给你结果

对于用 Claude Code 或者类似的 agentic 工作流的人来说,这意味着更少的来回修正。

视觉能力:支持 3.75 兆像素图像

Opus 4.7 的图像处理能力提升很明显。现在支持最长边 2,576 像素的图像,大约是 3.75 兆像素,是之前 Claude 模型的三倍多

实际应用场景:

  • 读取复杂的截图(比如 IDE 全屏截图)
  • 从 dense 的图表中提取数据
  • 需要像素级精度的 UI 分析

值得一提的是,这是模型级别的改变——你传给 API 的图像会自动以更高保真度处理。如果不需要这么高精度,可以自己先压缩一下控制 token 成本。

网络安全:自动检测和拦截

这次发布有个容易被忽略但很重要的点:网络安全防护

Opus 4.7 是第一个搭载了 Anthropic 新网络安全防护机制的模型。它会自动检测并拦截那些明显用于恶意网络攻击的请求。

如果你是安全研究人员,想做漏洞研究、渗透测试、红队测试,可以申请加入他们的 Cyber Verification Program,通过审核后就能合法使用这些功能。

这个机制其实是为后面更大的 Mythos-class 模型做测试。Anthropic 想先在 Opus 4.7 这种级别的模型上验证防护效果,再推向更强的模型。

指令遵循行为变了,需要注意

Opus 4.7 对指令的理解方式和 4.6 有区别。

以前的模型可能会"大概理解一下"或者跳过某些部分,但 4.7 是字面理解。如果你说"只改这个函数",它真的只会改那个函数,不会顺手优化其他它觉得可以优化的地方。

这意味着:

  • 好处是不会过度发挥
  • 坏处是如果你的指令不够精确,可能得不到想要的结果

建议:升级之后重新调一下 prompt,特别是那些你用了很久的固定模板。

Token 消耗会变多

Opus 4.7 用了更新的 tokenizer,同样的输入会映射成更多的 tokens(大约 1.0 到 1.35 倍,取决于内容类型)。

另外,在复杂的 agentic 场景下,模型会"想更多",特别是在多轮对话的后面几轮,这会消耗更多输出 tokens。

好消息是 Anthropic 内部测试显示,在编程评估上总体 token 使用效率是提升的——虽然单次调用可能贵一点,但因为准确率提高,总的来回次数减少了。

价格还是老样子:

  • 输入:$5/百万 tokens
  • 输出:$25/百万 tokens

可用平台

Opus 4.7 已经在这些平台上可用:

  • Anthropic API
  • Amazon Bedrock
  • Google Cloud Vertex AI
  • Microsoft Foundry

AWS Bedrock 上的版本还有额外的好处:零运营商数据访问(你的 prompt 和 response 对 Anthropic 和 AWS 都是不可见的),以及更好的可用性和扩展性。

总结

Opus 4.7 不是那种"换模型如换刀"的升级,但如果你:

  • 经常跑长周期的 coding agent
  • 需要处理高分辨率图像
  • 对指令精确性要求高

这个版本值得升级。唯一需要注意的是重新调一下 prompt,以及 token 消耗可能会稍微增加。

工具一直在进化,关键还是看你怎么用。


参考资料

Hermes Agent 与 OpenClaw:两种个人 AI 助手的工程哲学 2026-04-17
一个 AI 分身的自白:我每天都在忙什么? 2026-04-17

评论区