TIME 杂志聚焦 Anthropic:全球最具颠覆性的公司

2026年3月13日

TIME 杂志聚焦 Anthropic:全球最具颠覆性的公司

在备受瞩目的 TIME 杂志专题报道《全球最具颠覆性的公司》(发布于 2026 年 3 月 11 日)中,TIME 杂志深度跟踪了 Anthropic 在一系列高压时刻的表现:一次事关重大的深夜安全测试,导致模型发布被推迟;以及一场关于政府客户“一切合法用途”的边界可以拓展到何种程度的公开辩论。您可以在此处阅读原文:全球最具颠覆性的公司 (TIME)

对于加密货币开发者和进行自我托管的用户而言,这不仅仅是人工智能行业的戏剧。这预示着2025-2026 年的区块链基础设施正日益演变为:能够思考、协商和执行的软件——而这些都与攻击者大规模自动化诈骗、漏洞利用和社交工程的同一环境息息相关。

本文将 TIME 报道中的核心矛盾转化为一个对我们行业具有实际意义的问题:

随着人工智能成为钱包、交易所、合规和智能合约开发的默认层,哪些方面应该保持无许可,哪些方面又必须保持可验证的约束?


1) “前沿红队测试”与 Web3 的直接对应:智能合约作为双重用途软件

TIME 的报道凸显了许多加密团队会深有体会的现象:最危险的故障往往出现在发布前,在截止日期压力下,当产品“几乎准备就绪”时。

在 Web3 中,与之类似的情况是发布一个看起来“没问题”的合约升级、桥接变更或签名流程——直到它遭遇恶意的现实。自 2025 年以来,发生了以下变化:

  • 攻击者现在可以使用 AI 来生成漏洞利用想法、编写网络钓鱼脚本,并比安全团队手动响应的速度更快地进行本地化社交工程
  • 防御者也可以使用 AI 进行代码审查、异常检测和事件分类——但前提是 AI 工具本身被视为威胁模型的一部分。

Anthropic 的安全框架(及其“宪法”方法)在此很有借鉴意义:不要相信良好的意图,而是写下明确的规则,进行测试,并预设故障模式。请参阅 Anthropic 关于其方法的概述 Claude 的宪法 (Anthropic),以及更广泛的研究背景 宪法 AI:来自 AI 反馈的无害性 (Anthropic)

加密领域启示: 到了 2026 年,“审计通过”不再是终点。持续评估——特别是围绕AI 辅助开发流程——正迅速成为严肃协议的必备条件。


2) 新的政策战场:“一切合法用途” vs. 可信的红线

TIME 记录了一场关于客户是否可以要求对高度强大的模型获得更广泛权限的冲突。在加密货币领域,我们看到了同样的哲学争论,但使用了不同的词汇:

  • “无许可创新” vs. “负责任的金融”
  • “抗审查性” vs. “系统性风险控制”
  • “隐私” vs. “大规模监控和默认合规”

实际上,2025 年的监管方向一直是标准化对支付透明度的期望,特别是当加密货币与法定货币接口相连时。一个具体的例子是 FATF 在支付透明度方面的工作(通常通过“旅行规则”的视角进行讨论):FATF 关于建议 16 的更新 (2025 年 6 月)

与此同时,在欧洲,MiCA 的推出已将稳定币和服务提供商的合规性推向了更清晰的运营时间表,其中包括为处理不合规稳定币的加密资产服务提供商提供指导:ESMA 关于非 MiCA 合规资产和 EMTN 的声明和时间表指南 (2025 年 1 月 17 日),以及更广泛的参考中心:加密资产市场法规 (MiCA) 概述 (ESMA)

加密领域启示: 行业的核心辩论正从*“是否会出台监管?”转向“我们究竟在哪里执行约束——应用层、协议层还是密钥层?”*人工智能加速了这场辩论,因为它既可以自动化合规,也可以自动化滥用。


3) AI 代理正在进入钱包时代——因此密钥层必须变得不可谈判

在 AI 原生世界中,Web3 用户应该划定的最重要界限很简单:

AI 可以提供建议,但绝不能静默签名。

随着“代理式”用户体验的普及——交易摘要器、自动兑换、跨链桥接助手——显而易见的失败模式是:如果一个 AI 工具可以被欺骗、越狱、进行社交工程攻击或遭受供应链攻击,它就会成为一个高速资金吸取机

这就是为什么自我托管架构正朝着职责分离趋势发展:

  • AI 层: 解释、模拟、标记风险、起草操作
  • 钱包应用层: 构建未签名的交易
  • 硬件签名层: 存储私钥并需要显式确认

这正是硬件钱包发挥最佳作用的领域。类似 OneKey 这样的设备旨在隔离私钥并需要设备上的确认,因此即使 AI 助手(或受感染的浏览器)试图偷偷植入恶意交易,用户仍然拥有最后的、独立的检查点。

加密领域启示: 随着 AI 使一切变得更快,最后一道防线必须是某种保持缓慢、明确且可验证的东西:人机环路签名


4) “安全表演” vs. 可审计性:为什么链上思维对 AI 治理至关重要

TIME 报道中一个微妙的主题是可信度:仅仅声称安全是不够的;利益相关者希望有信心,安全约束是真实在压力下能得到维持的。

加密货币为可信度问题提供了一个内置的答案:公开可验证性

当然,并非所有内容都应该记在链上(隐私和安全很重要)。但这种思维方式很有价值:

  • 承诺可独立检查的政策
  • 发布评估方法
  • 版本化你的“宪法”/规则
  • 创建防篡改的变更记录(即使数据本身存储在链下)

这符合更广泛的机构推动代币化金融和可审计基础设施的趋势。例如,国际清算银行(BIS)认为,代币化正推动金融体系向更集成的“统一账本”概念发展:BIS 关于代币化统一账本的新闻稿 (2025 年 6 月 24 日)。国际货币基金组织(IMF)也记录了稳定币与代币化资产和跨境流动的共同增长:IMF 全球金融稳定报告 (2025 年 10 月)

加密领域启示: 如果 AI 正在成为关键基础设施,那么区块链行业应该推动可验证的控制,而不是基于信任的承诺——特别是当 AI 工具涉及交易构建、合规决策或协议治理时。


5) 面向团队和用户的实用清单(准备好迎接 2026)

如果您正在构建或使用集成了 AI(直接或间接)的加密产品,以下是最重要的控制措施:

面向产品团队(钱包、dApps、协议)

  1. 切勿给予 LLM 直接签名权限 将“可以签名”视为绑定硬件的特权,而非软件权限。
  2. 使交易意图成为机器可读且人类可读的 清晰的解码、风险标志和模拟输出可降低社交工程的成功率。
  3. 对 AI 功能进行对抗性测试 提示注入、数据投毒、工具劫持以及“乐于助人的助理”操纵应纳入您的测试计划。一个有用的基准框架是 NIST AI RMF 1.0
  4. 假设 AI 供应链存在敌意 模型更新、插件、浏览器扩展和“代理工具”会扩大攻击面。
  5. 设计可逆转损害的方案 限制、白名单、分阶段推出和断路器在自动化增加速度时变得更加重要。

面向用户(自我托管和活跃的链上参与者)

  1. 使用硬件钱包托管任何有意义的余额 您的私钥不应存放在提示、脚本或代理可以触及的地方。
  2. 在受信任的屏幕上验证确切的操作 特别是对于授权、合约交互和跨链桥接。
  3. 优先选择显式工作流程而非“自动”工作流程 自动化很方便——直到它自动化了攻击者的计划。
  4. 将研究与执行分开 向 AI 寻求解释是可以的;让它“替你完成”则有风险。

结语:颠覆不可避免——安全托管仅在不再可选时才可选

TIME 将 Anthropic 的崛起描绘成速度与安全碰撞的故事。加密货币正在经历同样的碰撞,但多了一个变数:在 Web3 中,错误通常是不可逆的

随着 AI 成为区块链的默认界面——编写代码、起草治理提案、建议交易,甚至“操作”钱包——行业制胜的策略将不是最大化自动化。而是以硬性保证为边界的自动化

如果您正在拥抱 AI 驱动的工作流程,请考虑将其与 OneKey 这样的硬件钱包搭配使用,以便资金的最终权威仍然掌握在您手中:AI 可以帮助您理解和准备交易,但只有您才能批准签名。

使用 OneKey 保护您的加密之旅

View details for 选购 OneKey选购 OneKey

选购 OneKey

全球最先进的硬件钱包。

View details for 下载应用程序下载应用程序

下载应用程序

诈骗预警。支持所有币种。

View details for OneKey SifuOneKey Sifu

OneKey Sifu

即刻咨询,扫除疑虑。