谷歌 DeepMind 推出 AI 联合临床医生研究计划:多模态 AI 代理支持医生和患者
谷歌 DeepMind 推出 AI 联合临床医生研究计划:多模态 AI 代理支持医生和患者
2026 年 4 月 30 日,谷歌 DeepMind 推出了 AI Co-Clinician(AI 联合临床医生)研究计划,该计划旨在探索一个实时、多模态的 AI 代理(语音+视频)如何在医生监督下支持医疗决策——从结构化的病史采集和引导式体格检查,到早期诊断推理和护理建议。该系统明确定位于一个协作伙伴,而非替代临床判断,并采用安全优先的方法进行评估,例如双代理设计和 NOHARM 框架。您可以在 DeepMind 的官方帖子 AI 联合临床医生:研究通往 AI 增强护理的道路 中回顾其概述。
对于区块链和加密领域构建者而言,这并非“又一个 AI 医疗故事”。它是对近未来现实的预演:高风险的 AI 代理在受监管的工作流程中运行,生成需要可审计性、权限、来源和问责制的推荐。这些正是公钥加密、去中心化身份和防篡改日志——Web3 的核心理念——旨在解决的协调问题。
下面,我们将深入探讨 AI Co-Clinician 对下一波健康数据、数字身份、稳定币支付和链上合规性发出的信号,以及随着 AI 代理从“聊天”转向“临床级操作”时,加密用户应该关注什么。
1) DeepMind 的 AI 联合临床医生在纯文本医疗聊天之外增加了哪些功能
实时多模态交互(视觉、听觉、语音)
纯文本聊天无法可靠地捕捉步态、呼吸模式、皮肤变化或活动受限的操作的临床细微之处。DeepMind 的研究原型实时处理音频和视频流,使其交互更接近远程医疗。DeepMind 在此处提供了描述这种“视觉、听觉和语音”方向的技术报告链接:迈向具有视觉、听觉和语音的对话式医疗 AI(技术报告)。
双代理架构强制执行安全边界
一项关键的设计选择是双代理结构:
- “对话者”(Talker)代理自然地进行对话
- “规划者”(Planner)代理持续监控交互,以将系统保持在安全限制内
这种“职责分离”是安全工程师熟悉的模式——并且对于加密用户来说也应该很熟悉(想想:策略引擎、交易模拟以及签名之前的保障措施)。
受 NOHARM 启发的安全评估
DeepMind 表示,它改编了 NOHARM 框架来衡量:
- 错误诊断/遗漏(说出不正确的信息)
- 未指出/遗漏(未能呈现关键信息)
如果您想了解原始基准的设置,请参阅**首先,不做 NOHARM:迈向临床安全的语言模型**。
报告的研究结果(附带重要说明)
DeepMind 报告称,在一项针对98 个基层医疗咨询的面向临床医生的评估中,97 个实现了零严重错误;在一项使用20 个合成场景并在140 个维度上进行评估的远程医疗模拟研究中,AI 在68 个维度上达到了或超过了基层医疗医生,而人类医生总体上仍更胜一筹——尤其是在识别“危险信号”和指导关键体格检查方面。这些数字总结在计划帖子**此处**。
对于 Web3 而言,最重要的启示并非“AI 战胜了医生”(事实并非如此)。而是AI 代理正被设计和评分,如同安全关键系统一样——这使得关于谁批准了什么、谁监督了什么、以及使用了什么证据的问题变得不可谈判。
2) 隐藏的瓶颈:医疗 AI 需要可验证的来源,而不仅仅是准确性
随着多模态智能体开始影响临床路径(即使是在监督下),争论的焦点将不再仅仅是“输出结果好不好?”,而是:
- 是哪个模型版本给出了建议?
- 检索了哪些来源或指南?
- 患者同意分享(与谁分享)了什么?
- 在使用时是否有持证临床医生进行监督?
- 是否触发或否决了任何安全策略?
这些都是溯源问题。而溯源正是区块链相关原语可以成为基础设施而非意识形态的地方。
一个现实的方向并非“将医疗记录上链”(这几乎总是个坏主意),而是:
- 将防篡改的证明上链(或存入只增不减的日志),并且
- 将敏感的有效载荷保存在链下,并赋予明确的、可撤销的权限。
这与加密托管的最佳实践方式相似,即避免发布秘密但仍可进行验证。
3) 患者同意与“最小必要”原则:Web3 身份如何提供帮助(需谨慎)
医疗隐私规则倾向于鼓励数据最小化——仅分享为特定目的所需的最少数据量。在美国,HIPAA 隐私规则在许多情况下都包含“最小必要”原则;HHS 公共卫生部在其**此隐私规则概览** 和**隐私规则摘要(PDF)** 中对其进行了总结。
这与去中心化身份的概念非常吻合:
- 选择性披露:仅披露所需信息(例如,“成年”或“拥有有效保险政策”),而不是完整的文档。
- 可验证凭证:密码学签名声明,专为注重隐私的呈现而设计,由 W3C 在**可验证凭证数据模型** 中标准化。
- 去中心化标识符 (DID):通过密钥控制的标识符,由 W3C 在**DID Core** 中标准化。
实践中的医疗+加密模式
设想一下未来包含 AI 联合临床医生的远程医疗流程:
- 患者通过可验证凭证证明其资格(保险、年龄段、管辖区)。
- 会话通过患者密钥签名的同意回执进行授权。
- AI 智能体交互产生的证明:模型版本、安全策略检查以及监管临床医生的身份(作为凭证),所有这些都记录为哈希或签名声明。
- 实际的临床数据保留在合规的存储中,通过 HL7 FHIR 等医疗互操作性标准进行交换。
这使得区块链始终发挥其最擅长的作用:完整性和问责制,而不是原始数据存储。
4) 稳定币和代币化趋势为何对 2025-2026 年的数字医疗至关重要
2025 年,加密货币的重心继续从“投机优先”转向机构可以实际整合的基础设施——特别是代币化现实世界资产和支付渠道。Coinbase 的机构研究在**代币化主要趋势** 中强调了代币化在 2025 年至 2026 年的发展成熟情况。
出于两个原因,数字医疗很可能会搭乘同一基础设施的顺风车:
(a) 远程医疗需要可预测的结算
跨境咨询、医疗旅游协调,甚至国内账单,都日益需要较少中介机构的快速结算。稳定币支付在此具有吸引力,但受监管的金融机构也在同时推动更强的监管措施。例如,国际清算银行在其 2025 年年度经济报告的章节**下一代货币和金融体系** 中指出,稳定币在关键的货币要求(单一性、弹性、完整性)方面仍有不足。
对于构建者来说,这意味着医疗保健支付流程将需要合规就绪的基础设施(在需要时进行 KYC/AML,提供审计日志和风险控制),而不是默认匿名的通道。
(b) 各行业的合规期望正在趋同
加密货币的合规标准正在全球范围内收紧。金融行动特别工作组 (FATF) 持续关注该行业如何在虚拟资产 (VA) 和虚拟资产服务提供商 (VASP) 中实施保障措施,包括稳定币和 DeFi 接触点,并将其纳入**「2024 年重点更新」**。
医疗保健行业本已是高度合规的行业;当它采用代币化工作流程时,也将继承加密货币的合规负担。这使得可验证身份、策略执行和可审计性成为基本要求。
5) 安全性现实检验:AI 代理将加剧围绕“健康”和“支持”的诈骗
随着人工智能变得越来越具对话性、实时性和多模态性,社交工程攻击将变得更加容易:
- 虚假的“远程医疗分诊”电话,迫使受害者付款
- 冒充诊所,要求进行“验证交易”
- 恶意的“ AI 护士”机器人,欺骗用户签署授权或转账
这正是自我托管卫生习惯发挥作用的地方——不仅是为了投资,也是为了您未来的任何情况,您的私钥将控制对以下内容的访问:
- 健康数据权限,
- 付费咨询,
- 代币化的保险索赔,
- 以及身份凭证。
这里一个有用的参考点是 NIST 对钱包和密钥管理的讨论,包括冷存储的作用以及保护私钥的重要性,详见**「NISTIR 8301:区块链网络——代币设计和管理概述」**。
6) 加密货币构建者现在应该构建什么(在健康 AI 主流化之前)
如果您正在 Web3 身份、钱包或基础设施领域进行构建,AI 联合临床医生模式系统暗示了一个近期路线图:
-
将同意作为头等交易 让同意易于理解、易于撤销且易于审计——而不会在链上泄露敏感数据。
-
用于监督和责任的凭证化角色 使用可验证凭证 (Verifiable Credentials) 来表示临床医生执业许可、机构认证和模型操作员职责,并提供清晰的验证流程。
-
AI 会话的证明,而不是链上的医疗记录 存储哈希值、时间戳、模型标识符和策略结果——将患者健康信息 (PHI) 保存在链下。
-
类似于“规划者 vs 演讲者”的策略引擎 将双代理安全模式转化为 Web3:在任何不可逆操作之前,将用户体验代理与强制执行边界的策略模块分开。
-
钱包用户体验将 AI 提示默认为敌对 当攻击者能够像临床医生一样说话时,“所见即所签”变得更加重要。
结语:在 AI 辅助医疗保健的世界中 OneKey 的定位
如果医疗保健的下一阶段变成“三方”——患者、临床医生和 AI 代理——那么数字安全的下一阶段将成为“多密钥”:身份、同意和支付都由私钥来锚定。
这就是为什么基于硬件的自我托管即使在投资领域之外仍然具有相关性。像 OneKey 这样的硬件钱包可以通过将私钥离线保存,在签名之前强制物理确认,以及(在支持的型号上)实现隔离的 QR 码签名来提供帮助——当 AI 驱动的社交工程变得越来越有说服力和实时性时,这些特性非常有用。
换句话说:随着 AI 使交互感觉更安全、更人性化,您的安全堆栈应该假设相反的情况——并使授权可验证、深思熟虑且难以伪造。



