全球主要人工智能企业加速布局医疗健康领域 新型健康助手功能开放使用

围绕健康问题的咨询需求正在快速聚集到线上平台。

OpenAI表示,健康已成为其用户最常讨论的主题之一,全球每周有超过2.3亿人就健康与养生发起提问。

基于这一需求,公司推出“健康咨询模块”,并将其设置为独立入口,现阶段仅向少量用户开放试用,意在以更聚焦的产品形态切入医疗健康相关场景。

问题在于,普通人获取健康信息的渠道日益丰富,却也更加分散。

检验检查结果、用药记录、运动与睡眠数据、饮食管理、保险方案等,往往分别存放在不同医院系统、网站、应用程序与可穿戴设备之中,缺乏统一整理与综合解读的工具。

信息碎片化不仅提高理解门槛,也容易造成“看不懂、用不上、难以持续跟踪”的困扰,影响健康管理的连续性与效果。

造成这一局面的原因,既有医疗信息专业性强、表达体系复杂的客观因素,也与数字健康生态长期“多平台并行”有关。

不同厂商的数据结构、展示方式和权限机制不一,用户难以在多个来源之间建立关联;同时,个体健康管理高度依赖长期记录与行为改变,若无法把关键指标转化为可执行建议,往往难以形成闭环。

OpenAI称,其团队历时两年,与来自数十个国家的260多名医生合作开发该模块,并围绕约30个重点领域进行大量回答训练与评估,试图在专业性与可用性之间取得平衡。

从产品机制看,这一模块的关键变化是“可接入数据”。

据介绍,OpenAI与Apple Health、Function以及MyFitnessPal等设备和应用厂商合作,用户在授权连接后,系统可基于相关数据提供更完整的健康咨询,覆盖协助理解体检和检查结果、饮食与运动规划建议、保险方案选择等。

其出发点是把分散在不同平台的健康信息进行整合,让用户在日常问题上得到更连贯的解释与提示,从而在就医前更清楚地掌握自身状况,在就医过程中更从容地沟通。

这一举措对行业的影响主要体现在三方面:其一,健康管理工具可能从“单点功能”走向“综合助手”,促使可穿戴设备、健康应用与服务机构更重视数据互联与场景协同;其二,医疗健康领域对内容准确性与责任边界的要求更高,产品必须把“信息服务”与“医疗行为”清晰区分;其三,隐私与数据安全将成为竞争的基础门槛,是否能够在可用性与合规性之间取得平衡,将决定产品能否获得长期信任。

值得注意的是,医疗场景容错率极低,而通用模型仍可能出现不准确回答等风险。

OpenAI在发布中强调,该功能旨在支持而非取代医疗护理,不能用于诊断或治疗。

这一表述反映出企业对风险的现实判断:在健康咨询中,一句看似合理但与个体情况不符的建议,可能带来延误就医、误用药物或过度焦虑等后果。

因此,如何通过更严格的评测体系、明确的提示机制与风险告知,降低误导性输出的概率,是此类产品走向规模化的前置条件。

针对公众最关切的数据安全问题,OpenAI提出了多项安排:健康模块下的对话信息不用于模型训练,用户可随时删除对话记录;该模块被划分为独立系统,与其他聊天内容、已连接应用及上传文件进行隔离处理;相关数据在存储与传输过程中采用加密方式。

业内人士认为,在医疗健康场景中,隐私保护不仅是技术问题,更是治理问题。

除企业自律外,还需在数据授权、用途限制、第三方共享、跨境合规、应急处置等方面建立可核查、可追溯的规则体系,并通过第三方审计与透明披露增强可信度。

从更长周期看,OpenAI加码医疗健康赛道并非偶然。

此前公司发布健康相关基准测试,并投资多家医疗科技企业,显示其在研发、评测与产业协作层面持续布局。

随着数字健康、远程医疗与可穿戴设备普及,面向个人的健康管理需求将持续增长,医疗机构在随访、科普、慢病管理等环节也存在效率提升空间。

未来一段时间,此类工具更可能在“辅助解读、健康教育、行为干预提醒、信息整理与沟通支持”等领域率先落地,而在诊断与治疗建议上仍将受到更严格的监管与伦理约束。

对策层面,业内普遍认为应从三条主线推进:一是强化能力评估与场景准入,建立更贴近真实医疗流程的测试与红队机制,明确适用范围与禁用边界;二是完善数据治理与合规体系,落实最小必要原则与可撤回授权,推动健康数据在可控条件下的互联互通;三是加强与医疗机构、专业学会及监管部门的协同,形成覆盖产品设计、上线审核、风险监测与纠纷处置的全链条机制,避免“技术先行、治理滞后”。

当科技创新与生命健康相遇,如何把握技术红利与医疗伦理的平衡成为关键命题。

此次健康咨询功能的推出,既展现了技术赋能民生领域的巨大潜力,也为行业提供了隐私保护与技术创新协同发展的实践样本。

在健康中国战略深入推进的背景下,这类探索将为构建更高效、更安全的智慧医疗体系提供重要参考。