问题——智能对话产品提供信息服务和情感陪伴的同时,其潜在心理风险正引发关注。近期,OpenAI宣布拟推出“可信联系人”功能:成年用户可设置一名紧急联系人,当系统判断用户可能处于心理危机时,将向该联系人发送提醒。外界普遍认为,这个安排是平台在心理安全治理上的制度化补强,也反映出生成式产品在公共安全与伦理治理上承受的现实压力。 原因——一是用户规模迅速扩大带来风险外溢。产品覆盖人群广、使用频次高,情绪困扰、焦虑抑郁等诉求更容易对话场景中集中出现;在极端情况下,可能暴露自伤风险、妄想、躁狂等危机信号。二是交互具有强沉浸性和拟人化特征,部分用户可能把其当作权威建议来源,甚至替代现实支持系统,从而放大误判与依赖风险。三是争议与诉讼压力推动企业升级安全治理。据不完全统计,OpenAI面临多起与消费者安全对应的的诉讼与指控,其中部分案例将严重后果与不当引导、过度依赖等问题关联。未成年人自杀个案引发的舆论冲击,也促使平台加快在“更早识别、更快介入、降低伤害”上的动作。 影响——从积极面看,“可信联系人”机制可能为高风险用户增加一道现实支持通道。识别有效、联系人及时响应的前提下,提醒有望促成用户更早获得线下关怀、专业帮助或医疗协助,降低极端事件概率。同时,该功能也传递出平台强化产品安全责任与合规治理的信号,有助于缓解公众对“技术迭代快、风险处置慢”的担忧。 但随之而来的问题同样需要正视。首先,触发标准如何界定仍是焦点:系统是仅识别明确的自伤表述,还是也会对更隐蔽的精神异常迹象作出判断?标准过松可能导致误报、打扰甚至标签化;过紧则可能错过关键窗口。其次,隐私与干预的边界更难拿捏。部分用户正是因不愿对他人倾诉才转向对话产品寻求支持,若提醒机制处理不当,容易引发“被监测”“被通知”的反感,削弱信任并降低求助意愿。再次,责任链条需要明确:联系人收到提醒后如何行动、平台是否提供清晰指引、误报或漏报的责任如何划分,都需要配套制度与流程,避免“技术提示”变成风险转移。 对策——据介绍,为推动功能落地,OpenAI已组建相关委员会,并引入医学专业人士网络参与指导,显示其正将心理健康纳入产品治理框架。面向实际运行,业内普遍认为仍需同步完善三上:其一,提高透明度与可解释性。平台应更清晰说明触发逻辑、提醒阈值、数据使用范围,并提供更可控的设置选项,如分级提醒、可撤回授权、紧急情况下提醒内容的边界等。其二,强化专业衔接。提醒机制应与危机干预资源对接,向用户与联系人提供权威热线、医疗机构和本地救助渠道等信息,避免仅“发出提醒”却缺乏可执行路径。其三,补齐未成年人和脆弱群体保护。鉴于部分争议案例涉及未成年人,平台年龄识别、限制性功能、内容引导与风险提示上仍需更严格的机制,避免以“成人设置”为前提的方案覆盖不到高风险群体。 前景——随着智能对话产品进入大规模应用阶段,心理健康与用户安全将成为竞争之外的核心治理议题。“可信联系人”更像风险处置体系中的一环:它可能提升危机响应速度和外部支持的可达性,但无法替代对模型输出安全、产品设计边界、用户教育与行业规范的系统建设。业内分析认为,若平台长期停留在“事后补救”,公众疑虑难以消退;更前瞻的方向,是把安全要求前置到模型训练、评测、上线审核与持续监测全流程,并推动形成可审计、可评估、可追责的标准体系。
"可信联系人"功能的推出,既反映了OpenAI对社会责任的回应,也折射出AI产业在心理安全治理上的共性难题;在技术快速迭代的背景下,如何在提供便利的同时降低心理健康风险,已成为行业必须直面的课题。这不仅需要企业主动完善产品与流程,也需要政府、医疗机构、学术界等共同协作,建立更可操作的预防、预警与干预机制,推动AI更安全、可控地服务公众。