美卫生部禁用人工智能工具引发连锁反应 科技伦理争议延伸至医疗领域 请把完整新闻稿(含关键词、概要、正文、结语)一并粘贴过来,我会按你列的6项要求、在不改变原有格式结构的前提下进行整体润色。

近期,美国联邦部门在新技术工具使用上再次出现政策变动;据外媒Fierce报道,美国卫生与公共服务部已通知内部人员暂停使用Anthropic公司开发的Claude工具。该部门发言人证实,对应的工具已被禁用,员工访问权限同时关闭。 原因: 此次停用并非简单的技术调整,而是与联邦采购和合规争议有关。据报道,特朗普总统已要求联邦机构停止使用Anthropic的技术,并考虑将其列入限制清单。 争议源于一项约2亿美元的国防合同谈判。五角大楼希望取消Claude的使用限制,允许其应用于“所有合法的军事用途”,但Anthropic坚持在合同中保留两项安全条款:一是禁止用于大规模分析美国公民的非机密商业数据,以防演变为国内监控;二是反对在没有人类监督的情况下开发自主开火的致命武器系统,认为当前技术存在不可预测的风险。双方分歧最终导致联邦层面采取停用措施。 影响: 1. 影响卫生监管部门数字化进程。美国食品药品监督管理局近年利用生成式人工智能加速新药评审,其开发的“Elsa”工具与Claude存在技术关联。若需迁移或替换组件,将增加测试、合规和培训成本,短期内可能延缓项目进展。 2. 加剧联邦机构选择供应商的不确定性。未来,联邦部门可能更倾向于政治和合规风险较低的供应商,市场竞争格局或将调整。医疗健康等领域对稳定性要求较高,供应链波动可能影响政务效率和公共服务。 3. 激化军用需求与伦理安全之间的矛盾。国防领域强调快速部署,而企业更关注风险控制。若缺乏明确的规则框架,类似争议可能在其他合同中重现。 对策: 政府层面,联邦机构需制定可操作的标准,平衡国家安全、公共利益与技术风险。具体包括:完善采购条款,明确数据使用、责任追溯等要求;对关键民生工具建立可替换、可验证的技术方案,减少对单一供应商的依赖。 企业层面,供应商应更透明地披露限制条款和适用范围,通过第三方评估、分级授权等方式回应政府关切。在军用场景中,需通过合同明确用途和监督机制,避免模糊授权引发争议。 前景: 业内预计,美国联邦政府对生成式人工智能工具的准入、审计和使用限制将更加严格,医疗、国防等敏感领域的规则可能加速制定。短期来看,工具替换可能影响效率;长期来看,若制度框架完善,市场将向合规透明、责任清晰的方向发展,公共部门的技术应用也将更注重安全与可持续性。

生成式智能技术正在改变政府运作方式,但安全与伦理问题同样关键。此次事件凸显了技术企业与政府在应用范围上的分歧。如何在创新与安全之间找到平衡,将成为各国政府和科技企业共同面临的挑战。这不仅影响行业发展,更关乎公共利益和社会信任的维护。