专家们在深圳开了个会,大家都觉得做人工智能跨境服务的安全治理,得搞出一套不一样的规矩才行。毕竟现在数字经济全球化搞得热火朝天,人工智能成了国际科技合作和产业竞争的大热门。但技术一跨出国界,问题就来了,数据咋流动、内容咋适配、责任谁来担,这些都挺让人头疼。这次研讨会上,高校、企业还有科研机构的代表们凑一块儿,好好剖析了这些风险,琢磨着咋应对。 目前面临的主要麻烦有三个:第一是数据出境这事儿难办。人工智能模型要训练、要优化,得用海量数据,里头可能藏着个人隐私和行业机密。按咱们国家的法律,想把这些数据送出国门,得先过安全评估、认证这几道关。而接收国那边也不一定痛快,还会对数据来源和怎么用提出要求,企业得两边都伺候好。 第二是生成的内容得适应当地的规矩。不同国家和地区的法律、文化、习俗差别老大了,人工智能输出的内容要是不合人家的意,不仅违规,还可能让技术在当地推不动。 第三是责任分不清谁该背锅。服务提供商、使用者、数据存哪儿、影响到哪儿可能分属不同法域,法律上的扯皮就来了。各国的标准和监管规则又不统一,这让企业合规成本变高,运营也不稳定。 针对这些问题,专家建议三管齐下:首先得把数据的分类分级给弄清楚,在保护核心数据安全的前提下,想办法搞出可信的交换通道,促进产业合作。其次企业得提前研究目的地的环境,结合当地法律和文化特点,设计出能过滤内容和对齐价值观的机制,做到“因地制宜”。另外还要积极去国际上对话、协作,参与治理多边框架的讨论,争取让监管互认、执法互助起来。 从发展前景看,这既是个机会也是个考验。粤港澳大湾区这地方开放度高、创新活力强,可以在数据流动试点和合规机制创新上先走一步,给全球治理做个好榜样。技术发展和风险治理这对翅膀得一块儿长齐。现在人工智能火得很,只有坚持发展跟安全两手抓,在开放合作里守住底线,在制度创新里摆平各方诉求,才能让技术更好地造福人类。