王劲松“被ai”事件再次提醒我们要注重风险防控

AI魔改是一个严重的问题,王劲松在微博上控诉AI换脸技术滥用,这次事件让人们更加关注这个问题。李连杰、姚明等名人也曾经受到类似的虚假营销影响。这次事件并非个例。 为了解决这个问题,技术防御和法律惩戒是必须的。AI换脸技术在2014年随着生成对抗网络(GAN)的提出而迅速发展,2017年Deepfake让公众见识到这种技术,尽管当时效果粗糙,但却开启了普及之门。2018年FakeApp等开源工具降低了使用门槛,英伟达等企业对生成技术进行优化,极大提升了伪造内容的逼真度。进入2022年,大模型技术与开源生态的爆发使换脸技术实现质的飞跃。 北京语言大学国际政治与传播学院指出,AI生成与检测技术对抗陷入“螺旋升级”。一方面,制作门槛持续降低,“1分钟无痕对口型”服务报价仅数百元;另一方面,检测技术还存在短板。复杂场景下准确率可能从90%骤降至60%。 对于家人都无法分辨真伪的虚假视频来说,技术滥用对社会信任侵蚀触目惊心。平台治理陷入困境暴露出行业协同机制缺失。这次事件中涉事CRC、RWA等项目早已被多地监管部门警示涉嫌非法集资。 对于遏制乱象来说强化追责是关键突破口。伪造代言广告等侵权行为背后可能隐藏着更为严重的违法犯罪活动。应将民事侵权追责与刑事犯罪侦查相结合进行打击。 技术无善恶不代表其发展就能逾越制度边界或践踏他人权益。王劲松“被AI”事件再次提醒我们要注重风险防控。 只有技术防御和法治惩戒双轮驱动才能让AI技术回归服务社会的本质并释放创新活力同时守护人格权益与社会信任底线。