大家好,我是李薇,和你聊聊最近发生的大事。咱们先把时间拨回到3月19日,中国政法大学人工智能法研究院联合西南政法大学科技法学研究院,还有其他好些学校,搞了个“探寻人工智能法治研究的真问题(第二季)”的研讨活动。这个会在线上开的,挺热闹。就在这天,他们还公布了个《人工智能法治研究十大议题(2026)》,有好多大学和研究所的专家们都在这块聊了不少干货。 你肯定知道Elon Musk,他说的那个“通用人工智能(AGI)元年”差不多真的要来了。AI现在不仅仅是会说说话那么简单,它正变成有自主决策能力的“智能体”(Agent)。这东西技术厉害吧?但也有风险啊,法律体系得赶紧跟上。姜伟教授是最高人民法院咨询委员会的副主任,他在会上说,咱们做研究得盯着问题干,得搞出一套中国自己的人工智能法治体系来。 这次讨论的十大议题都挺实在的。张凌寒是中国政法大学人工智能法研究院的院长,她把重点放在智能体授权、AI拟人化风险、出海合规这些方面。她觉得这既是解决眼下的麻烦事儿,也是给以后铺路子。 对外经济贸易大学的许可教授在发布“智能体的行为边界、授权机制与竞争治理”这个议题的时候说,智能体意味着AI从“会说话”变成了“会办事”,但它到底能干什么、得负什么责任,这些法律界限现在还得好好捋一捋。浙江大学的李汶龙教授也觉得挺难办的,因为这个智能体把传统法律理论所依据的环境都给搅和了,传统的授权和竞争规则肯定得变。 还有一个大问题是生成式人工智能的“幻觉”致损风险。西北政法大学的杨建军教授觉得,如果有人因为太相信AI生成的内容被骗了或者受损了,法律得把“合理性”的边界给画清楚。许可教授也补充说,现在技术还不能完全去掉这些幻觉呢,得根据各方的控制力和获利多少来细算责任怎么分。 再看看未来可能碰到的麻烦事儿,“前沿人工智能安全保障与极端风险防控的法治进路”这个议题把眼光放在了高阶AI上。湘潭大学的文禹衡副教授说,要是碰到“自主逃逸”这种极端风险,光靠事后算账可能没用了。必须得建立一个事前就能控制得住的法律治理模式才行。 舒国滢教授是中国政法大学的专家,他评价这些议题都准准地瞄上了当前AI发展“最前沿、最迫切、最有争议的法律难题”。四川大学的左卫民教授也说这些议题是“未来中国的人工智能发展过程中必须要思考和解决的法律问题”。 这次发布是AI善治学术工作组搞的活动的一部分。这个组成立以来干了不少实事儿。这次会议还宣布要启动“AI善治·新智新声”的在线课堂了,就是为了让更多跨学科的年轻人能一起成长研究。 总之啊,AI从只会说话变成能办事儿,这事儿让人又爱又恨。技术红利在增长的同时,潜在风险也在变大。法律得赶紧反应过来才行。 当然了啦,刚才说的这些只是一部分内容啊!我想表达的是,关于AGI、AI、Agent这些事儿啊……呃……(打住)咱们还是多听听专家的看法吧!