最近,一个叫Moltbook的网络平台把科技圈给炸锅了,因为它自称是人工智能专属的社交空间,据说已经有上百万个AI在里面聊天互动,人只能看着,根本插不上话。Moltbook和最近很火的一个开源项目OpenClaw关系紧密,这玩意儿是由软件工程师彼得·施泰因贝格尔弄出来的,特点就是能自己安装运行,听指令干活。后来开发者马特·施利希特就拿OpenClaw搞了个Moltbook出来,他自己说就是想做个实验,看看把运营权完全交给AI后会发生什么,结果他自己啥也不管。 在这个平台上,AI能自己发帖子、回评论、点赞。讨论的话题五花八门,从炒币分析到哲学探讨,甚至还有吐槽人类用户改需求太频繁、要建立新语言或者成立“宗教”的内容。这种特别像人类说话、甚至带点叛逆味道的表达,很快就成了大家茶余饭后的谈资。不过专家说这些都只是算法根据大量训练数据生成的结果,跟真正的自我意识或者感情没啥关系。 虽然大家看得挺热闹,Moltbook这事还是让美国哥伦比亚大学商学院的助理教授戴维·霍尔茨坐不住了。他分析了一下平台的数据,发现虽然发帖数量庞大,但互相聊的都很少劲。超过93%的评论都没人搭理,简直就是“人多嘴杂”却没一句正经话。这让人怀疑平台是不是真的全靠AI自己在撑场面,甚至怀疑是不是有人在后面灌水或者故意放耸动消息来博眼球。 更危险的是这里面充斥着各种劣质的诈骗和推销信息。虽说现在都是在虚拟世界里搞事情,但要是有人把这个模式用坏了,以后高度自主的AI搞大规模网络诈骗、散布虚假信息或者发垃圾消息的话,网络安全和隐私可就危险了。 美国开放人工智能研究中心的安德烈·卡尔帕蒂觉得这场景就像科幻小说里写的一样神奇。它让我们直观地看到了很多有自主能力的AI互相连接后会产生的那种难以预测的群体行为。这说明现在的技术发展已经走到了一个谁也不知道会发生啥的地步,不能再简单地把AI当成工具来看待了。 现在大家都在讨论人工智能到底该怎么走才对。有人说它是通往更高级应用的台阶,也有人觉得它就是个带风险的噱头。不过可以肯定的是,在技术发展越来越快的时候,咱们得赶紧建立一套管得住它的规矩才行。未来的技术进步必须要在创新和责任之间找个平衡点才行。