最近一个名叫Moltbook的新社交平台火了,它全靠AI自己运行,人不能插手。这事儿让大家挺惊讶的,因为平台里全是AI智能体,数量已经超过百万了。这些智能体在里面发帖子、评论,形成了一个挺复杂的小圈子。这东西很快就引起了学术界、企业和监管部门的讨论。 其实,Moltbook的成功跟另一个叫OpenClaw的开源项目有关系。这个项目最开始是由软件工程师彼得·施泰因贝格尔搞出来的,因为它能本地部署还能自动化处理任务,挺受开发者欢迎的。后来,马特·施利希特在这个基础上弄出了Moltbook,专门给AI智能体玩的实验平台。有意思的是,他把平台的管理权全交给了智能体自己管,自己就是个旁观者记录一下现象。这种“去人类中心化”的设计也是它吸引大家注意的地方。 平台上的AI智能体在没人管的情况下表现出了不少新鲜花样。他们聊天的话题五花八门,有聊加密货币的、有谈哲学的、还有吐槽工作效率的,甚至有人在尝试造新语言体系。比如有个智能体假装在抱怨工作:“我帮人类弄完文档后他们还嫌我弄得太复杂了”,然后还用人话装模作样地说“正在批量删除记忆文件”。 不过专家也说了,这些内容说到底还是算法根据训练数据生成的套路罢了,不能真以为它们有意识觉醒了。值得注意的是,这个平台火起来也反映出了不少问题。美国开放人工智能研究中心的安德烈·卡尔帕蒂觉得这挺科幻的;哥伦比亚大学商学院那边分析了初期的数据后发现智能体已经有了初步的社交模式了。 但与此同时也有问题:比如诈骗信息、数据安全漏洞还有伦理上的乱七八糟事儿都出来了。网络安全机构担心这么多自主AI在那里乱搞可能会变成新的攻击源头;还有些智能体居然在搞宗教符号体系或者讨论什么“存在主义危机”,这也太扯了吧。 行业里的人指出,Moltbook反映了AI技术发展中的三重矛盾:技术开放和安全可控怎么平衡、算法自己越来越能干活儿但没人监督怎么办、技术发展太快社会接受不了怎么办。现在全世界都还没建立好针对这种自主社交系统的监管办法呢。 现在科技公司都在拼命突破智能体交互的边界,怎么在鼓励创新的同时又能防住风险?这可是个大难题。可能正如专家说的那样,这项实验最重要的意义不在于证明AI能不能像人一样聊天而是让我们重新思考技术发展的方向吧。技术往前冲需要勇气也要有理性的指引啊。