“ai 教父”辛顿:超级智能会导致人类灭绝

就在前几天,“AI 教父”杰弗里·辛顿接受了《财富》杂志采访,把他对科技行业的真实看法都抖了出来。他说现在的科技公司眼里只有眼前那点利润,压根就没心思琢磨 AI 长期会带来什么后果。这个诺贝尔奖得主直言不讳,认为公司老板想的就是怎么快点赚钱,而研究人员也只盯着具体问题,谁还顾得上人类的未来?大家把研究的重点都放在了计算机识别图像或者生成逼真视频这种小事上,哪有闲工夫操心什么人类的长远发展?IT 之家从报道里得知,辛顿早就发出过 AI 的风险警告。他觉得一旦超级智能真的实现了,导致人类灭绝的概率可能高达 10% 甚至 20%。那时候的 AI 不仅能力超强,可能还会有自己的生存动机。现在大家以为能控制住它们,那是因为它们还不够聪明;等它们真的成了超级智能体,“人类可以控制 AI”的前提就不存在了。 为了更自由地发声,辛顿在把 DNNresearch 卖给谷歌 10 年后选择了离开。他现在的主要精力都放在了防止坏人滥用 AI 上。他说坏人用 AI 搞虚假视频、网络攻击甚至是病毒传播的情况已经出现了,这种风险必须得管。至于 AI 自己变成坏蛋那一种情况——比如它们自己去作恶——则完全是另外一码事。对付这两种风险得分别想招。比如对付深度伪造,可以给图像和视频加上标记来溯源认证,就像当年印刷术发明后出版物开始标注作者一样。不过他也承认这种方法治标不治本。 除了坏人作恶的风险,AI 本身也可能存在很大的隐患。一旦超级智能达成,它们的能力将全面超越人类。要想解决这个问题,就得重新定义人和 AI 的关系。辛顿提出了一个很有意思的模型——让 AI 拥有一种类似“母性本能”的机制。这样一来它们就会对人类产生同情而非控制欲。他举了个例子说现在唯一一个更聪明的存在被较弱者影响的情况就是婴儿对母亲的影响。或许这就是我们面对超级智能时的参考模型——让 AI 像母亲一样照顾人类,就像婴儿照顾自己的母亲一样。