-
沙烨:是“人工智能”还是“人工低能”?
关键字: 人工智能机器人人机大战人机大战李世石人机大战AlphaGo围棋现在人工智能应用普遍基于神经网络算法。神经网络算法应用多层连接的网络节点,并赋予每个节点不同的参数权重来控制输出。神经网络通过大量的样本学习,来不断调整每个节点的参数,学会给出“正确”的输出结果。虽然基础算法类似,针对不同的应用场景,我们需要开发不同的人工智能程序,并根据应用场景进行优化。每个程序只能做一件专项任务,如语音识别。一个程序不能胜任它的设计者在其设计范围之外的任何功能。这些人工智能程序,不是真正的“智能”,而更像人类的专项工具,成为人类能力的延伸。
虽然神经网络算法的名称由仿生人脑的神经元网络而来。其真正机理,和人脑无法比较。人脑需要很少的数据,就能抽象总结。给一个小孩看一张猫的照片,他就能辨认出下一张图片里的猫。而Google用最好的神经网络算法,看上几千万张照片,识别猫的准确率也不是百分之百。
什么是智能?DeepMind的创始人Hassabis给出他的答案:通用的学习算法。同一个程序能根据复杂环境产生的感官输入,自我学习技能,并不断加强在环境里的生存机会。同时学习的技能需要足够丰富,能够适应不同的任务。他把目前普遍的人工智能应用成为弱人工智能,以区别于通用人工智能。
通用人工智能是研究者的终极目标,只是现在我们还处于起跑线上。
AlphaGo和围棋
围棋本质上是一个计算和搜索类的游戏。其规则虽然简单,但组合变化繁多,甚至超过宇宙中所有原子数量的总和。如果用蛮力穷举,最先进的电脑也不能破解。一个好的算法在于从看似无穷的组合中找出有效的子集。AlphaGo使用了两个不同的神经网络。一个“策略网络”负责评估落子选择,一个“价值网络”负责评估局面胜算。前者减少搜索的广度,后者减少搜索的深度。这两个网络会同时被用在AlphaGo的蒙特卡洛搜索树算法中,得出下一步的最优解。AlphaGo的设计者用历史上的高手棋谱训练AlphaGo,同时还让AlphaGo自我对弈,双手互搏。经过三千多万对局的训练,才剑出江湖,挑战高手。
谷歌AlphaGo团队
无论在围棋爱好者眼里如何神奇,AlphaGo也是一个弱人工智能的应用。和以往人工智能围棋程序不同的是,DeepMind公司花了大量人力物力,根据围棋特性做了很多针对性的设计和优化。前述《自然》论文的共同作者就包括二十名顶级专家,其中还有数人专攻计算机围棋。AlphaGo在技术上没有太大突破,但把现有的技术做了很好的集成。
围棋因其计算量巨大,并不符合人脑先天功能。人类进化过程中从无大量计算的需要。计算是人脑的弱项,也是人类智能中极小的一个部分。人类玩围棋,永远只能算一个小小的子集。顶级棋手也最多只能根据当前局面,评估几百种可能下法。和真正的棋局可能性相比,只是沧海一粟。为了能得到更多的胜算,我们根据有限的过往棋局,总结出不少规律,我们叫它们棋理,大局观。但这些棋理只是在过往极其有限的棋局组合中得出的总结而已。当年吴清源发明新布局,举世皆惊,就是在以往的棋理之外稍作创新。
人类算围棋,本是以己之计算弱项,加上过往经验总结,来玩一个重度计算游戏。因为我们不善于计算,棋局变化又多,我们慢慢便把围棋神化,认为其包罗万象,棋如人生。那一代代的围棋高手,就像居于人类智慧之巅,被人顶礼膜拜。直到有一天,我们设计出的围棋程序更胜于棋盘计算,我们方明白,本来计算就该由计算机来做。
只有人类自己把围棋当一回事,AlphaGo的胜利才有意义。从这点上,人工智能的所谓胜利本来就是我们主观的产物。我们战胜了自己心里的影子。
我们离真正的通用人工智能还有多远?没有人知道。至少AlphaGo没有让我们走得更近。这些弱人工智能程序,只是人类手里工具,没有任何真正的思考功能。未来也许科幻,但今天的“人工智能”,更像是“人工低能”。
马前卒解读:
这个逻辑好,我们膜拜围棋,是因为我们其实不善于围棋。本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。
-
本文仅代表作者个人观点。
- 请支持独立网站,转发请注明本文链接:
- 责任编辑:钟晓雯
-
《联合声明》多次点名美国及其盟友,俄专家这样说 评论 40习近平同普京在中南海小范围会晤 评论 216上万字!中俄联合声明全文发布 评论 423习近平同俄罗斯总统普京共同会见记者 评论 34习近平同俄罗斯总统普京会谈 评论 45最新闻 Hot