人工智能靠什么战胜人类大脑?
时代周报特约记者 陈雯 发自广州
无论是赞誉还是批评,人工智能(AI)的发展已超过了人们的想象,它似乎印证了那句描述宇宙结构的老话:一路走来,一切都是人类的造物。
人机围棋大战在即 机器取胜可能导致“智能爆炸”?
3月9日,韩国九段顶尖中国围棋选手李世石将与谷歌人工智能项目AlphaGo在韩国首尔展开对决,整个比赛将分五轮进行。大战在即,双方都公开表示,深信自己将赢得最终的胜利。
Facebook人工智能组研究员田渊栋博士详细分析了AlphaGo在《自然》杂志上发表的论文,他认为AlphaGo整个系统即使在单机上也已具有了职业水平,与李世石的比赛会相当精彩,很期待最后的结果。不过,《人工智能学家》主编刘锋则撰文表示,谷歌的围棋AI及这场比赛有科学欺诈之嫌。
万众瞩目的人机大战一触即发,人工智能是否能够战胜人类大脑?不论围棋大战谁胜谁负,它都将为问题的答案奠定基础。
人工智能和一种算法
近几年来,人工智能逐渐成为一门显学,以至于很多人误以为这是一个随着互联网发展而出现的新词。事实上,人工智能的历史已超过半个世纪。
不管小说和电影怎样描绘其应用前景,但人工智能并不是悬浮在某处一箱蓝色液体中的合成大脑,它是一个算法—一种告诉计算机执行什么功能的数学方程式。
算法之于21世纪,就像是煤之于19世纪,是现代经济的引擎和燃料。如果没有算法,智能手机无法工作,也不会有Facebook、谷歌、亚马逊。算法可以安排航班,控制飞机,还能帮助医生诊疗疾病。如果所有算法突然停止工作,那无疑是世界末日。
今年1月,谷歌透露已经开发出曾击败围棋欧洲冠军的算法,这种古老的中国棋盘游戏远比国际象棋复杂,这个算法命名为AlphaGo,将在3月中旬与世界冠军一决高下。
最大的挑战
围棋的历史超过2500年。它的着法变化无穷,其变数甚至超过宇宙中原子的移动。国际象棋的所有变化可以计算出来,但围棋不能。更难的是,编程者也不可能写出围棋的评估函数。相反,围棋需要一种类似于“直觉”的东西。
人工智能研究利用游戏来作为微观测试已经有了很长的历史。游戏能够精确地定义并允许研究员来估测自己的成功。去年,谷歌的DeepMind教导机器学习并赢得了所有49个经典Atari计算机游戏。而围棋则一直以来都被人们视为人类能够胜于程序的最后一个经典游戏。围棋之所以如此困难,原因是其结果的无限性,每一局的比赛都非常难以被复制并重现。
“围棋是一种终极游戏,它是游戏的巅峰之作,是最智慧的游戏。” DeepMind创始人哈萨比斯认为围棋是一门艺术,而不是一门科学。“AlphaGo能够以人类的方式学习围棋,并在不断的对局中变得越来越厉害,就像我们人类一样,学会理解,而不是计算。”他对AlphaGo取得最终的胜利深信不疑。
取胜的关键
AlphaGo与之前的机器人所不同的一点在于对于神经网络、分层计算和知识库的应用,即谷歌DeepMind团队用两套神经网络为AlphaGo开发了一个全新的系统,这也是它拥有取胜能力的关键。该领域的领军人物杰弗里·欣顿说:“神经网络让我们减少了要调查的结果数量,但是它们同时也擅长通用化其并未见过的状态。因此,这些神经网络学习规则与战术,它们并不仅仅会记忆,它们还能够理解。”
“传统搜索树会考虑所有可能性,但它用在围棋上行不通。” 哈萨比斯说。正因如此,用两套神经网络为AlphaGo开发的全新的系统可以将围棋视为一个包涵所有可能性的树,它能够无限延伸。AlphaGo要做的就是利用两套神经网络来缩小可能性,它会利用策略网络来判断什么行为可能性最高,系统应该考虑怎么走好下一步,AlphaGo会将搜索树的宽度变窄。还有一个就是价值网络,它告诉AlphaGo怎么移动对白子和黑子都更好,这样就可以降低可能性的深度,这一切都给它的获胜增加了砝码。
不过,《人工智能学家》主编刘锋则撰文表示,谷歌的围棋AI及这场比赛有科学欺诈之嫌,主要原因是AlphaGo对其他围棋程序选取了众多测试对象,并进行了495次实验,但对人类测试者,却只选取了一位曾经获得围棋欧洲冠军的棋手,并签署严格的保密协议。他认为,谷歌也没有像Facebook那样把围棋程序放到互联网上,光明磊落地接受大众的考验,作为与谷歌AlphaGo原理相同的facebook围棋程序DarkForest,目前水平相当于业余5段,与职业选手依然有巨大的差距。
从AI到AGI
得益于计算机硬件的长足发展、算法(软件)的改进以及巨额资金投入,进入新世纪之后,人工智能在诸多领域取得重大进步。在硅谷,不管是谷歌还是微软抑或是IBM,都投巨资发展人工智能,并有了一些阶段性的成果,如邮件的自动智能回复等等。
时代周报记者查阅资料发现,科学家预测AI发展至AGI(人工通用智能)是人工智能的发展趋势。大多数AI系统是“狭隘的”,它们只能完成一种特殊的任务。所以,IBM的深蓝电脑可以击败国际象棋冠军卡斯帕罗夫,但在面对画圈打叉这种简单的游戏时连一个三岁小孩都不如。而哈萨比斯从人类的大脑获得灵感,并试图建立第一个“通用学习机器”,即一套灵活、自适应性的算法,它可以像生物系统那样学习,从零开始完成任何任务,除了原始数据之外不需要任何别的帮助,这就是人工通用智能(AGI),其重点是“通用”。
在DeepMind创始人哈萨比斯的未来愿景中,超级智能机器将能够与人类专家协作解决几乎所有问题:癌症、气候变化、能源、基因组学、宏观经济学、金融系统、物理等。哈萨比斯说:“我们想要掌握的学科越来越复杂,即使是最聪明的人,穷其一生也难以掌握其中一个领域。我们将AGI看做一个能够自动将非结构化信息转化为可用知识的过程,那么通过筛选泛滥的数据得出合理的观点就指日可待了,我们正在努力研究的是一种可以解决任何问题的超级解决方案。”
牛津大学人类未来研究院院长、哲学教授尼克·博斯特罗姆认为,如果AGI能够最终完成,它的影响将是无与伦比的。这种超级智能机器的出现也许还需要几十年之久,但它似乎离我们越来越近,我们应该对此充满信心。
发展会失控吗?
人类可能即将创造出一种全新的生命形式,这不仅标志着进化的突破,而且也可能给人类物种的生存构成潜在威胁。人工智能是否已经让我们处在了见证一个新物种诞生的边缘?还要多久机器就会比人类变得更聪明?这已经成为人工智能发展最需要思考的问题。
2015年1月,美国麻省理工学院的物理教授马克思·泰格马克组织了首次关于人工智能风险的主要会议,会议核心议题之一就是:要走多久人类才会遭遇机器智能或超人智能。一方面,有观点认为,比如人工智能先锋吴恩达宣称人工智能超越人类智能是几百年后的事情了;而其他人,比如特斯拉CEO马斯克和伯克利的计算机科学教授斯图尔特·罗素认为这一时刻会更快到来。泰格马克说,会议讨论的中值是40年。
全球很多顶级科学家和科技巨头都在关注AI的发展,如斯蒂芬·霍金、比尔·盖茨、伊隆·马斯克、杨·塔里安等。但与哈萨比斯对AI持积极态度不同的是,这些知名科技专家对AI的发展表示很大的担忧。他们的担忧包括AGI武器和“技术奇异点”的幽灵——这将导致“智能爆炸”,届时机器将能够不断地进行自我完善,超越人脑的智力,从而脱离人类的控制。如果这样的超级智能灾难最后发生了,人类将悔恨自己当初为什么没有退出AI开发竞赛。
霍金在最近的一次谈话中表示:“AI的成功创建,将是人类历史上最大的事件。不幸的是,它也可能是最后一个历史事件。”或许,警惕人工智能毁灭人类将成为未来技术发展的又一个新战场。
但是也有相当数量的科学家对人工智能的发展前景十分看好。百度首席科学家吴恩达坚信能用人工智能建设一个更好的社会,就如工业革命将人类从大量的体力苦工中解放出来。
此外,计算机科学家杰伦·拉尼尔认为:“算法是人类设计和搭建的,也反映出造物者的偏见,无论好坏,无论我们创造何种未来,都会是一个我们为自己设计和建造的未来。”
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。