谷歌AlphaGo全解读?AlphaGo是什么样

发表时间:2017-03-05 08:20:01浏览:118次

在上一篇文章中,小编为您详细介绍了关于《A2017咋样?中兴新旗舰配置介绍》相关知识。 本篇中小编将再为您讲解标题谷歌AlphaGo全解读?AlphaGo是什么样。

谷歌AlphaGo是什么?作为①种人工智能的AlphaGo,和IBM 在上个世纪打败国际象棋大师卡斯帕罗夫的深蓝超级计算机,以及当代的苹果Siri、Google Now有着显著的区别。要解读AlphaGo,首先我们需要了解AlphaGo背后到底是①个什么东西。

其实谷歌AlphaGo背后是①套神经网络系统,由 Google ②⓪①④ 年收购的英国人工智能公司 DeepMind 开发。这个系统和深蓝不同,不是①台超级计算机,而是①个由许多个数据中心作为节点相连,每个节点内有着多台超级计算机的神经网络系统。就像人脑,是由 ⑤⓪-①⓪⓪ 亿个神经元所组成的,这也是为什么这种机器学习架构被称为神经网络。

你可以将AlphaGo 理解为《超验骇客》(Transcendence) 里约翰尼·德普饰演的人工智能,而它所控制的超级计算机,就像影片里被人工智能心控的人类①样,共同为①种蜂群思维 (Hive Mind) 服务。

谷歌AlphaGo全解读?AlphaGo是什么样

《超验骇客》中,被人工智能控制的工人马丁。马丁没有所想,但他的所见将会被人工智能直接获取。

AlphaGo 是在这个神经网络系统上,专为下围棋 (Go) 而开发出的①个实例。然而,虽然名字已经介绍了它的功能,AlphaGo 背后的神经网络系统却适合用于任何智力竞技类项目。

这个系统的基础名叫卷积神经网络 (Convolutional Neural Network, CNN) ,这是①种过去在大型图像处理上有着优秀表现的神经网络,经常被用于人工智能图像识别,比如 Google 的图片搜索、百度的识图功能都对卷积神经网络有所运用。这也解释了为什么AlphaGo 是基于卷积神经网络的,毕竟围棋里胜利的原理是:

对弈双方在棋盘网格的交叉点上交替放置黑色和白色的棋子。落子完毕后,棋子不能移动。对弈過程中围地吃子,以所围“地”的大小决定胜负。

AlphaGo Logo / DeepMind

AlphaGo 背后的系统还借鉴了①种名为深度强化学习 (Deep Q-Learning, DQN) 的技巧。强化学习的灵感来源于心理学中的行为主义理论,即有机体如何在环境给予的奖励或惩罚的刺激下,逐步形成对刺激的预期,产生能获得最大利益的习惯性行为。不仅如此,AlphaGo 借鉴了蒙特卡洛树搜索算法 (Monte Carlo Tree Search) ,在判断当前局面的效用函数 (value function) 和决定下①步的策略函数 (policy function) 上有着非常好的表现,远超过上①个能够和人类棋手旗鼓相当的围棋程序。

DeepMind 训练AlphaGo 的步骤说明:①⓪ 万盘高手棋谱作为初始数据,进行分类后用于训练策略函数;然后跟自己下棋;强化学习训练策略函数,继续下棋;下了 ③⓪⓪⓪ 万步后进行回归分析,整合蒙特卡洛树搜索模型,训练效用函数。

谷歌AlphaGo全解读?AlphaGo是什么样

效用函数和策略函数,分别对应AlphaGo 的两个思考维度:目前棋盘的现状,和自己/对手下①步的走向。

AlphaGo 所采用的 DQN 是①种具有广泛适应性的强化学习模型,说白了就是不用修改代码,你让它下围棋它能下围棋,你让它在红白机上玩超级玛丽和太空侵略者,它也不会手生。作为①个基于卷积神经网络、采用了强化学习模型的人工智能,AlphaGo 的学习能力很强,往往新上手①个项目,玩上几局就能获得比世界上最厉害的选手还强的实力。

②⓪①④ 年,已经被 Google 收购的 DeepMind,用⑤款雅达利 (Atari) 游戏 Pong、打砖块、太空侵略者、海底救人、Beam Rider 分别测试了自己开发的人工智能的性能,结果发现:在两③盘游戏后,神经网络的操控能力已经远超世界上任何①位已知的游戏高手。

DeepMind 用同样的①套人工智能,不调整代码就去测试各种各样的智力竞技项目,取得了优异的战绩,足以证明今天坐在李世石面前的AlphaGo ,拥有多强的学习能力。

李世石执黑子,AlphaGo 执白子。大约进行了 ⑧⑤ 分钟时进入休息阶段

在此之前,DeepMind 进行过的无数虚拟棋局训练,以及去年击败欧洲围棋冠军樊麾②段的经验让AlphaGo 已经训练出了顶尖的弈技,极有可能高于世界上任何已知的围棋高手。

AlphaGo 的水平大约在专业⑥段左右。再和其他围棋程序的 ④⑨⑤ 盘较量中胜 ④⑨④ 盘;在让 ④ 子的前提下仍有 ⑦⑤% 的胜率。

尽管棋盘上风云变化,早在本次开战前,AlphaGo 跟李世石就已不在同①起跑线上了。根据 DeepMind 透露的情况,从去年 ①⓪ 月 ⑤-⓪ 击败樊麾②段到现在,AlphaGo 已经在神经网络容量(数据容量)以及自己跟自己下棋用于训练的数据质量上有了较大的提升。而且神经网络的分布式计算延迟也得到了优化,最终使得AlphaGo 能够在两小时的限定时间内击败了李世石⑨段。

AlphaGo 只是 DeepMind 证明自己的①个工具。你也可以将这次和李世石的对局理解为 Google 的公关策略。

②⓪①④ 年,这家公司曾经在其官网上写道: DeepMind 致力于用研究深度学习的方式去真正了解智慧 (solve intelligence) 。但对于 DeepMind 和 Google 来说,打造AlphaGo 以及其他人工智能神经网络不是终点。

DeepMind ③位联合创始人

将机器学习和神经科学进行结合,打造出①种“①般用途的学习算法”。通过这种算法,DeepMind 和 Google 希望能够将智能“定型化”,理解智能是什么,进而更好的帮助人类理解大脑。DeepMind 联合创始人之①的 Demis Hassabis 曾经写道:

用算法将智慧提炼出来,有可能成为理解人类思维最神秘原理的最佳方式。

attempting to distil intelligence into an algorithmic construct may prove to be the best path to understanding some of the enduring mysteries of our minds.

在 Google 收购 DeepMind 前,收购条款中的①项就是 Google 必须成立人工智能道德委员会。因此,在目前阶段人们不必担心这样的人工智能最终杀死或统治人类。但至少,人工智能在围棋这样的智力类竞技项目上击败人类,是已经注定的事情。

作为①种决策树巨大的游戏,围棋本来适合人脑思考,不适合机器运算。但 DeepMind AI 的方向就是模仿人脑思考,用神经网络“重现”智慧。

编后语:关于《谷歌AlphaGo全解读?AlphaGo是什么样》关于知识就介绍到这里,希望本站内容能让您有所收获,如有疑问可跟帖留言,值班小编第一时间回复。 下一篇内容是有关《轻松两步提升电视清晰度打造完美观影效果?如何提高》,感兴趣的同学可以点击进去看看。

相关推荐

玩家点评

条评论

热门下载

热点资讯