新闻中心

当前位置: 主页 > 新闻中心 >

谷歌Alpha Go AlphaGo背景数据照片二大脑介绍(图)

时间:2019-05-28 07:23 来源:未知  作耿:admin

1936年,艾伦·图灵提出了一种可以辅助数学研究的机器(后来称为图灵机)。 80年后,人类在人工智能领域取得了快速进展。在20世纪90年代,IBM超级计算机深蓝打败了世界象棋的世界冠军,引发了关于计算机是否超越人类大脑的热烈争论。然而,由于其不可预测的动作,Go已成为AI(人工智能)难以克服的禁忌之地。当然,世界上总有人不相信邪恶。由DeepMind开发的AI计划AlphaGo击败了欧洲围棋冠军范伟。

什么是AlphaGo?

起初,DeepMind是英国一家专门从事深度学习和分析建模的小型人工智能公司,并于2014年被谷歌收购。该公司的创始人是Demis Hassabis,他拥有大学的计算机科学和认知神经科学学位。剑桥大学和伦敦大学学院,是国际象棋大师。从外面看,学生化的Kasabis非常普遍,但它对人工智能的看法和看法改变了很多观点,包括着名的物理学家斯蒂芬霍金。霍金一直倾向于人工智能威胁理论,认为智能机器有一天会威胁人类安全。然而,在与Hasabis谈了4个小时后,霍金似乎改变了他的态度。

在介绍了DeepMind的负责人之后,我们将注意力转回AlphaGo。事实上,AlphaGo已经很久了。它用CrazyStone和Zen(两个着名的Go程序)玩了500场比赛,只输了一场比赛。此外,它还优于Facebook的Go程序DarkForest,由Mark Zuckerberg支持。 AlphaGo能够评估战略网络(ValueNetwork)和评估网络(ValueNetwork)。前者分析情况、来预测对手的动作,后者负责判断中奖率,并且可以在2微秒内迈出一步,而DarkForest只有第一个能力,而下棋所需的时间也较慢。

当然,AlphaGo的真实名称是打败欧洲围棋冠军范伟,这在当时引起了轩然大波,甚至推高了谷歌的股价。毕竟,这是计算机对人类大脑的胜利。更重要的是,从计算机的角度来看,Go比国际象棋困难得多。每个步骤的潜在组合非常复杂。一些专家说,人工智能不能在十年内掌握围棋。AlphaGo是由David Weaver、 Ai Jia Huang和DeepMind的Daimis Hasabis开发的Go人工智能程序,DeepMind是一家位于英国伦敦的谷歌公司。使用值网络计算情况并使用策略网络选择下一个。 2015年10月,Alpha Go以5:0击败欧洲围棋锦标赛。职业第二段选择、?范范; 2016年3月对阵世界围棋锦标赛、职业九阶段球员李世石,李世石输球。

谷歌Alpha Go AlphaGo背景数据照片二大脑介绍(图)

AlphaGo是一个Go人工智能程序。该程序使用值网络来计算情况并使用策略网络来选择下一个。

深度学习

AlphaGo的主要工作原理是深度学习。深度学习是指多层人工神经网络及其训练方法。一层神经网络将大量矩阵数作为输入,通过非线性激活方法获取权重,并产生另一个数据集作为输出。这就像生物神经脑的工作机制。通过适当数量的矩阵,多层组织被连接在一起形成神经网络大脑,用于精确和复杂的处理,就像人们识别物体和标签图像一样。

两个大脑

AlphaGo是两种不同神经网络大脑的组合,用于改善国际象棋。这些大脑是多层神经网络,其结构与谷歌图像搜索引擎认可的类似。它们以多层启发式2D过滤器开始,以处理Go板的定位,就像图像分类器网络处理图像一样。在过滤之后,13个完全连接的神经网络层产生他们所看到的内容的判断。这些层能够进行分类和逻辑推理。

这些网络通过反复训练检查结果,然后进行校对以调整参数以使下一次执行更好。这个处理器有很多随机元素,所以人们不可能确切地知道网络的思考方式,但是更多的培训可以使它更好地发展。

AlphaGo的第一个神经网络大脑是用于监督学习的PolicyNetwork,观察板的布局以试图找到最佳的下一步。实际上,它预测了每个合法下一步的最佳概率,因此猜测最多的是概率最高的那个。这可以理解为拖放选择器。

AlphaGo的第二个大脑回答了与下拉选择器相关的另一个问题。考虑到作品的位置,它不是猜测下一步,而是预测每个玩家赢得游戏的可能性。这种情境估计器是ValueNetwork,它通过整体情境判断来协助跌落选择器。这个判断只是近似的,但对阅读速度非常有帮助。通过对未来情况的潜力进行分类,AlphaGo可以决定是否阅读特殊变体。如果情境评估员说这个特定的变体不起作用,那么AI会跳过读取此行上的任何更多丢弃。