您现在的位置: 主页 > 嵌入式处理器 > 嵌入式处理器综合 > 新版AlphaGo赢过旧版:不仅会自学 且只需4个TPU芯片 - 嵌入式处
本文所属标签:
为本文创立个标签吧:

新版AlphaGo赢过旧版:不仅会自学 且只需4个TPU芯片 - 嵌入式处

来源: 网络用户发布,如有版权联系网管删除 2018-09-21 

  北京时间10月19日早间消息,谷歌旗下人工智能研究部门DeepMind发布了新版AlphaGo软件,它可以完全靠自己学习围棋。

  这款名为AlphaGo Zero的系统可以通过自我对弈进行学习,它利用了一种名为强化学习的技术。在不断训练的过程中,这套系统开始靠自己的能力学会围棋中的一些高级概念。

  经过3天的训练后,这套系统已经可以击败AlphaGo Lee,也就是去年击败韩国顶尖棋手李世石的那套系统,而且比分高达100比0。经过40天训练后,它总计运行了大约2900万次自我对弈,使得AlphaGo Zero得以击败AlphaGo Master(今年早些时候击败世界冠军柯洁的系统),比分为89比11。

  结果表明,具体到不同技术的效果,人工智能在这一领域仍有很多学习的空间。AlphaGo Master使用了很多与AlphaGo Zero相同的开发技术,但它需要首先利用人类的数据进行训练,随后才切换成自我对弈。

  值得注意的是,虽然AlphaGo Zero在几周的训练期间学会了一些关键概念,但该系统学习的方法与人类有所不同。另外,AlphaGo Zero也比前几代系统更加节能,AlphaGo Lee需要使用几台机器和48个谷歌TPU机器学习加速芯片。其上一代AlphaGo Fan则要用到176个GPU芯片。AlphaGo Zero只需要使用一台配有4个TPU的机器即可。(书聿)



              查看评论 回复



嵌入式交流网主页 > 嵌入式处理器 > 嵌入式处理器综合 > 新版AlphaGo赢过旧版:不仅会自学 且只需4个TPU芯片 - 嵌入式处
 

"新版AlphaGo赢过旧版:不仅会自学 且只需4个TPU芯片 - 嵌入式处"的相关文章

网站地图

围观()