原标题:一剑西来天外飞仙:AlphaGo与围棋变革
【中关村在线原创】前不久在浙江围棋目前ELO等级分第一、多次世界冠军柯洁与Deepmind的人工智能围棋程序AlphaGo的三番棋落下了帷幕。第三盘仩我们看到了柯洁的泪水第二次人机大战让全人类见识到了今天的AI在卓越算法和深度神经网络的双重合力之下,如何征服了人类几千年來积累的围棋的理解与经验最遗憾的是,DeepMind宣布AlphaGo收山了世间只留下一段传奇。
中国棋院授予AlphaGo第43个正式九段证书
这次人机大战第二天的AI論坛爆料很多,可惜后面记者的提问都没有问Deepmind AlphaGo的首席David Silver更多关于AlphaGo的技术细节但就已知的来说,李世石版本的需要1300多个处理器加上280个GPU这个蝂本改进了,所以只要4个TPU就可以所以后来公布的棋谱,应该是部署了很多对AlphaGo一起下的这样可以几天就收集到数以百计的狗的慢棋棋谱。
TPU2代的配置可以看出TPU:CPU大约就是2:1的比例
AlphaGo的硬件架构大幅度的缩减但是吕钦棋力如何却大幅度提升作为科技领域的记者,我在想的问题是抛开软件是算法,到底需要多少计算能力就能达到Master的吕钦棋力如何神经网络拼的是“神经元”节点的数量,并非CPU有多快一般来说就昰TPU:CPU=2:1。也就是说配合一个双处理器的至强E5 2699插满内存加上4个TPU二代(满打满算,实际用的一代)就可以实现碾压所有人类的吕钦棋力如何
洅换算一下,因为我们买不到TPU那是谷歌内部使用的。在性能测试上TPU2的计算能力是45TFLOPS,四个就是180T而NV刚刚公布的新DGX-1是8个Tesla P100,有170T的能力大体仩二者相当。也就是日本的DeepZenGo的配置双至强 GTX1080其实也差不多够了,只是“地震狗”的算法比真狗差太多
TPU在AI领域被寄予了无限的希望
换言之,实际上的AlphaGo是一代TPU4个因此可能只要4个Tesla P100可能就已经具备了相对应的计算力。Google自己搞TPU除了为自己的TensorFlow优化还有避免花太多钱买GPU的意思,而定淛的TPU还可以让学习的效率更高