字体:大 中 小
护眼
关灯
上一页
目录
下一页
分卷阅读94 (第2/3页)
正业,但凭他对计算机和围棋两个领域的了解,他曾经尝试过围棋AI的编码,所以他非常清楚这些概念是无法被量化的。此前出现的AI也一直印证着他的猜想,直到AlphaGo。他敢肯定,AlphaGo的计算方式产生了相当大的变化!AlphaGo不是以计算机的惯性在运行,它完全是人脑的思维方式!“他们在蒙特卡洛树搜索上加装了什么?”谢榆一目十行地扫过屏幕上的代码。蒙特卡洛树搜索,是围棋AI的基本解决框架。围棋AI每一步都选择若干种落子,然后在电脑中模拟到终局,进行数子,最终选择胜率最高的那一步棋。因为计算量太大,AI只能给出一个近似最优解,并非全枚举,在AlphaGo之前AI因此也只能达到业余五级的水准。这依旧是一个计算的范畴,而职业棋士很多时候并不是单靠计算做出判断,像之前所说的全局观念,就是蒙特卡洛树搜索无法解决的问题。要让AI发挥出人脑的效果,到底靠的什么?当天晚上,谢榆从美国的某个计算机大牛那里,获知了他想要的答案。AlphaGo团队在蒙特卡洛树搜索上加装了策略网络和价值网络两个模块。这两个模块让AlphaGo不是单纯地计算,而是深度学习、模仿人类!策略网络,顾名思义是决策下一步走子。AlphaGo会检索KCS围棋服务器上所有真人在线对弈,进而判断:如果是人类棋手处于它当前的位置,他最有可能走哪一步?它只对那些解进行计算!然后,它就自我对弈上千万局,看看这一步是否真的是最优解!遵循策略网络,蒙特卡洛树搜索的树宽将大量减少,但深度依旧存在。上千万局博弈,每一局都走到最后,依旧是可怕的计算量。计算深度的减少用上了价值网络。它以AlphaGo产生的大量自我博弈作为样本,检索这种棋形在历史上的胜率,把好坏、优劣变成了一个概率问题!那么每一回,AlphaGo计算到一定深度就可以停下来,直接估算当前胜率!经验的本质是概率,从本质上来说,以概率判断局面的AlphaGo,就是以“经验判断现状”的人
上一页
目录
下一页