这(zhè)是阿尔法狗表情包(bāo),阿尔法狗表情包是(shì)一(yī)款由谷歌(gē)研(yán)发的著名机器人AlphaGo而(ér)衍生制作的相关(guān)表情(qíng)包(bāo),这款阿尔法狗表情(qíng)包并不是以传统的科技感(gǎn)而制作的,整体(tǐ)偏向于漫画风(fēng)格,马(mǎ)上AlphaGo就又要和柯洁进(jìn)行在一(yī)次的围棋较量了,在观看讨论过(guò)程(chéng)中和朋友斗一斗相关表情包也是(shì)极其不错的选择哦,感兴(xìng)趣的用户朋友可以下载阿尔法狗表情包试试这款(kuǎn)表情包哦。
阿尔法围棋(qí)(AlphaGo)是(shì)一款围棋(qí)人(rén)工智能程序,由谷歌(Google)旗(qí)下DeepMind公司的戴密斯·哈萨比斯(sī)、大卫·席尔瓦、黄(huáng)士杰(jié)与他们的团队开发(fā)。其主要(yào)工(gōng)作(zuò)原理是“深度学习”。
2016年3月,该(gāi)程(chéng)序与(yǔ)围棋世界冠军、职(zhí)业九段选手李世石(shí)进行人(rén)机(jī)大战(zhàn),并以4:1的总比分获胜;2016年(nián)末2017年初,该程序在中国(guó)棋(qí)类网站上(shàng)以(yǐ)“大师”(Master)为注(zhù)册帐号与中日(rì)韩数十位围棋高手进(jìn)行(háng)快(kuài)棋对决,连(lián)续60局无一败绩。不少职业(yè)围(wéi)棋手认为,阿尔法(fǎ)围棋的棋力已经达到甚至超(chāo)过围棋职业九段水平,在世界职业围棋排名(míng)中,其等级分曾经超过排名人(rén)类第一的(de)棋手柯洁。
2017年1月,谷歌Deep Mind公司CEO哈萨比(bǐ)斯在德国慕尼黑(hēi)DLD(数(shù)字、生活、设计)创新(xīn)大会(huì)上宣布推出(chū)真正2.0版本的阿尔法围棋(AlphaGo)。其特点(diǎn)是摈弃了人类棋谱,只靠深(shēn)度学习的方式成长起来挑战围棋的(de)极限(xiàn)。
深度(dù)学习
阿尔法(fǎ)围(wéi)棋(AlphaGo)是一款围棋人工智能(néng)程序(xù)。其主要工(gōng)作原理(lǐ)是“深度学习”。“深度学习(xí)”是指多层(céng)的人工神经网络和训练它的方法(fǎ)。一(yī)层神经网(wǎng)络(luò)会把大量矩阵数字作为输入,通过非(fēi)线性(xìng)激活方法取(qǔ)权重,再产生另一个数据集合作为输出(chū)。这就像生物神经大脑的工作(zuò)机理一(yī)样,通过合(hé)适的矩阵数量,多层组织链接一起,形成神经网(wǎng)络“大(dà)脑”进行精准复杂(zá)的处理,就像(xiàng)人们识(shí)别物体标注图片一样。
阿尔法围(wéi)棋用(yòng)到了很多新技术,如神经网(wǎng)络、深度学习、蒙特卡洛(luò)树(shù)搜索法等,使其实(shí)力(lì)有了(le)实质(zhì)性飞跃。美国脸书公司“黑暗森林”围棋软件的开发者(zhě)田渊栋在网上发表分析文章说:“‘阿尔法围棋(qí)’这个系统主要由几个部分组成:一、走(zǒu)棋网络(luò)(Policy Network),给定当(dāng)前局(jú)面,预(yù)测/采样下一步的走棋;二(èr)、快速(sù)走(zǒu)子(Fast rollout),目标和走棋网(wǎng)络一样,但在适当牺牲(shēng)走棋质量的条件下,速度要比走棋网络快(kuài)1000倍(bèi);三、估(gū)值(zhí)网(wǎng)络(Value Network),给定当前局(jú)面,估计是白胜还(hái)是黑胜;四、蒙特卡洛树搜索(Monte Carlo Tree Search),把(bǎ)以上(shàng)这三个(gè)部分连起来,形(xíng)成一个完整的(de)系(xì)统。”[2] [3]
两个大脑
阿(ā)尔法围棋(AlphaGo)是通过两个不同神经网络“大脑”合作来改进下棋。这些(xiē)大(dà)脑是多层神经网络(luò)跟(gēn)那些Google图片搜索引擎识别图片在(zài)结构上是相(xiàng)似的。它们(men)从多(duō)层启发式二维过滤器开(kāi)始(shǐ),去处理围棋棋盘的定位,就像图片分类器网络处理图片(piàn)一样。经过过滤,13 个完全连接的神经网络(luò)层产生对它们(men)看到的局面判断。这些(xiē)层能够(gòu)做分类和逻辑推理。
这(zhè)些(xiē)网络通过反复训练来(lái)检查结果,再去校对调整参数,去让下次执行(háng)更好。这个处理器有(yǒu)大量的(de)随机性元(yuán)素,所以人们(men)是不可能精确(què)知道网络是如何“思考”的,但更多(duō)的训练后(hòu)能让它进化到更好。
第一大(dà)脑:落子选择器 (Move Picker)
阿尔法围棋(AlphaGo)的(de)第一个神经网络大(dà)脑是(shì)“监督学(xué)习的策略网络(luò)(Policy Network)” ,观察棋盘布局(jú)企图找到最(zuì)佳的(de)下(xià)一步。事实上,它预测每一个合法下一步(bù)的最佳概(gài)率,那么(me)最(zuì)前面猜(cāi)测(cè)的就是那(nà)个概率最高的。这可以理解成“落子选择器”。
第二大脑(nǎo):棋局(jú)评估(gū)器 (Position evalsuator)
阿尔法围棋(AlphaGo)的(de)第二个大脑相对于落子选(xuǎn)择器是回答(dá)另(lìng)一个问题(tí)。不是(shì)去猜测具体(tǐ)下一步,它预测每一个棋手赢棋的可能,再给定棋子位置情况(kuàng)下。这“局(jú)面评估器”就是“价值网络(Value Network)”,通过整体局面判断来(lái)辅助落子选择器。这个判断(duàn)仅仅是大概的,但对于阅读速度提高很有帮(bāng)助(zhù)。通过(guò)分类潜在的未(wèi)来局面的“好”与“坏”,AlphaGo能够决定是(shì)否通过特殊变种(zhǒng)去(qù)深入阅读。如果局面评估器说这个特殊变种不行(háng),那么(me)AI就跳过阅读(dú)。


