今天上午,柯潔對戰阿爾法狗的第二局比賽展開角逐。在這場三番棋比賽第二局進行到下午1點37分時,柯潔主動投子認輸,臺下觀眾一臉懵逼(截止發稿前仍處于震驚中),AlphaGo提前一個多小時在中盤戰勝柯潔!
比賽結果
柯潔對戰阿爾法狗第二局中盤認輸!Alphago為什么如此厲害?
在這次比賽中,圍棋國手古力、張璇(曾獲得過中國冠軍)擔當開局時段的解說員。古力認為,在特別難判斷的盤面上,AlphaGo比我們要思考地更加準確,也就是說從一步看未來幾十步的“本事”。
從開局來看,柯潔想把時間多用在對布局的策略方面,而且在前十手時打的一直非常不錯,盤面很穩,甚至預料到AlphaGo多步棋的下子位置。與此同時,AlphaGo的表現跟人類無異,每一步下的都很平常,甚至很多步都被古力預測到。
但是我們需要清楚,在前天進行的第一場比賽時,前10手柯潔的勝率其實是非常高的,但越往后,AlphaGo的勝率就逐漸慢慢提高了。
一開始比賽的賽時沒有被拉開,對弈雙方的時間差也一直維持在十幾分鐘左右。但隨著戰局的推進,柯潔扯頭發的次數越來越多(頭發越來越亂),面部的表情也越來越焦慮。
最終,讓所有人都沒有想到的是,開局2個多小時后,局面出現反轉,柯潔漸漸處于劣勢,而且力不從心。最終突然在下午1點37分主動投子認輸,AlohaGo在中盤執黑子贏得勝利!隨后進行了復盤。
在整個比賽過程中,古力曾著重分析了AlphaGo的厲害之處:
在預測大局的方面非常厲害,也就是在所謂的“虛著”方面更勝一籌。
通俗來講,就是在棋子比較密布的某一區塊上面,我們誰能猜到AlphaGo的落子結果;但在盤面比較虛的地方,例如棋子稀疏的下方,我們根本無法猜到。而AlphaGo就是在這種情況下,不知不覺地積累優勢。
其實,早在AlphaGo與柯潔未開賽前,我們曾經提出一個腦洞大開的問題:AlphaGo會不會故意輸給柯潔?
這個命題可以設定為存在兩種情況:
第一個猜測被DeepMind創始人Demis以一個玩笑否認了:
這個建議太好了,看來我們以后也應該為AlphaGo安裝一些傳感器與攝像頭。你要知道,AlphaGo一定是會有弱點的。而柯潔據說也通過分析AlphaGo掌握了一些它的套路,兩位選手是勢均力敵的。
而第二個猜測,的確是DeepMind持續提升AlphaGo能力的一個方向,但目前來說,AlphaGo還做不到。
在在昨天的人工智能閉門大會上,DeepMind首席科學家Davis Silver已經非常清晰地解釋了這個新一代AlphaGo的過人之處:
第2代“深度強化學習系統”AlphaGo Fan(共4代)共有12層卷積神經網絡,而第4代AlphaGo(也就是與柯潔比賽的這一代)通過進行“自我學習”(監督學習與強化學習)已經訓練出了40層神經網絡(由策略網絡與神經網絡組成)。
在整個學習過程中,系統要對棋局進行圖像掃描,分成無數個小塊依次進行處理,最終構成整個全局觀。具體來說,它可以近乎準確地判斷棋盤上現有的棋子能給周圍區域帶來多大的影響力。
這個“全局觀”,就是AlphaGo與人類最不一樣的地方,也是古力在解說時特意強調的AlphaGo具備的一個能力:
策略網絡,就是讓AlphaGo先自己跟自己比,下個幾萬場,目的就是要“走對子”,選擇最好的一步走,判斷哪個策略最有效。
而在這個步驟結束后,繼而形成價值網絡,用來負責估算勝率。“策略網絡”能夠對所有落子位置進行概率分布,然后再將這些估算出的信息投入到蒙特卡羅搜索樹中,推算出勝率最高的一些算法。
換句話說,就是每走出一步,價值網絡就是通過這樣的函數來預測未來的輸贏,而不是靜態地去考慮這步棋。
兩者一前一后,就形成了AlphaGo的殺手锏——“在最后結果為‘贏’的前提下,去選擇每一步最可行的路徑”。
這也能解釋為何AlphaGo在去年與李世石三番棋的第二局比賽中,狗的第37子被稱為“牽一發而動全身”的一步棋。在賽后復盤后,人類棋手才發現這步棋完全決定了后面50步棋的下法。
照這樣來看,層數越來越多的神經網絡決定了AlphaGo學習的深度正在越來越大,這就相當于AlphaGo不管是在思考每一步策略,還是在判斷勝率的精準度上都有了很大的提高。
如果要故意輸給柯潔,不僅需要AlphaGo的自我學習能力,還需要獲得柯潔這位棋手足夠多的數據,因為獲得固定的勝率需要他去“揣摩”柯潔的直覺。
從理論上來說,如果AlphaGo能通過自我學習來掌握柯潔足夠多的數據,是有可能控制勝率的(幾率會更高)。
但是這個決定三番棋勝局的關鍵第二場比賽,柯潔的主動投子認輸,讓我們再次見識到了AlphaGo的厲害之處。
柯潔對戰阿爾法狗第二局中盤認輸!Alphago為什么如此厲害?