-
圍棋“人機(jī)大戰(zhàn)” 人工智能站在風(fēng)口
2016/3/11 8:57:13 來源:中國產(chǎn)業(yè)發(fā)展研究網(wǎng) 【字體:大 中 小】【收藏本頁】【打印】【關(guān)閉】
核心提示: 3月9日,谷歌人工智能AlphaGo在與圍棋高手李世石的第一場比賽中獲勝。小米科技董事長雷軍指出,此次比賽無論誰輸誰贏,對人工智能都是一個(gè)標(biāo)志性事件。多家券3月9日,谷歌人工智能AlphaGo在與圍棋高手李世石的第一場比賽中獲勝。小米科技董事長雷軍指出,此次比賽無論誰輸誰贏,對人工智能都是一個(gè)標(biāo)志性事件。多家券商機(jī)構(gòu)認(rèn)為,此次人機(jī)大戰(zhàn)將引來社會(huì)各界對人工智能的關(guān)注。
融入學(xué)習(xí)能力
AlphaGo是谷歌旗下人工智能公司DeepMInd開發(fā)的智能系統(tǒng)。
人機(jī)棋類博弈是檢驗(yàn)人工智能進(jìn)步的重要工具。此前,IBM超級電腦“深藍(lán)”擊敗過國際象棋大師卡斯帕羅夫。而圍棋每回合可能性更多,局面多變。
野新興凱澤科技首席技術(shù)官表示,此次比賽AlphaGo較之前聰明了很多。這顯示出其深度學(xué)習(xí)能力。據(jù)了解,AlphaGo突破了傳統(tǒng)電腦的“固定”程序邏輯,融入了學(xué)習(xí)能力。其技術(shù)架構(gòu)采用的是模仿人類大腦神經(jīng)模式,而不再單單依靠機(jī)器的蠻力“強(qiáng)記”。
搜狗CEO王小川表示,AlphaGo的學(xué)習(xí)能力不僅包括向圍棋大師學(xué)習(xí),更有自我下棋自我學(xué)習(xí)的“左右互搏”能力。這樣一臺算法上沒有天花板的機(jī)器,通過自己學(xué)習(xí)能力將得到不斷提高。
鄭重聲明:本文版權(quán)歸原作者所有,轉(zhuǎn)載文章僅為傳播更多信息之目的,如有侵權(quán)行為,請第一時(shí)間聯(lián)系我們修改或刪除,郵箱:cidr@chinaidr.com。