AlphaGo 在下棋時知道自己在幹嘛麼?

時間 2021-05-05 20:40:00

1樓:來請坐

那些將阿爾法元的自主學習能力吹上天的人,你們怎能眼睜睜地看它失學!?

2樓:郭韭菜

當然不知道。他只是乙個工具,跟錘子,電鋸,轎車無本質區別。車跑的比人快,那車知道自己在幹嘛嗎?錘子打釘比人厲害,那錘子知道自己在幹嘛嗎?

3樓:方念的故事

當你在做事的時候,你知道自己是在做什麼嗎?當木偶被線牽著做出各種動作時,木偶知道自己是在做什麼嗎?目前的人工智慧大抵如此,直到我們知道了什麼是意識。

4樓:小木

當然不知道,神經網路說到底還只是乙個極其複雜函式的擬合,怎麼會有意識!等人們搞懂意識是啥了再說吧。alphaGO只是綜合了深度強化學習和蒙特卡洛搜尋的一種演算法,沒有那麼神乎其神。

5樓:咬咬

不知道。

目前的計算機和軟體(包括人工智慧以及超級計算機等等)只會按照人類設計的步驟和方法去執行和計算,並沒有自己的意識這一說。

這是計算機本身的定義決定的,如果有一天他會自己思考了,也就不是計算機了。

6樓:

看你怎麼理解了,至少在下棋方面,alphago是在像人類一樣思考棋局

我試著描述一下alphago的思維過程:

我點三三,對手擋一下,我貼出來,這個變化還不錯(勝率高)

我點三三,對手點二二,我跳,這個變化更好(勝率更高),但對手應該不會蠢到點二二。

我點三三,對手擋一下,我點二二,這個變化不行(勝率低),我不能這樣下。

我掛角,對手小飛,這個變化略差(勝率低),但也不算很低,我再往後算算。

呀,時間到了,那不往後算了,點三三吧。

總之這種思維過程在下棋時我個人認為可以算「知道自己在幹嘛」,因為人類也是在做同樣的事。

7樓:

贊同目前預設排位第一的回答( @鏡澄 )。

阿爾法狗沒有意識,它不能認識自己的行為(輸出),所以它不知道自己正在幹什麼。

它的一切行為(輸出) 只是一種對輸入(棋局狀態)的自動反應,儘管這種反應經歷了相當複雜的計算。

為了方便理解,我們可以把它的每一步棋的 「思考」 過程模擬於我們的直覺。 比如,當你與陌生人會面時,在最初的接觸中,或許會使你產生某種感覺(善、惡、可愛、討厭……)。 你往往說不出這些感覺的來由(或者需要等到稍後經過細細品味才能夠說出

一、二),它們就這麼突兀地呈現在你的意識中。 其實大腦並非這樣無厘頭。 這些感覺是大腦把眼前的經歷與過往經驗過的模式進行大量的匹配以後得出結果。

如果阿爾法狗對自己的行為有感覺的話, 那麼,決定下每一步棋的時候,應該就是這種感覺。 可惜,阿爾法狗沒有意識,不能對自己的行為有任何有意義的感覺和認識。 所以,阿爾法狗甚至沒有這種直覺的體驗。

它只有反應——一種相當複雜的反應。 如此而已。

8樓:

alpha知道自己能幹嘛,知道自己怎麼幹更有機會成功,但它並不知道自己在幹嘛。

關於它的工作流程和三個主要模組,官方有介紹,不贅述。

能幹嘛:它知道規則。

怎麼幹更容易成功:自己會模擬和計算走每一步自己的勝率。

在它眼裡下圍棋就是一棵樹,它只是在不斷地模擬建樹並計算勝率。它的目標就是找出自己在有限時間內所能找到的勝率最大的那個分支並不斷找下去。它甚至不關心自己領先多少,它只關心自己最終會領先(贏,哪怕只贏一目)。

9樓:Martin

有時人在聚精會神思考一件事情的時候,都會忽略自我的存在,必須打斷這個思維才會想起自己在幹嘛,更何況只含有下棋程式的機器能呢?如果AlphaGo帶有自我感知程式,且有雙線程執行功能,說不定能感知自己在幹嘛吧

10樓:乾元智藏

有很多人認為計算機有認知能力,其中竟然有很多是高階知識分子,這實際上是乙個思之極恐的事情,這說明人的真實智力是不能看身份的,然而現代人恰恰最看重身份。

回答問題:但是這個問題太簡單了啊,乙個石頭會「知道『自己』在幹嘛」嗎?

11樓:aquasnake

不管邏輯多複雜,如果以FPGA的黑盒模型看,它實際上就是乙個真值表,雖然這個真值表描述可能需要很大的配置檔案(就是配置內部門電路狀態以實現複雜邏輯的bitfile)

因為這個真值表是不能自我進化的,也就是在邏輯綜合完以後,即是固定的了,所以雖然不同的輸入會產生不同的輸出看似是動態的,其實卻是靜態的,只是這個靜態的邏輯選擇切換開關組合的可能性非常大而已。

以計算機來說,其處理能力極限是以MIPS(XX百萬指令每秒)來描述,在乙個硬體系統設計完畢就已經是蓋棺定論了。

如果乙個系統,邏輯是不能進化而容量是固定的話,那就是死的靜態模式切換器而不是真正意義上的仿腦神經。

而人的生物大腦,則不然,以神經元比作FPGA裡面的單一閘電路的話,首先神經元細胞是可以動態生長的,然後其處理能力是根據突觸的多少,其記憶力是根據溝回的多少來決定,是可以隨某一刺激的增加而可以訓練加強並生長開來的(嬰幼兒階段尤其明顯)

以上還僅僅是結合生物,微電子,計算物理來做的比較。如果假設是有量子糾纏的話,比如靈魂是另一種物質在另乙個多維空間存在但目前我們尚且探測不到的某種能量的話,那麼意識的生成就更難解釋與合成仿造,似乎就只有上帝能創造了。

所以想要機器有意識,先要等怎麼把人的意識分離並上傳到某種邏輯容器中並可以複製生長單一邏輯閘電路以仿造神經元的科技時代吧

12樓:安川

不知道。

對此,「中文房間(Chinese room)」是乙個很典型的思想實驗。

這個實驗要求你想象一位只說英語的人身處乙個房間之中,這間房間除了門上有乙個小視窗以外,全部都是封閉的。他隨身帶著一本寫有中文翻譯程式的書。房間裡還有足夠的稿紙、鉛筆和櫥櫃。

寫著中文的紙片通過小視窗被送入房間中。根據Searle的表述,房間中的人可以使用他的書來翻譯這些文字並用中文回覆。雖然他完全不會中文,Searle認為通過這個過程,房間裡的人可以讓任何房間外的人以為他會說流利的中文。

這個實驗理想化的。房間裡的人通過工具,可以在互動中,流利的與外界以漢語做出反饋,可實際上他完全不理解中文及其內涵。

AlphaGo就是那個房子裡的人,當它在下棋時,只是依靠固定的程式,這個程式就如同用書翻譯的過程一般,而行為就是產生出的語句回覆。即使再複雜,再給人以流利的印象 ,AlphaGo本身也是完全不理解的。

實際上,該實驗表明,任何由特定程式運轉的體系,都不可能產生真實的意識。

13樓:

它就是一段解固定題目的程式。連「自己」的概念都沒有。遑論「幹什麼」。在賣萌方面,還不如十年前的大眼夾,關電腦都會做個遺憾的表情。

14樓:舒克

從AlphaGo想到了很久以前,乙個偉大的程式設計師開發了乙個巨型智慧型生物,自我發展、自我演變、自我更新。為了保持前進動力,他在預裝的系統中設定了食、色等各種慾望,不過因為是第一版本,慾望的優先順序過高,這個傢伙又中途幹別的去了,於是我們成了這個不完美的DEBUG版本

15樓:

其他的答案都值得一看

我這只是抖個機靈

16樓:Well

推薦你去看一部電影,叫機械姬。

很明顯阿法狗不知道自己在下棋,如果她知道自己在下棋,那麼她就是有了自我意識,那麼她在贏了的時候回很開心,輸了會很難過,思考的時候會很糾結,那麼多人圍觀會緊張,看到對面的帥哥還會害羞。

然而這些她都沒有,就是說她沒有意識形態,她怎麼會知道自己在下棋呢。

17樓:

人類從一開始,就沒有戰勝過工具。

因為人類發明工具的目的就是為了超越自己,利用工具提高生產效率。

不論是體力運動,跑得再快,你能跑過賽車嗎?

還是智力下棋,算的再快,能算得過計算器嗎?

人類什麼時候超越過機器?

因此我認為, AlphaGo 就是圍棋專用計算器而已。你們不必太過激動。

18樓:越語離鴻

你不是你,你只是大腦的一部分,而不是整個大腦。

李世石知道自己在下圍棋,但他用來思考圍棋下法的腦組織是不知道自己在下圍棋。

19樓:Moonlight

你說的是計算機有沒有意識,顯然是沒有的,它只是一種區別於人類的心智模式,宇宙中也許存在更多區別於人類的心智模式,很難判斷哪個更強大,目前人造出來的人工智慧已經無所不能了,甚至占領了人類的最後一塊引以為豪的陣地-智商,能打敗人類的智慧型不一定需要有意識,人造出來的人工智慧可能會創造更高階的人工智慧,如果以後人工智慧掌握了人類的所有資源,人類幾乎就沒用了,他們能發明創造,比人類更高效,霍金和馬斯克的擔心我很贊同,我甚至也覺得人類存在的意義就是創造自然演化無法產生的更高階的智慧型,人類只是被利用的工具……扯遠了!

20樓:段牛牛

我想阿發狗是一種有意識的機械生命體,證據就是:當李世石攜帶妻女出現在賽場的時候阿發狗受到了10000點傷害,隨後由於紅血進入了暴走模式,在棋盤上碾壓了李世石~

21樓:ImKAIne

其實不如說自我意識本來就是一堆激勵函式弄出來的

只不過人類現有水平和計算機水平沒法推導出那個函式只能做個簡化模型出來。。。

如果什麼時候人真能弄出來人工智慧肯定離改造自身增加自身運算力不遠了。。。

22樓:

假設阿爾法狗會玩很多遊戲,它下圍棋的時候肯定知道自己正在下圍棋,但我知道樓主問的肯定不是上面那句話,

樓主想問的是:

阿爾法狗有沒有自主意識,就跟很多人調侃的那樣:"阿爾法狗會不會故意輸給人類"?

很遺憾,雖然計算能力很強大,深度學習也很厲害,但阿爾法狗還屬於弱AI的範疇,沒有自主意識.

通過感官,能夠自我地發現問題並總結規律,應用規律,這是猴子比阿爾法狗聰明的原因.

23樓:無文

如果純粹拿意識的工作原理去判斷意識的屬性,那麼無疑是將智慧型限制在「工作原理」這乙個維度上了。

就像是當我們只有視覺去看世界時,那麼所有其他感官的維度你都是預設否定掉的。

目前我們可以確定的是,計算機(電腦)智慧型的意識判斷僅僅存在於邏輯判斷這一層面,但是僅僅依靠這乙個層面的感官判斷是無法從「仿生學」的角度去確定它的意識是」存在「的。

更加可能的是:一旦不同的人對同一臺計算機發出了不同角度的指令(例如A的指令是:維護世界和平。

B的指令是:全力擴張城市化。),那麼計算機做出的判斷也肯定是依據發出指令的人的優先順序(階級)去執行指令,優先順序較低的指令會在衝突發生時被忽略掉。

單一維度的意識人類還是不用懼怕的,因為人類可以從其他維度制衡它。

目前從仿生學的角度去衡量計算機輸入輸出裝置的水平,連單細胞的層次都遠遠不及,因為人類目前為止還沒用製作出一台可以在預訂環境被不受干擾的進行——生殖、繁衍、死亡、行為邏輯統一化的中心控制裝置。

簡單說,就是還沒有做出乙個合格的單細胞,那麼由單細胞組成的複雜的動植物乃至於人類就更不要去想了。

或者我們可以從更多維度去解析」意識「/」智慧型「的內容,但是到目前為止,可以確認的是我們依然只是踏出了萬里長征的第一步。

有沒有可能讓AlphaGo在下每一步的時候說出這樣下的原因,以便人類繼承AI的學習成果?

Alex 當然有可能,只要我們能夠把神經網路學到的representation給factorize。Factorize,顧名思義就是分解的意思。比如用神經網路識別物體,假如能夠分解學到的表徵,比如把乙個車的表徵分解為輪子 車殼。模擬到圍棋,分解之後的表徵可能是對各個區域性的強弱考量 假設輸出是val...

自己學習時不想讓別人知道,也不想讓別人知道我在用什麼軟體學習,害怕他們也用,這心理是不是有點不正常了?

根據你的描述,請允許我妄加揣測一下你的心理活動。你覺得獨享學習資源所獲得的相對收益 自我收益 他人收益 大於共享合作雙贏的相對收益 這個其實是顯然的 因此在量化價值之後,你選擇了前者。但是後者的絕對收益 自我收益 他人收益 是肯定大於前者的絕對收益的。根據以上分析,我揣測你更在意相對收益,即自我超過...

為什麼知道自己很喜歡的人也喜歡自己時,就突然覺得不是那麼喜歡了?

cuttte 因為突然喪失了動力和希望。如果他不喜歡你,你就會想方設法的讓他喜歡你,這是你生活的動力,是你努力的方向,也是你日日夜夜的念想,那份期待比喜歡更能帶來滿足感。如果喜歡你,你就會覺得其實就是那麼回事兒,這就是為什麼愛而不得才珍貴的原因咯。 十三 我也不知道,因為我還沒有體會過這種感覺哈哈哈...