cookieOptions = {...}; ‧ 機器究竟能不能思考?(上) - 3S Market「全球智慧科技應用」市場資訊網

3S MARKET

3S MARKET
2016年6月22日 星期三

本文作者應行仁,來自北郵人機與認知實驗室。

机器究竟能不能思考?(上)

機器有智慧嗎?機器會理解嗎?機器能思考嗎?從十七世紀到今,每一次機器功能的重大突破,這問題都被翻出來問一遍,只是否定它變得愈來愈困難了。


Alpha Go與李世石的圍棋賽塵埃落地,棋迷和技術派熱議之後,哲學思考又來了。海外學術界這次比較淡定,也許早麻木了。語音會話技術,圖像辨識和智慧服務,現在已進入人們的日常生活中,深思者早在人工神經網路開始應用時,重新審視過對AI的哲學認知。有些人還認為機器只是傀儡,說這比賽不過是程序員與棋手鬥,AI勝過人類是笑話。其哲學根據,主要來自約翰·塞爾的「中文房間」思想實驗。


中文房間(Chinese room)是由美國伯克利大學哲學教授約翰·塞爾(John Searle)在1980年設計的一個思想實驗(The Chinese Room argument,他的1999年修訂版是這樣的:

想像如下的情景。有個只知英語完全不懂中文的人,與一箱中文字片(數據庫)及如何處理漢字使用字片的英文手冊(程序)被鎖進一個房間。在房外有不知情的人,塞進字條以中文提問(輸入)。


房裡的人對它按手冊指導挑選字片,送出正確回答的字片(輸出)。這手冊能讓房裡人,通過了理解中文的圖靈測試,但他其實對中文一無所知。

 

塞爾認為這房裡人和人工智慧中的電腦,都不必理解輸入和輸出字符的含義,只是按照規則機械地搬弄字符,就給外面人一種能夠理解中文的印象,其實中文房間裡的人,以及電腦所作所為,都談不上思維和理解。

這是現代哲學中最著名的思辨之一,他針對是能夠通過圖靈測試Turning Test)的機器智,在哲學界和認知科學上引起了廣泛的討論。現在用Google Scholar 搜索一下「Searle’s Chinese Room」,都有上萬條的結果。

中文網上也有一些討論這個思想實驗,有些人熱心於設計機器不能恰當回答的問題,想以此證明機器智力不能勝過人類。其實這是對它的誤讀。塞爾的實驗是假定這系統,能夠通過圖靈測試,在這基礎之上討論心智的哲學問題。現在機器智慧技術發展,證實了這個哲學思考的前提並非無稽之談。

讓我們更詳細地考察,這個著名思辨的由來和內涵。

機器能否思考?

歷史上,萊布尼茨(1646-1716)用磨坊的思想實驗(Leibniz’Mill)考察過這個問題。


假如思考和感知的活動,能夠用數位和機械運動的原理來解釋,把這個具有智慧的機器尺寸放大許多倍,人就像走進磨坊一樣來檢查內部,我們只能發現部件間相互的推動,這裡沒有一個部件能夠解釋感知,比如說疼痛,那麼它們的機械組合也必然是如此。萊布尼茨以此來反對當時盛行的機械決定論,提倡物質和心智的二元論。

 

資訊革命初起,圖靈認為思維活動不外乎資訊依程序而流動。他設想一個能夠下棋的紙上機器(Turing Paper Machine 1948)。

如果有一張紙,寫著下棋時所有局面的應對,人們不需要懂棋,只要對照紙上的指示就能下棋。這張紙的內容就是程序,電腦遵照程序運行,也像人類會思考一樣能夠下棋。

1950年,圖靈發表了具有里程碑意義的論文《電腦能思考嗎?》,第一次提出「機器思維」的概念。他認為:假如通過電傳終端與另一邊進行對話,人們無法區分那邊是機器還是人類?那麼就該承認這機器具有智慧。這個測試稱為「圖靈測試」(Turning Test)。他的主張在認知科學上稱為功能主義。


上世紀70年代,電腦開始普及,耶魯大學的Roger Schank用「概念表示」的技術來分解語句,被認為結合背景知識數據庫的AI,可以理解英語。塞爾用中文房間思辨,反對這種功能主義的智慧解讀。

 

塞爾構造的「中文房間」,模仿圖靈測試,但繼承了萊布尼茨的思辨,考察形成這種智慧的每一個構件,在這裡除了唯一具有理解力的本人外,其他一切都是沒有生命的工具和機械性的操作,卻能表現出理解中文的行為,而他其實不懂得中文。所以說這行為只是一種扮演。

中文房間思維實驗,深思宏觀現象中的微觀機制和驅動力,不同的微觀機制和驅動可能形成相同的宏觀現象,圖靈認為只要宏觀功能與人類的智力行為是相同的,我們可以用智慧這個詞來描述這個功能。

如在圍棋賽中,談的是博弈技藝高低的宏觀測試,說機器具有智慧並無不可,語言對話也是如此。塞爾則強調它們內在的機制不同,和有否表達真正的意向,說這中文房間僅僅是對話功能的模擬,並不具備理解這活動的能力。


塞爾將人工智慧分為兩類:認為必須能夠理解自然語言,並在模仿人類行為時,具有類似心理活動的機器,稱為「強人工智慧(Strong AI)」;那種只有模仿功能,沒有思想的機器智慧稱為「弱人工智慧(Weak AI)」
 

他的強人工智慧是足以解釋心智活動機制的模型。他在那時相信:研究大腦與研究心智無關,圖靈測試不足以確立心理狀態;沒有理解力或者意向性(intentionality),就不能說機器會思考,因此也就沒有通常意義下的思維能力。

塞爾思辨直接的結論是「中文房間實現的不是強人工智,一般化的推論是「不可能通過字符操作,從語言形式(syntax)得到語義內容(semantic)」。

哲學表達的是一種思想觀念,它的判斷無論以真理名義或出自權威都不足為訓。哲學不像數學,後者表達是約定的邏輯結果,通過嚴謹推理,總能辨出是非,它也不像科學那樣表達事實,其斷言可以被實驗證明或否定。哲學的意義在於思辨,通過辯駁剖析,澄清含糊之處,啓發對世界的認知。

1980年起,哲學家科學家就不斷地在學術刊物上發表評論,參與討論,中文房間被廣泛地引用。大多數學者不認同塞爾。BBS編輯Stevan Hamad說:「絕大多數人認為中文房間的思辨是完全錯誤的。」反對中文房間的思辨,依不認同的程度大致分為三大類:系統答覆,機器人答覆和否定答覆。而塞爾幾十年來匯編不同意見,犀利地反詰,促進了人們深思。


在早期的答覆中,最多是持「系統答覆」的觀點。他們承認中文房間中的那個操作人不懂中文,但說這並不說明那個房間的系統,不能產生對中文的理解。系統的特質並非能夠細化區分到某個部件,它是由整體的協同來產生的。

 

塞爾反駁說,機器能說中文,並不意味著它就理解中文。我把房間裡的一切包括程序、數據庫、說明書都裝進頭腦裡,我就是這個系統。我如電腦一樣按程序作答,表現得也像懂中文,但是我自己知道,我仍然不理解中文。

「機器人答覆」則同意在中文房間情形下,不能說是理解中文,就像對從來沒吃過饅頭的西方人,中文數據庫怎麼講解饅頭,都不如自己看過、聞過、吃過、做過那樣地有體會,能真實理解饅頭這詞的語義。


所以他們建議將這機器大腦,裝在一個有聽覺、視覺、嗅覺、味覺和觸覺傳感器的機器人身上,讓它行走在我們所處的世界裡,那麼這機器人就有人的感受,也就有了理解力。塞爾認為這看法並不比「系統答」高明,因為所有這些傳感器的感知,只不過是一些額外的輸入,就如在中文房間,塞進另外一些關於環境世界感受知識的紙條,或這些知識已經被整理存進了數據庫,無論如何,在房間中的我,依然是不理解中文。

 

「否定答覆」則完全不認同中文房間的思辨,足以否定強人工智慧,說塞爾把房間中的一切都裝進頭腦,引用中文數據庫裡的知識,能夠流利用中文回答問題,這情形就像物理、化學大部分實驗我們都沒做過,大部分的詞彙的含義,都是來自書本中別人的經驗,可是我們都覺得自己能夠理解這些詞彙和相關語句,為什麼放在同樣做法的AI上就不行呢?

有一派人甚至認為,塞爾的思辨來自錯誤的直覺,就像走進萊布尼茨磨坊一樣,所見的直觀並不能反映宏觀現象的本質。

例如考察旋轉的磁鐵人們看不見光的發生,但我們不能因此否定光是電磁波。這個思想實驗就像以變慢的時鐘走進原子尺度一樣,讓我們看不到光。以微觀的尺度和緩慢的過程,來理解「智慧」和「理解」的宏觀現象,房裡人的直覺往往是錯的。

塞爾對這些批評,用「意識形態的俘虜」一言以蔽之。他說,不明確地指出是什麼樣的系統,由什麼樣的機制能導出心靈,就相信了心靈能從系統中「湧現」出來,完全是一種對自己直覺的盲目自信。

中文房間真正的意義在於心智哲學上的思辨。它是圖靈之後被最廣泛地討論的問題,它以哲學清晰和純淨性成為認知科學上的經典


儘管「中文房間」的思考是針對人工智慧,其哲學思辯無比深邃,大多數電腦學家和人工智慧專家,卻不認為這與他們的工作有關,不覺得AI有什麼局限。他們埋頭苦幹,開發出有不輸於人類的語言和圖像辨識能力的AI,造出能與人類在棋類一較輸贏的機器。
 

對於人工智慧,不論它在哲學上歸類為弱如僵屍一樣沒有靈魂,還是強如人類一樣有著自己意識,它在許多智力活動中將強於人類不再是猜測了。


那麼指引這些智慧研究的思想,究竟是什麼呢?

                                                                                                                                                                                                                            


0 comments: