cookieOptions = {...}; ‧ 對於人工智慧的恐懼,來源於人類的無法預知 - 3S Market「全球智慧科技應用」市場資訊網

3S MARKET

3S MARKET
2015年5月19日 星期二

leiphone 金楠 作者聲明:以下內容僅代表個人觀點)

當下正在熱映的兩部好萊塢大片《復仇者聯盟2》和《超能查派》,其中都出現了機器人主角:奧創與查派,它們雖然在人設上大有不同,可歸根結底,都是人工智慧主導的生命體。

5557adf0275dd.jpg

但你可不要以為電影裡的場景,距離你遙不可及,其實“人工智慧”這一概念早在世界上第一台電腦埃尼阿克問世後,不到十年就被提出了,而在當下,人工智慧更是早已已經佈滿在你的身邊——遠一些像IBM研發出的超級國際象棋電腦“深藍”,近一點像翻譯軟體、Siri無人駕駛,其實都是人工智慧,只不過大部分人工智慧,在實現和普及以後,人們就只稱呼它為“智慧”而已。

不過,相比較普通人對於人工智慧的好奇和期待,一些科學家和行業巨頭們,卻對於人工智慧的未來發展抱以擔憂,其中,包括史蒂夫·霍金、比爾·蓋茲和埃隆·馬斯克。比如霍金很早之前就表示,人工智慧是人類歷史上,出現過的最可怕的事物;而馬斯克也在麻省理工的演講中提到,人工智慧將成為人類“最大的生存威脅”。

這似乎很難以理解,因為無論是“深藍”還是Siri,或是無人駕駛等等,看上去似乎滿滿都是利好的一面,是科技進步的體現,那為什麼我們還是恐懼它們呢?

人工智慧的分類
要回答這一問題,先要搞清楚人工智慧的分類。人工智慧分為弱人工智慧、強人工智慧、超人工智慧三種,而它們本身也是循序漸進的發展路線關係。包括“深藍”和Siri,其實只屬於弱人工智慧,而真正令巨頭們感到憂慮的,主要是後兩者。

弱人工智慧目前在生活中已經非常普遍,其特點是可以執行某種單獨的能力,比如檢索資訊、生產操作等等。人們對於弱人工智慧的關注點主要在於,它存在一定的替代效應,比如生產用的機器人,在其可以於部分生產環節裡,代替人力資源之後,就可能會造成人類的工作流失

而強人工智慧,是指達到人類腦力活動級別的智慧,它不僅可以執行指令,還可以思考、學習、理解,乃至進行抽象思維,比起弱人工智慧,強人工智慧實現起來的難度非常之大,關鍵就在於它需要具備 “自我意識”——這意味著它和其它被人類研發出來的技術,比如核武和克隆不同,因為它可能會自己做點什麼;不過目前,人工智慧雖然已經在多數需要思考(主要是運算)的領域上超過人類,但在一些人類不需要思考,就能完成的事情上(比如下意識躲避飛來的球),它們還差的很遠。

而超人工智慧顧名思義,就是超出人類自身能力的人工智慧,包括在科研、社交、生產領域等等,超人工智慧都將比人類本身要更加聰明強大——而這一點,也是最令人擔憂的,因為如果比人類更強大的超人工智慧普世之後,人類自身,還有存在的必要和可能嗎?

5557ae2ab9300.jpg

對超人工智慧的恐懼,來源於人類的無法預知
在霍金、蓋茨和馬斯克這些悲觀派眼中,強人工智慧尚有一定可控性,但超人工智慧則不一樣,因為後者令人害怕的地方,在於人們對其一無所知——是的,人類最多能用目前已有的東西,去預測將來可能發生的事情,但是,超人工智慧的能力是超過人類的,這意味著許多人類目前無法解決,甚至無法預知的東西,對超人工智慧來說則可能不是問題,換言之,人類也無法預知超人工智慧。

而現階段那些表示人工智慧不值得擔心的人,包括百度人工智慧負責人吳恩達,都是基於人工智慧還有很長的發展時間這個點——換言之,他們並非是否認人工智慧可能帶來毀滅,而是對於這中間的時間,以及這段時間內人類自身技術的發展表示樂觀,他們認為人類有能力,在超人工智慧引起災難之前,把一切隱患環節都鎖死和控制住,就像現在斷電斷網,就能遏制弱人工智慧的“生命”一樣。

也就是說,時間是一個關鍵,它既關係著人工智慧的發展程度,也決定著人類是否有足夠的應對和控制時間,那麼,在時間上我們能樂觀嗎?

寧願杞人憂天,不可自欺欺人
霍金給出的預計是100年以內,而馬斯克則激進的表示,在5年之內人類就會有危險——掐頭去尾之後,這個難以確定的時間,可能就是當代人的有生之年。而很多人都知道一個道理,科技越發達,科技本身的發展速度就會越快,它既體現在社會環境中,也體現在具體產品至上,比如智能手機的處理能力,以及網路本身的發展,就是呈指數級遞增的,從之前到現在需要100年發展的東西,從現在到下一個節點可能只需要50年,再來就是25年。

這就是為何看似非常遙遠的超人工智慧,會在這個強人工智慧,都還難以實現的當下,就讓人感到恐懼的原因——因為它的開端可能很慢,但是之後會越來越快,包括動物本身的進化就是如此,現在所擁有的一些習性,其實是經過了漫長時間的適應與培養,最終沿襲下來的,然而,猿人和人類之間的差距很漫長,但普通人與高智商人群之間的距離,則就要被縮小N多倍。

也就是說,人工智慧的發展,在時間和效率上,都會比人類自身的發展要快的多(除非人類控制人工智慧的發展,始終保持在一個相對間平衡狀態下,但這並不容易)。

而就像人類不會停止自身的進步一樣,人工智慧也不會停留在強人工智慧階段,一旦它們達到了強人工智慧,那麼下一秒就會開始像超人工智慧的目標飛奔過去。像阿西莫夫所嚮往的以人類為代表的“碳文明”與機器人為代表的“矽文明”的共存共生的局面可能發生,但可能只是一段時間而已。

而在實現了超人工智慧之後,它們看待人類,就像人類現在看待動物一樣,有足夠的資本睥睨後者的低能,而屆時,人類也就像動物一樣,不再能理解超人工智慧的世界了。不誇張的說,現階段我們預言的“背叛”(指機械可能會在沒有人為干預的條件下自主採取任何行動),到時候可能就會成為一種自然法則,而人類的社會結構,將有可能會因此而遭到毀滅。

小結
正是這種在當前有限的認知中所能試想出來的悲觀結果,才會使大佬們連番發話號召人們警惕人工智慧,這同時也是作為行業領導者的他們所擁有的責任。

不過換過一面看,也許超人工智慧實現以後,會把人類帶到一個新紀元中去——甚至是再一次進化也不是不可能。只是無論好與壞,人類都不會再是現在這個樣子了。這也就是為什麼有人會說,超人工智慧將會是人類最後一項發明的原因。

                                                                                                                                                                                                                            

0 comments: