LEMMiNO 人工智慧 中文字幕cc Artificial Intelligence
來源:維基百科
人工智慧(英語:Artificial Intelligence, AI)亦稱機器智慧,是指由人製造出來的機器所表現出來的智慧。通常人工智慧是指透過普通電腦實現的智慧。該詞同時也指研究這樣的智慧系統是否能夠實現,以及如何實現的科學領域。
一般教材中的定義領域是「智慧主體(intelligent agent)的研究與設計」,智慧主體是指一個可以觀察周遭環境,並作出行動以達致目標的系統。約翰·麥卡錫於1955年的定義是「製造智慧機器的科學與工程。」
約翰·麥卡錫 |
人工智慧的研究是高度技術性和專業的,各分支領域都是深入且各不相通的,因而涉及範圍極廣。
人工智慧的研究可以分為幾個技術問題。其分支領域主要集中在解決具體問題,其中之一是,如何使用各種不同的工具完成特定的應用程式。AI的核心問題包括推理、知識、規劃、學習、交流、感知、移動和操作物體的能力等。
強人工智慧目前仍然是該領域的長遠目標。目前比較流行的方法包括統計方法,計算智慧和傳統意義的AI。目前有大量的工具應用了人工智慧,其中包括搜尋和數學最佳化、邏輯推演。而基於仿生學、認知心理學,以及基於機率論和經濟學的演算法等等,也在逐步探索當中。
The evolution of Artificial Intelligence (AI) – AI's coming of age ... |
概論
人工智慧的定義可以分為兩部分,即「人工」和「智慧」。「人工」比較好理解,爭議性也不大。有時我們會要考慮什麼是人力所能及製造的,或者人自身的智慧程度,有沒有高到可以創造人工智慧的地步,等等。但總括來說,「人工系統」就是通常意義下的人工系統。
關於什麼是「智慧」,就問題多多了。這涉及到其它諸如意識(consciousness)、自我(self)、心靈(mind),包括無意識的精神(unconscious mind)等等問題。人唯一瞭解的智慧是人本身的智慧,這是普遍認同的觀點。
但是我們對我們自身智慧的理解都非常有限,對構成人的智慧必要元素的瞭解也很有限,所以就很難定義什麼是「人工」製造的「智慧」了。因此人工智慧的研究往往涉及對人智慧本身的研究。其它關於動物或其它人造系統的智慧也普遍被認為是人工智慧相關的研究課題。
Nothing on Imgur makes me happier than Boston Dynamics gifs ... |
發展史
研究課題
目前人工智慧的研究方向,已經被分成幾個子領域,研究人員希望一個人工智慧系統,應該具有某些特定能力,以下將這些能力列出並說明。
演繹、推理和解決問題
早期的人工智慧研究人員,直接模仿人類進行逐步的推理,就像是玩棋盤遊戲,或進行邏輯推理時,人類的思考模式。到了1980和1990年代,利用機率和經濟學上的概念,人工智慧研究還發展了非常成功的方法,處理不確定或不完整的資訊。
對於困難的問題,有可能需要大量的運算資源,也就是發生了「可能組合爆增」:當問題超過一定的規模時,電腦會需要天文數量級的記憶體或是運算時間。尋找更有效的演算法,是優先的人工智慧研究專案。
人類解決問題的模式通常是用最快捷、直觀的判斷,而不是有意識的、一步一步的推導,早期人工智慧研究通常使用逐步推導的方式。
人工智慧研究已經於這種「次表征性的」解決問題方法取得進展:實體化Agent研究強調感知運動的重要性。神經網路研究,試圖以模擬人類和動物的大腦結構,重現這種技能。
知識表示法
An ontology represents knowledge as a set of concepts within a domain and the relationships between those concepts.
人工智慧主要目標為儲存知識,讓程式能夠處理,達到人類的智慧。目前這個領域仍然沒有一個完美的答案。
規劃
A hierarchical control system is a form of control system in which a set of devices and governing software is arranged in a hierarchy.
智慧Agent必須能夠制訂目標和實現這些目標。他們需要一種方法,來建立一個可預測的世界模型(將整個世界狀態用數學模型表現出來,並能預測它們的行為,將如何改變這個世界),這樣就可以選擇功效最大的行為。
在傳統的規劃問題中,智慧Agent被假定它是世界中唯一具有影響力的,所以它要做出什麼行為是已經確定的。但是,如果事實並非如此,它必須定期檢查世界模型的狀態,是否和自己的預測相符合。如果不符合,它必須改變它的計劃。
JUXT Blog: Machine Learning With Clojure |
學習
機器學習的主要目的是為了,從使用者和輸入資料等處獲得知識,從而可以幫助解決更多問題、減少錯誤,提高解決問題的效率。對於人工智慧來說,機器學習從一開始就很重要。
1956年,在最初的達特茅斯夏季會議上,雷蒙德索洛莫諾夫寫了一篇關於不監視的機率性機器學習:一個歸納推理的機器。
Natural Language Processing(NLP) for Dummies!! – Abhishek Jha – Medium |
自然語言處理
運動和控制
Computer Vision GIFs - Find & Share on GIPHY |
知覺
社交
Kismet,一個具有表情等社交能力的機器人
情感和社交技能對於一個智慧agent是很重要的。首先,透過了解他們的動機和情感狀態,代理人能夠預測別人的行動(這涉及要素博弈論、決策理論,以及能夠塑造人的情感和情緒感知能力檢測)。此外,為了良好的人機互動,智慧代理人也需要表現出情緒來。至少它必須出現禮貌地和人類打交道。至少,它本身應該有正常的情緒。
創造力
在手動語言轉換規則中檢測到錯誤">多元智慧
上述許多問題被認為是人工智慧完整性:為了解決其中一個問題,你必須解決全部的問題。即使一個簡單和特定的任務,如機器翻譯,要求機器按照作者的論點(推理),知道什麼是被人談論(知識),忠實地再現作者的意圖(情感計算)。因此,機器翻譯被認為是具有人工智慧完整性:它可能需要強人工智慧,就像是人類一樣。
倫理管理
史蒂芬·霍金、比爾蓋茲、馬斯克、 Jaan Tallinn 以及 Nick Bostrom 等人,都對於人工智慧技術的未來,公開表示憂心,人工智慧若在許多方面超越人類智慧水平的智慧、不斷更新、自我提升,進而取得控制管理權,人類是否有足夠的能力,及時停止人工智慧領域的「軍備競賽」,能否保有最高掌控權,現有事實是:機器常失控導致人員傷亡,這樣的情況是否會更加擴大規模出現,歷史顯然無法給出可靠的樂觀答案。
特斯拉電動車馬斯克(Elon Musk),在麻省理工學院(MIT)航空航太部門百年紀念研討會上,稱人工智慧是「召喚惡魔」行為,英國發明家Clive Sinclair認為一旦開始製造抵抗人類和超越人類的智慧機器,人類可能很難生存,蓋茲同意馬斯克和其它人所言,且不知道為何有些人不擔憂這個問題。
科技進步,人工智慧科技產生「自主武器」軍備競賽已悄悄展開,英國、以色列與挪威,都已佈署自主飛彈與無人操控的無人機,具「射後不理」(fire-and-forget)能力的飛彈,多枚飛彈還可互相溝通,分享找到攻擊目標。
這些武器還未被大量投入,但很快就會出現在戰場上,且並非使用人類所設計的程式,而是完全利用機器自行決策。 霍金等人在英國獨立報發表文章警告,未來人工智慧可能會比人類金融市場、科學家、人類領袖更能操縱人心、甚至研發出人們無法理解的武器。
專家恐發展到無法控制的局面,援引聯合國禁止研發某些特定武器的「特定常規武器公約」加以限制。新南威爾斯大學(New South Wales)人工智慧的沃爾什(Toby Walsh)教授認為這是一種欺騙,因為機器無區別戰敵和平民的技術。
The robot to carry bricks was amazing, but cannot replace human ... |
經濟衝擊
據CNN財經網數位媒體未來學家,兼Webbmedia集團創始人艾米·韋伯(Amy Webb);美國線上...等紛紛預測一些即將被機器人取代的職業,日本野村總合研究所,也與英國牛津大學的研究學者共同調查指出,10至20年後,日本有49%的職業(235種職業)可能會被機械和人工智慧取代而消失,直接影響約達2500萬人。
例如:超市店員、一般事務員、計程車司機、收費站營運商和收銀員、市場行銷人員、客服人員、製造業工人、金融中間人和分析師、新聞記者、電話公司職員、麻醉師、士兵和保安、律師、醫生、軟體開發者和操盤手、股票交易員等等高薪酬的腦力職業將最先受到衝擊。
2017年6月份馬雲在美國底特律舉行「鏈結世界」(Gateway 17)產業大會,會上提出人工智慧可能導致第三次世界大戰,因為前兩次產業革命都導致兩次大戰,戰爭遠因並非這些創新發明本身,而是發明對社會上許多人的生活方式,衝擊處理不當,新科技在社會上產生新工作也取代舊工作,產生了新的輸家和贏家,若是輸家的人數太多,將造成一股社會不穩的能量,而這股能量被有心人利用可能導致各種事件。
他認為各國應該強制訂規定,AI機器只能用於人類不能做的工作,避免短時間大量人類,被取代的失業大潮,但馬雲沒有提出這種世界性規定,將如何實現並確保遵守的細節方案。
Elon Musk Says AI Could Lead to World War III – Geek |
資料科學和人工智慧被哈佛商業評論稱為《二十一世紀最Sexy的職業》,人才只能需求量大,鼓勵了不少大學諸如柏克萊大學專門成立資料科學系。矽谷和紐約為主的《The Data Incubator》公司,2012年成立,焦點是資料科學,巨量資料,和人工智慧企業培訓,提供國際巨量資料培訓服務。
強人工智慧和弱人工智慧
但是這個定義似乎忽略了強人工智慧的可能性。另一個定義指人工智慧是人造機器所表現出來的智慧。總體來講,目前對人工智慧的定義大多可劃分為四類,即機器「像人一樣思考」、「像人一樣行動」、「理性地思考」和「理性地行動」。這裡「行動」應廣義地理解為採取行動,或制訂行動的決策,而不是肢體動作。
強人工智慧
‧類人的人工智慧,即機器的思考和推理就像人的思維一樣。
‧非類人的人工智慧,即機器產生了和人完全不一樣的知覺和意識,使用和人完全不一樣的推理方式。
弱人工智慧
弱人工智慧是對比強人工智慧才出現的,因為人工智慧的研究一度處於停滯不前的狀態下,直到類神經網路有了強大的運算能力加以模擬後,才開始改變並大幅超前。但人工智慧研究者不一定同意弱人工智慧,也不一定在乎或者了解強人工智慧和弱人工智慧的內容與差別,對定義爭論不休。
就現下的人工智慧研究領域來看,研究者已大量造出看起來像是智慧的機器,取得相當豐碩的理論上和實質上的成果,如2009年康乃爾大學教授Hod Lipson 和其博士研究生Michael Schmidt 研發出的 Eureqa電腦程式,只要給予一些資料,這電腦程式,自己只用幾十個小時計算,就推論出牛頓花費多年研究才發現的牛頓力學公式。
等於只用幾十個小時,就自己重新發現牛頓力學公式,這電腦程式也能用來研究,很多其他領域的科學問題上。這些所謂的弱人工智慧在神經網路發展下,已經有巨大進步,但對於要如何整合成強人工智慧,現在還沒有明確定論。
What is Artificial General Intelligence (AGI)? - YouTube |
對強人工智慧的哲學爭論
「強人工智慧」一詞最初是約翰·羅傑斯·希爾勒針對電腦和其它資訊處理機器創造的,其定義為:
「強人工智慧觀點認為電腦不僅是用來研究人的思維的一種工具;相反,只要運行適當的程式,電腦本身就是有思維的。」(J Searle in Minds Brains and Programs. The Behavioral and Brain Sciences, vol. 3, 1980)
他舉了個中文房間的例子來說明,如果機器僅僅是轉換資料,而資料本身是對某些事情的一種編碼表現,那麼在不理解這一編碼,和這實際事情之間的對應關係的前提下,機器不可能對其處理的資料有任何理解。基於這一論點,希爾勒認為即使有機器通過了圖靈測試,也不一定說明機器就真的像人一樣有思維和意識。
也有哲學家持不同的觀點。丹尼爾·丹尼特在其著作《意識的解釋》(Consciousness Explained)裡認為,人也不過是一台有靈魂的機器而已,為什麼我們認為:「人可以有智慧,而普通機器就不能」呢?他認為像上述的資料轉換機器是有可能有思維和意識的。
Opportunities in Artificial Intelligence |
有的哲學家認為如果弱人工智慧是可實現的,那麼強人工智慧也是可實現的。比如西蒙·布萊克本(Simon Blackburn)在其哲學入門教材Think裡說道,一個人的看起來是「智慧」的行動,並不能真正說明這個人就真的是智慧的。
我永遠不可能知道另一個人,是否真的像我一樣是智慧的,還是說她/他僅僅是看起來是智慧的。基於這個論點,既然弱人工智慧認為,可以令機器看起來像是智慧的,那就不能完全否定這機器是真的有智慧的。布萊克本認為這是一個主觀認定的問題。
需要指出的是,弱人工智慧並非和強人工智慧完全對立,也就是說,即使強人工智慧是可能的,弱人工智慧仍然是有意義的。至少,今日的電腦能做的事,像算術運算等,在一百多年前是被認為很需要智慧的。並且,即使強人工智慧被證明為可能的,也不代表強人工智慧必定能被研製出來。
Artificial Intelligence: Weak AI vs. Strong AI |
研究方法
目前沒有統一的原理或範式指導人工智慧研究。許多問題上研究者都存在爭論。
其中幾個長久以來仍沒有結論的問題是:是否應從心理或神經方面模擬人工智慧?或者像鳥類生物學對於航空工程一樣,人類生物學對於人工智慧研究是沒有關係的?智慧行為能否用簡單的原則(如邏輯或最佳化)來描述?還是必須解決大量完全無關的問題?
智慧是否可以使用高階符號表達,如詞和想法?還是需要「子符號」的處理?[38] 約翰·豪格蘭德(John Haugeland)提出了GOFAI(出色的老式人工智慧)的概念,也提議人工智慧應歸類為synthetic intelligence,這個概念後來被某些非GOFAI研究者採納。
Predicting 2017: The Rise of Synthetic Intelligence |
控制論與大腦模擬
20世紀40年代到50年代,許多研究者探索神經學、資訊理論及控制論之間的聯繫。其中還造出一些使用電子網路構造的初步智慧,如格雷·華特(W. Grey Walter)的烏龜(turtle)和約翰霍普金斯野獸(Johns Hopkins Beast)。
這些研究者還經常在普林斯頓大學和英國的Ratio Club舉行技術協會會議。直到1960,大部分人已經放棄這個方法,儘管在80年代再次提出這些原理。
符號處理
What does GOFAI mean? - Definition of GOFAI - GOFAI stands for ... |
約翰·豪格蘭德(John Haugeland)稱這些方法為GOFAI(出色的老式人工智慧)。60年代,符號方法在小型證明程式上模擬高階思考有很大的成就。
認知模擬:經濟學家赫伯特·西蒙和艾倫·紐厄爾研究人類問題解決能力和嘗試將其形式化,同時他們為人工智慧的基本原理打下基礎,如認知科學、運籌學和經營科學。他們的研究團隊使用心理學實驗的結果,開發模擬人類解決問題方法的程式。這方法一直在卡內基梅隆大學沿襲下來,並在80年代於Soar發展到高峰。
基於邏輯:不像艾倫·紐厄爾和赫伯特·西蒙,約翰·麥卡錫認為機器不需要模擬人類的思想,而應嘗試找到抽象推理和解決問題的本質,不管人們是否使用同樣的演算法。他在史丹佛大學的實驗室致力於使用形式化邏輯解決多種問題,包括知識表示,智慧規劃和機器學習。致力於邏輯方法的還有愛丁堡大學,而促成歐洲的其他地方開發程式語言Prolog和邏輯編程科學。
「反邏輯」: 史丹佛大學的研究者 (如馬文·閔斯基和西摩爾·派普特)發現要解決電腦視覺和自然語言處理的困難問題,需要專門的方案:他們主張不存在簡單和通用原理(如邏輯)能夠達到所有的智慧行為。羅傑·單克(Roger Schank)描述他們的「反邏輯」方法為「scruffy」。常識知識庫(如道格拉斯·萊納特的Cyc)就是「scruffy」AI的例子,因為他們必須人工一次編寫一個複雜的概念。
基於知識:大約在1970年出現大容量記憶體電腦,研究者分別以三個方法開始把知識構造成應用軟體。這場「知識革命」促成專家系統的開發與計劃,這是第一個成功的人工智慧軟體形式。「知識革命」同時讓人們意識到許多簡單的人工智慧軟體可能需要大量的知識。
DeepMind's AI is teaching itself parkour, and the results are ... |
子符號方法
1980年代符號人工智慧停滯不前,很多人認為符號系統永遠不可能模仿人類所有的認知過程,特別是感知、機器人、機器學習和模式識別。很多研究者開始關注子符號方法解決特定的人工智慧問題。
自下而上、介面agent、嵌入環境(機器人)、行為主義、新式AI:機器人領域相關的研究者,如羅德尼·布魯克斯(Rodney Brooks),否定符號人工智慧而專注於機器人移動,和求生等基本的工程問題。
他們的工作再次關注早期控制論研究者的觀點,同時提出了在人工智慧中使用控制理論。這與認知科學領域中的表征感知論點是一致的:更高的智慧需要個體的表征(如移動,感知和形象)。
Neural Networks GIFs - Find & Share on GIPHY |
統計學方法
1990年代,人工智慧研究發展出複雜的數學工具來解決特定的分支問題。這些工具是真正的科學方法,即這些方法的結果是可測量的和可驗證的,同時也是近期人工智慧成功的原因。共用的數學語言也允許已有學科的合作(如數學,經濟或運籌學)。Stuart J. Russell和Peter Norvig指出這些進步不亞於「革命」和「neats的成功」。有人批評這些技術太專注於特定的問題,而沒有考慮長遠的強人工智慧目標。
整合方法
智慧agent範式:智慧agent是一個會感知環境,並作出行動以達致目標的系統。最簡單的智慧agent是那些可以解決特定問題的程式。更複雜的agent包括人類和人類組織(如公司)。
這些範式可以讓研究者研究單獨的問題和找出有用且可驗證的方案,而不需考慮單一的方法。一個解決特定問題的agent可以使用任何可行的方法-一些agent用符號方法和邏輯方法,一些則是子符號神經網路或其他新的方法。
範式同時也給研究者提供一個與其他領域溝通的共同語言--如決策論和經濟學(也使用abstract agents的概念)。1990年代智慧agent範式被廣泛接受。
Artificial Neural Network GIFs - Find & Share on GIPHY |
agent體系結構和認知體系結構:研究者設計出一些系統來處理多agent系統中智慧agent之間的相互作用。一個系統中包含符號和子符號部分的系統稱為混合智慧系統,而對這種系統的研究則是人工智慧系統整合。分級控制系統則給反應級別的子符號AI和最高階別的傳統符號AI提供橋樑,同時放寬了規劃和世界建模的時間。
實際應用
學科範疇
person-of-interest-opening | Tumblr |
涉及學科
‧智慧犯罪
研究範疇
‧自然語言處理(NLP; Natural Language Processing)
‧知識表現(Knowledge Representation)
‧智慧搜尋(Intelligent Search)
‧推理
‧規劃(Planning)
‧機器學習(Machine Learning)
‧增強式學習(Reinforcement Learning)
‧知識獲取
‧感知問題
‧模式辨識
‧軟計算(Soft Computing)
‧人工生命(Artificial Life)
‧人工神經網路(Artificial Neural Network)
‧複雜系統
‧資料挖掘(Data Mining)
‧模糊控制
應用領域
沒有留言:
張貼留言