人工智慧的歷史

人工智慧

前言

簡介

知識表達

知識學習

理論方法

搜尋優化

邏輯推論

神經網路

機率統計

實務應用

專家系統

自然語言

分群分類

程式語言

Prolog

javascript

程式實作

邏輯推論

爬山算法

基因算法

機率學習

交談程式

數字辨識

訊息

相關網站

參考文獻

最新修改

簡體版

English

AI 的程式語言

在程式語言方面,發明適合 AI 使用的語言一直是早期研究者的夢想,1958年John McCarthy 在 Massachusetts Institute of Technology (MIT).發明了 LISP 語言,這為 AI 提供了一個強大的工具,直到今天,許多 AI 研究者仍然認為,LISP 是 AI當中最好用的語言。接著,由於邏輯推論領域的研究越來越強,邏輯推論程式的需求也越來越多。於是,在 1972 年,Alain Colmerauer 發明了 Prolog 語言,成為邏輯式語言當中的先驅與典範,這個語言也是專家系統當中最常被使用的語言,甚至在自然語言處理領域也是主流語言。

電腦下棋

在系統式搜尋方面,深度優先 (DFS)、廣度優先 (BFS) 與最佳優先搜尋 (Best-FS)都是最早期就研究清楚的方法,這些方法表現在電腦下棋、圖形理論與作業研究等領域特別有效。

對於電腦下棋領域,MiniMax 搜尋方式與Alpha-Beta Pruning的修剪策略組合,可以說是最有效的下棋算法。MiniMax搜尋方式會一層一層的,考慮自身與對手的所有可能棋步,以採取最佳的防禦策略。然而,當搜尋的層次加深時,以廣度優先搜尋方式的 MiniMax 會有指數型膨脹的問題。1956年,McCarthy等數組人馬,幾乎在同一時期分別發展出了 Alpha-Beta Pruning 的修剪技巧。

這個方法立刻被Arthur Samuel 於 1959 年最早寫出了一個簡單的下棋程式 。此後,電腦下棋開始吸引了一代接一代的研究者。但是,最大的進步或許已經不在軟體上,由於電腦硬體 18個月就以將近兩倍的速度成長著,硬體速度使得電腦得以進行更多層的MiniMax 的搜尋,這使得程式的能力越來越強,加上修剪法的細緻化修改,以及棋譜的知識庫加入,電腦終於可以與象棋、西洋棋等世界級的高手一決勝負。西元兩千年,IBM 的深藍 對世界西洋棋王Kasparov 的一戰,電腦首度打敗世界西洋棋王。這一戰吸引了全球的目光,其全盤對局甚是可以在維基百科當中查到。

從此之後,MiniMax 與Alpha-Beta Pruning 一直是電腦下棋的主流演算法。直到今天,都無法被其他演算法所取代。而電腦下棋領域,成為少數被 AI 技術攻陷的領域之一。在今天的棋類當中,幾乎只剩圍棋還沒有被電腦攻陷,這是因為圍棋的複雜度,比起象棋和西洋棋而言,更加變化多端,每一步的可能性更多,而且整盤棋的棋步總數更深的緣故。

『邏輯推論』與『自然語言理解』

邏輯推論在早期的 AI 領域當中,吸引了許多研究者的投入,當時的研究者過度樂觀的認為,只要累積了足夠的知識庫,加上適當的邏輯堆論方法,就能讓電腦擁有人類的推理能力,也就相當於讓電腦具有人類的智慧了。然而,後來的歷史發展,卻出乎這些研究者的預料,模擬人類智慧可沒有這麼的簡單。

像是在自然語言理解領域,電腦至今仍然無法看懂報紙上的文章。於是,電腦連基本的閱讀能力都無法達到,又如何能模擬人類的智慧呢?雖然,如在1.1 如上節當中我們看到 Eliza 程式可以成功的騙過許多人,讓人以為電腦真的瞭解了他所說的話,但是進一步分析時,卻會發現這些程式根本沒有真正理解。於是,許多研究者開始研究所謂的深度理解,並且企圖建構出可深度理解自然語言的程式。然而,這些努力卻沒有得到太多的回報,電腦在自然語言理解上仍然處於智障的狀況,建構出能理解人類所寫文章的程式,仍然遙不可及。

然而,在 1980 年左右,這個主題可是紅透半邊天,當時,日本與美國相繼以國家資本投入這類的研究當中,尤其是日本所謂的第五代電腦計畫,更刺激了美國瘋狂的投入這場夢幻式的競賽當中,許多科技公司都幻想著可以利用這樣的技術賺到大錢,於是美國出現了一大堆這類以 AI 為主要技術的公司,人們對 AI 也抱持過度樂觀的期待。然而,長期期待卻無法實現的結果,導致了 AI 產業的泡沫化,尤其是在國防部聘請的專業評估小組,調查報告出爐之後,認為這些 AI 技術在五十年內實用化的可能性微乎其微,這份報告就像戳破國王的新衣一樣,告訴了所有人,國王沒有穿衣服,AI的技術離實用化仍有很長很長的距離,學術界與產業界一同構築的夢想,其實是建築在虛無的幻想上。於是,AI 技術才又回到了保守的道路。

類神經網路

類神經網路的研究可以說是從 1940 年代開始的。1943年,神經生物學家 Warren McCulloch 和數學家 Walter Pitts ,在論文中提出以電路構成簡單類神經網絡模型的構想。1949年 Donald Hebb 開始以數學方法描述神經元的電流傳遞方式,發展出 Hebb’s Rule,其理論稱為 Hebbian Theory 。

1957年 Frank Rosenblatt 於康乃爾大學利用這些理論創造出感知器 (Perceptron) 程式,成為第一個類神經網路的程式。然而,這個程式是使用單層的線性函數形式,這也就是被 Minsky 證明為不能辨識 XOR 函數的那個程式。

然後,早在 1974 年,Paul Werbos 就已經在其哈佛大學的博士論文當中,描述了反傳遞演算法 (Back Propagation Algorithm ) 的理論,但卻一直得不到學術界的青睞 。直到 1986 年,反傳遞演算法被Rumelhart 等人成功的用於語音辨識領域之後 ,學術界才重新發現這個重要的演算法,開始一窩蜂的投入類神經網路的領域當中。

結語

我對 AI 的歷史非常的著迷,這比任何 AI 的相關論文都吸引我。雖然,AI 的技術一直到目前為止都幾乎無法被使用,但是,AI前輩們的努力過程仍然相當吸引人,與其說 AI 前輩告訴我們如何做出人工智慧的程式,不如說是告訴我們這條路的困難性,哪些路行不通,哪些路有繼續研究的價值,我們必須站在這些巨人的肩膀上,才能看得更遠,在 AI 研究這條艱鉅的路上,繼續的走下去。

Facebook

Unless otherwise stated, the content of this page is licensed under Creative Commons Attribution-NonCommercial-ShareAlike 3.0 License