人工智慧被圖靈定義束縛,人類可能高估了AI的未來

科技雲報道 發佈 2020-01-09T05:48:25+00:00

​近期,計算機視覺與AI專家FilipPiekniewski發表了一篇《AI凜冬將至》的文章,該文章一經發表隨即引來熱議。

科技雲報導原創。

自深度學習(Deep Learning)技術問世後,許多人都相信這將是帶領我們逐步走入「通用 AI」(General AI)夢想的關鍵,企業領導者也都在演講中談及AI時代將會如何來臨,然而事情真的如此順利嗎?

​近期,計算機視覺與AI專家Filip Piekniewski發表了一篇《AI凜冬將至》的文章,該文章一經發表隨即引來熱議。

該文主要對深度學習的炒作提出了批評,認為這項技術並不具有革命性,而且正面臨發展瓶頸。各大公司對AI的興趣其實正在收斂,人工智慧的又一次凜冬可能要來了。

由「革命」到「進化」

AI未來只是人類腦補的結果

在對AI技術的判斷上,人類再次發揮了自身的想像力。

Piekniewski指出,在ImageNet獲得不錯的解決方案時,許多該領域的知名研究人員都積極的受訪並採用相同的論調錶示:人們正處在一場巨大的革命前面,從現在開始,所有AI發展只會加速。

然而許多年過去了,期待中的加速並未發生,這些受訪的研究人員也不再那麼活躍的鼓吹相同的想法,隨著情緒降溫,他們開始不將深度學習形容為終極演算法,AI相關論文也從「革命」一詞逐漸改變為「進化」。

相較於前者,進化聽起來要溫和且緩慢許多,而這似乎也更為符合 AI 發展的現實情況。

包含OpenAI在內,許多知名研究機構近期都開始變得相對理性,自AlphaGo Zoro問世後,DeepMind也並未再展現出更多令人驚喜的事物,甚至一些論述指出,Google其實不太確定該如何處理DeepMind,因為團隊得出的研究成果明顯不如原先預期的「那麼實際」。

​另外,一些大型科技企業的傑出AI研究人員,都開始從實際操作的研究負責人轉任至協助遊說政府資助的職務上,這種轉變跡象顯示,像Google、Facebook這些公司對AI研究的興趣實際上正在慢慢收斂。

與此同時,深度學習的瓶頸正在顯現,自動駕駛(Self-Driving)技術在現實世界的實際應用便是最明顯的例子,Nvidia、Tesla在發展自動駕駛技術上都遇到了困難,Uber自動駕駛汽車在亞利桑那州則遭遇死亡車禍,這些都從側面展現了AI技術的缺陷。

除了能明顯看出系統設計的問題之外,自動駕駛系統更是花費了很長一段時間,去試圖判斷眼前的物體究竟是什麼,而不是做出最重要、也是邏輯上唯一該做的決策:確保不會碰撞它。

​這與人對危機的處理方式並不相同。儘管人們經常在交通事故後說出當下的判斷標準,比如「我看到前方有行人所以向左轉避開」,但許多心理物理學都曾經提出解釋,人們往往是在當下透過神經系統迅速將其判斷為障礙並採取行動,等一小段時間過後才會意識到發生了什麼。

這種生存機制來源已久,數十億年來都保護著我們的安全,而在駕駛車輛時,人們自然也會用到這樣的原始反應,由於這些反應並非專為駕駛行為而產生,自然也會因為這些反射神經引發一些事故。

然而整體上來說,這種對空間、速度及周遭警覺的原始能力,對於人類安全仍舊有著許多保障。

只是這種能力大多無法用言語來描述,也難以進行測量,這使得研究人員難以對機器進行這方面的系統改良,Nvidia過去所提出的End-to-End方法雖然理論上可行,但從現實一些測試中我們也可知道情況並非這麼簡單。

​神經網絡之父Geoffrey Hinton曾承認,反向傳播法(Back-Propagation)似乎已走入死胡同,相關研究可能得從頭開始展開。

這些發展困境都表明著AI發展的寒冬即將來臨,雖然不太可能準確地預測出發生的時間點,但某些明顯的跡象可以肯定,它將會出現在某個時刻,然而因為外界對於AI的呼聲太過強烈,以至於人們很容易忽略掉這些徵兆。

現實充滿更多不可預測性

習以為常的盲區應該是AI的核心

雖然圖靈為人工智慧定下了最基礎的定義,但如今我們更多地被圖靈的定義給束縛住了。

現實不是預先設定的遊戲,如果說有什麼不同的話,現實是規則不斷變化的遊戲的無限集合,任何時候出現了重大發展,遊戲規則都要重寫,然後所有玩家都得跟著調整否則就會死掉。

相比圖靈,莫拉維克悖論更應該被視為AI發展的核心問題。莫拉維克悖論是由人工智慧和機器人學者所發現的一個和常識相佐的現象。

和傳統假設不同,人類所獨有的高階智慧能力只需要非常少的計算能力,例如推理,但是無意識的技能和直覺卻需要極大的運算能力。

這個理念是由漢斯Ÿ莫拉維克、布魯克斯、馬文Ÿ閔斯基等人於80年代所闡釋。如莫拉維克所寫:「要讓電腦如成人般地下棋是相對容易的,但是要讓電腦有如一歲小孩般的感知和行動能力卻是相當困難甚至是不可能的。」

​如果我們希望解決莫拉維克悖論,就要模仿生物體純粹靠觀察世界來學習的能力,而不是需要標籤的輔助,這個想法可以通過開發對未來事件做出臨時預測的系統來實現,然後通過將其預測與實際情況進行對比來學習。

預測性視覺模型是朝著這個方向邁出的一步,但肯定不是最後一步。

最顯而易見的通常是我們最容易忽略的,也是最為重要的。常識的困難在於它對我們實在是太明顯了,以至於非常難以用語言表達出來進而給數據打上標籤。對於一切「明顯」的東西我們存在著巨大盲點。

因此我們無法教計算機常識,這不僅因為這麼做可能不切實際,但更根本的是我們甚至都沒意識到常識是什麼。只有在我們的機器人做了某件極其愚蠢的事情之後我們才意識到這一點。

現實不是遊戲。如果說有什麼不同的話,現實是規則不斷變化的隨機事件的無限集合。任何時候出現了重大發展,規則都要重寫,然後所有參與者都得跟著調整否則就會死掉。

因此,我們極度需要跳出圖靈框架,從人性和意識的角度去理解「智能」,而不是一味沉浸在代碼、網絡的世界裡,這樣的人工智慧才有未來。

【科技雲報導原創】

微信公眾帳號:科技雲報導

關鍵字: