微博

ECO中文网

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 51|回复: 0
打印 上一主题 下一主题
收起左侧

20191218 不要相信人工智能

[复制链接]
跳转到指定楼层
1
发表于 6 天前 | 只看该作者 回帖奖励 |正序浏览 |阅读模式

马上注册 与译者交流

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
受邀參加| 開放未來
在我們建立贏得信任的系統之前,不要相信人工智能
人工智能的進步掩蓋了透明度的缺失,而透明度對於人工智能的採用至關重要,「重啟人工智能 」一書的合著者Gary Marcus如是說。

2019 年 12 月 18 日
作者:K.N.C.
從炒作的角度來看,人工智能距離摧毀經濟、毀掉所有人的工作還差得很遠--除了建造技術的人工智能科學家,以及為他們服務的咖啡師和瑜伽教練。但是,有一個批評者來自人工智能本身: Gary Marcus。

Marcus 先生的學術背景是心理學和神經科學,而非電腦科學。他樂於戳穿深度學習這一流行的人工智能技術,因為它無法進行抽象化,即使它在模式匹配方面的表現令人印象深刻。然而,他對現況的不安並沒有妨礙他透過自己的 AI 創業公司 Geometric Intelligence 來推動這項技術的發展,他在 2016 年將 Geometric Intelligence 賣給了 Uber。

Marcus 先生認為,如果社會過度相信現今的 AI 技術,那就太愚蠢了,因為這些技術很容易失敗,而且缺乏研究人員所需的透明度,無法瞭解演算法如何得出結論。在經典的統計學中,使用的參數是由人決定的,但在 AI 中,系統本身就能決定。儘管這些技術是有效的,比方說,識別出細胞活檢是癌症,但卻不清楚為什麼會有效。這使得在醫療、航空、土木工程、司法等領域部署人工智能變得棘手。

Marcus 先生在他與 Ernest Davis 合著的最新著作《重啟人工智能》(Pantheon,2019 年)中鋒利地指出了這一點。作為《經濟學人》「開放未來」(Open Future)計畫的一部分,我們向 Marcus 先生請教了為什麼人工智能不能做得更多、如何監管人工智能,以及青少年應該學習什麼才能在未來的工作場所中保持相關性等問題。這篇簡短的訪談出現在書中關於需要在人工智慧中建立可信度的摘錄之後。
* * *

我們信任人工智能嗎?
摘自 Gary Marcus 和 Ernest Davis 所著的《重啟人工智能》(Pantheon,2019)。
神的行為總是像創造他們的人。
-Zora Neale Hurston,《 告訴我的馬
扔人是不好的。
-在 Jennifer Lee 2013 年的迪士尼電影《 冰雪奇緣》中,Anna 給雪巨人棉花糖的忠告
具備常識、能真正瞭解發生了什麼事的機器,遠比只依賴統計數據的機器可靠,並能產生合理的結果。不過,我們還需要先考慮一些其他因素。
值得信賴的人工智慧必須從良好的工程實務開始,這些實務必須由法律與產業標準所規定,而這兩者目前在很大程度上都不存在。到目前為止,太多的人工智慧都是由短期解決方案所構成,這些程式碼可以讓系統立即運作,卻沒有其他領域中常被視為理所當然的重要工程保證。舉例來說,汽車開發過程中的標準壓力測試 (例如碰撞測試與氣候挑戰),在 AI 中卻很少見。AI 可以從其他工程師的工作方式中學到很多。
舉例來說,在安全臨界的情況下,優秀的工程師總是會將結構與裝置設計得比計算結果所顯示的最低強度還要強。如果工程師預期電梯的載重絕不會超過半噸,他們就會確保電梯實際上可以承載五噸的重量。軟體工程師在建置網站時,如果預期每天有一千萬名訪客,就會儘量確保伺服器可以處理五千萬名訪客,以防萬一突然出現大量訪客。
如果沒有預留足夠的餘量,往往會造成災難;著名的挑戰者號太空梭的 O 形環在溫暖天氣下仍能運作,但在寒冷天氣下發射時卻失靈,結果造成災難性的後果。如果我們估計,無人駕駛汽車的行人偵測器若能達到 99.9999% 的正確率就已經夠好了,那麼我們應該再加上一位小數點,以 99.99999% 的正確率為目標。
目前來說,人工智能領域還無法設計出能夠做到這一點的機器學習系統。他們甚至無法像汽車零件或飛機製造商必須做的那樣,設計出保證特定系統在一定公差範圍內運作的程序。(試想一下,汽車引擎製造商只說他們的引擎 95% 的時間都能正常運作,卻完全不說引擎能安全運作的溫度)。
人工智慧的假設通常是,如果它能經常運作到有用的程度,那就已經很好了,但當利害關係重大時,這種隨意的態度就不太適當了。如果照片中人物的自動標籤結果只有 90% 的可靠度(如果只是針對人們在 Instagram 上張貼的個人照片),那也沒關係,但當警方開始用它在監控照片中找出嫌犯時,它最好能可靠得多。Google 搜尋可能不需要壓力測試,但無人駕駛汽車一定需要。
好的工程師也會設計失敗。他們意識到他們無法詳細預測所有可能出錯的方式,因此他們加入了備份系統,以便在意外發生時可以調用。自行車有前煞車和後煞車,部分原因是為了提供備援;如果其中一個煞車失靈,第二個煞車仍能讓自行車停下來。太空梭上有五台相同的電腦,互相執行診斷,並在發生故障時作為備援;通常四台在運轉,第五台在待命,但只要五台中任何一台仍在運轉,太空梭就能運作。
同樣地,無人駕駛汽車系統不應該只使用攝影機,還應該使用雷達(使用雷射測量距離的裝置),以提供部分備援。Elon Musk 聲稱他的自動駕駛系統不需要 LIDAR 已經很多年了;從工程學的角度來看,考慮到目前機器視覺系統的限制,這似乎既冒險又令人驚訝。(大多數主要競爭對手都有使用)。
優秀的工程師總是會在任何關鍵任務中加入防故障措施,也就是當出現嚴重問題時,防止災難發生的最後方法。[...]優秀的工程師也知道,凡事都有其時機與用武之地;在設計新產品時,徹底創新的設計實驗可能會改變遊戲規則,但安全關鍵應用通常應該仰賴已經過更徹底測試的舊技術。管理電網的 AI 系統不適合首次嘗試某些熱門研究生的最新演算法。[...]
挑戰並不止於此。新技術一經部署,就必須加以維護;而優秀的工程師會事先設計好系統,使其容易維護。汽車引擎必須可以維修;作業系統必須有安裝更新的方法。對於人工智慧來說,這不亞於任何其他領域。[...]
最後,人工智慧科學家必須積極地盡力避免建立有可能失控的系統。舉例來說,由於後果可能難以預料,因此在研究創造可以設計與製造其他機器人的機器人時,必須格外謹慎,並在嚴密監督下進行。正如我們常見的入侵性自然生物一樣,如果一種生物能夠自我繁殖,而又沒有任何東西可以阻止它,那麼它的數量就會呈指數級增長。
為機器人敞開大門,讓他們以未知的方式改變和改進自己,會讓我們面臨未知的危險。同樣地,至少在目前,我們還沒有很好的方法來預測機器人的完全自我意識可能會導致什麼。人工智慧就像任何科技一樣,都有可能造成意想不到的後果,而且可能更嚴重,我們打開潘朵拉魔盒的範圍越大,所承擔的風險也就越大。在目前的制度下,我們看到的風險不多,但也更沒有理由輕率地假設我們可能發明的任何東西都可以處理,從而引誘命運。
____________
節錄自 Gary Marcus 和 Ernest Davis 所著的《重啟 AI:建立值得信賴的人工智慧》(Rebooting AI: Building Artificial Intelligence We Can Trust)。版權所有 © 2019 by Gary Marcus。保留所有權利。未經出版商 Pantheon(Penguin Random House 的分公司)書面許可,不得複製或轉載本節錄的任何部分。
* * *
專訪 Gary Marcus
經濟學人 : 你對可信賴的人工智慧的呼籲,似乎需要新的規則與機構,類似航空業的 IATA 與 FAA,或是電信業的 ITU 與 FCC,這些縮寫基本上代表著國家與國際規模的大型機構官僚體系。這是您想要的嗎?
我們絕對需要一些東西。舉例來說,目前對於無人駕駛汽車公司可能推出的產品幾乎沒有任何規範;事後他們可能會被起訴,但基本上他們可以隨心所欲地推出任何產品。藥物的管制則嚴格得多,需要經過冗長的試驗過程等等。無人駕駛汽車最終可能拯救許多生命,但正如杜克大學的 Missy Cummings 指出,在技術成熟之前,我們必須像對待新藥一樣謹慎。
長遠來說,我們也必須強制規定一些與生俱來的價值觀。舉例來說,家用機器人 Rosie the Robot 在出廠之前,就必須認識到人類生命的價值。我們不能讓價值觀隨機而動,取決於某個系統在世界上碰巧遇到了什麼,以及它所謂的「訓練資料庫」是什麼。
經濟學人》: 為什麼在我們的 AI 系統中建立因果關係和反現實如此困難?
目前的系統太膚淺了。領先的機制(例如深度學習)可以從巨量的資料集中分辨出一種又一種的相關性,但層次非常淺。深度學習系統可能只注意到大象皺紋的紋理,就能學會辨識大象,但卻忽略了軀幹的重要性。我們還沒想出如何建立既能從大規模資料庫學習(就像深度學習所做的),又能以早期「古典人工智能」方法所尋求的方式來表達豐富、清晰的知識的系統。
如果您不瞭解什麼是動物或什麼是樹幹,您就無法推理大象可能會做什麼。將圖像歸類與推理如果在時代廣場放任一隻憤怒的大象會發生什麼事並不是一回事。人類的思考具有多樣性,光靠相關性是無法捕捉到的。
經濟學人: 最複雜、表現最好的人工智能無法解釋它如何得出結論,這是否應該讓我們拒絕讓它用於關鍵用途(醫療、電網等)?還是只要我們能驗證它運作良好,就應該容忍這種情況?
我們不該因為目前的人工智慧無法解釋其答案而對其持懷疑態度,而是因為它根本就不夠可靠。
而驗證其實是其中的關鍵:我們還沒有完善的工具來驗證機器學習;相反地,我們大多數採用的都是更接近 「對症下藥 」的方法:我們在許多情況下嘗試一些東西,如果它在那裡運作良好,我們就希望可以開始運行,但我們通常無法保證在一般情況下運作良好的東西也能在特殊情況下運作良好。自動駕駛車輛可能在高速公路上行得通,但在暴風雪下擁擠的城市街道上卻無法做出正確的決策;醫療診斷系統可能對常見疾病運作良好,但對罕見疾病卻經常漏診。
在某種程度上,尋找「可解釋的 AI」是對這個問題的一種繃帶:如果你無法讓你的軟體完美無瑕,你至少想知道它為什麼會犯錯,以便進行除錯。除非我們能更聰明地建立複雜的認知軟體,以因應現實世界的複雜性與多變性,否則要求可解釋性以方便除錯,可能是我們能做的最好方法。
經濟學人 : 工作啟示錄,有還是沒有?國家與企業該如何因應?
下個十年,不太重要;下個世紀:巨大衝擊。
關於未來十年,需要記住的是,目前的人工智能甚至無法閱讀,也無法推理。四年前,機器學習先驅 Geoffrey Hinton 表示,放射科醫師將在五年或十年內失去工作;放射科醫師真的很害怕,很多人都不再學習放射科。到目前為止呢?沒有一位放射科醫師真的被取代。放射科不只是看影像(深度學習很擅長),還需要閱讀(病人病史)和推理(如何將文字和影像放在一起),而機器還無法可靠地做到這一點。我們現在所擁有的是可以幫助放射科醫師的新工具,而不是盒裝放射科醫師。
儘管如此,更強大的人工智慧終究會出現,屆時我認為我們將無可避免地邁向類似全民基本收入的目標,以及一種新的生活方式,讓大多數人透過創造性的工作而非就業找到滿足感。
經濟學人 : 您認為有什麼事情是人工智能永遠無法做到,而人類永遠可以做得很好,進而讓人類在社會中佔有優勢?
我不會指望它。套用已故音樂家 Prince 的說法,永遠不會是一段很長的時間。人腦是目前地球上最靈活的思考機器,但(正如我在早前的著作《Kluge》中所解釋的),距離完美還有很長的路要走;沒有任何物理定律可以阻止我們製造出擁有和人類心智一樣強大的心智的機器,也沒有任何物理定律可以阻止我們製造出擁有比生物學至今所開發的任何東西更強大、更可靠的心智的機器。
另一方面,我並不預見機器會試圖取得超越我們的「優勢」;它們之所以會這樣做,是因為它們遵循引導它們的程式。除非有根本性的改變,否則即使機器在純粹的認知能力上超越我們,我們仍然會是主宰。計算機的算術能力比人強,但到目前為止,計算機還沒有表現出任何接管社會的興趣。
經濟學人 : 您會告訴 15 歲的孩子要學些什麼,才能在未來的職場中立足?
學習如何學習。創意、即時學習和批判性思考能力將是最重要的。您的孫子或許會生活在一個沒有工作的世界,但您不會;相反,您會生活在一個快速變化的世界。無論您選擇做什麼,學習編碼都將是非常有價值的技能,即使您不以此為生,因為當我們的社會適應不斷增長的機器力量時,瞭解機器的基本邏輯將是在社會中茁壯成長的關鍵。
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 分享分享 分享淘帖 顶 踩
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|小黑屋|手机版|网站地图|关于我们|ECO中文网 ( 京ICP备06039041号  

GMT+8, 2025-2-5 18:53 , Processed in 0.069097 second(s), 20 queries .

Powered by Discuz! X3.3

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表