今天,《連線》發表了一篇專訪Geoffrey Hinton的長文。
在這次加拿大G7人工智能會議上的訪談里,Hinton談到了對谷歌軍方合同的“私下”抗議,還提出了對現在AI研究的一些看法,比如:
不要讓AI解釋自己,那簡直是個災難。人類大多數時候都沒法解釋自己。
發展AI需要新型的計算硬件(他指的并不是TPU)。
我們在研究中應該追求“新想法”,不能一味看效果。從長遠來看,一個全新的想法比一個微小的改進更有影響力。
另外,Hinton還說:不,不會再有AI寒冬了。
以下是采訪實錄:
Wired:加拿大***特魯多在G7大會上說,人工智能帶來了一些道德挑戰,對此需要做更多工作,你怎么想?
Hinton:我一直很擔心致命自主武器的濫用。我認為,應該有一個類似于日內瓦公約的東西,像禁止化學武器一樣禁止它們。就算不是每個國家都簽署這個公約,實際上它也會起到像道德旗幟一樣的作用。誰沒簽你是能看到的。
Wired:有一封抗議Google為國防部提供無人機圖像識別服務的公開信,有4500名你的同事簽了名。你簽了嗎?
Hinton:作為一名Google高管,我認為我不應該公開表達對公司的不滿,所以,我私下表達。我沒有簽公開信,而是找(Google聯合創始人)謝爾蓋·布林談了談。他說他對這個事情也不滿,所以,這不是他們的追求。
Wired:Google決定履行完這份合同,但是不會續簽,還發布了一份AI指導方針,其中就包含了不能把這項技術用于武器。
Hinton:我認為Google的選擇是正確的。各種各樣的東西都需要云計算,想弄清底線設在哪確實很難。我對Google設置的底線很滿意,那些原則我認為很有道理。
Wired:在日常場景里,比如在社會服務、醫療等領域用軟件做決策的時候,人工智能也會帶來道德問題。我們應該當心什么?
Hinton:我的專業領域是讓這個技術管用,不是社會政策。這里面確實有一點和我的專業技能相關,就是判斷監管者該不該堅持要求你能解釋AI系統的工作原理。我認為那完全是個災難。
在大多數事情上,人類都不能解釋自己的原理。你招人的時候,是基于那些可以量化的東西來做判斷,再加上各種”直覺”。人們根本不知道自己是怎么做到的。如果你讓人類對自己的決定做出解釋,就相當于逼他們編故事。
神經網絡的問題也一樣。你訓練了一個神經網絡,它學習的是幾十億數字,代表著從訓練數據中提取的知識,輸入一張圖片,它給出正確的決定,比如說這是不是一個行人。但如果你要問“它為什么這么想”……如果圖片里有沒有行人能通過任何簡單的規則來判斷的話,這個問題早就解決了。
Wired:所以,我們怎么會知道什么時候能信任這些系統?
Hinton:應該根據表現來管理它們。你可以用實驗來檢驗有沒有偏見。對于無人車,我認為人們現在已經算接受了,就算不知道一輛無人車怎么做到的,如果它發生的事故比人類司機少,那就是好事。我認為我們要像對人一樣來對待這個問題:看他們表現如何。
△https://arxiv.org/abs/1807.04587
Wired:在你上周發表的一篇論文中,提及應該進一步研究大腦中的學習算法。這是為什么?
Hinton:大腦和現在大多數神經網絡都不一樣。人類大腦有大約100萬億個突觸,而人工神經網絡的權重通常要小1萬倍。大腦使用大量的突觸,從很少的樣本中盡可能多的學習。而深度學習則是利用更少的神經元連接,從大量的樣本中進行學習。
我認為大腦并不關注如何把大量知識壓縮成幾個突觸的連接,而是關注如何使用大量的連接,快速的提取知識。
Wired:那應該如何構建更強大的機器學習系統?
Hinton:我們需要轉向另一種計算機。幸運的是,我這里就有一個。
(Hinton說罷把手伸到包里,掏出一塊耀眼的大芯片。這個芯片是英國初創公司Graphcore的原型產品,這家公司致力于為機器/深度學習算法開發新型處理器。)
△漂亮得不像實力派
大多數用來運行神經網絡的計算機,甚至包括Google的專用硬件,都得使用RAM(來存儲正在使用的程序)。從RAM中獲取神經網絡的權重代價高昂,所以一旦軟件獲得了權重,就會反復使用很多次。想要改變是一個成本巨大的事情。
而在Graphcore芯片上,權重存儲在處理器的緩存而不是RAM中,所以不會被移走。因此某些探索會變得更容易。 比如我們可以搞個一萬億個權重的系統,但是每次訓練只涉及數十億的權重。這種方式更接近大腦。
Wired:AI和機器學習的快速增長,是否也帶來了新的挑戰?
Hinton:現在一個巨大的挑戰是,如果你想發表一篇機器學習論文,有一些條條框框的限制。如果你用的方法,看起來效果沒那么好,那就很難發表。我不認為這能鼓勵人們去思考全新的方法。
現在如果你發送了一個有著全新想法的論文,被接收的可能性非常低,或者會有一些無法理解你想法的初級同行在評審,或者一些看了太多論文的資深評審者,他們都不理解你的論文,并且認為是無稽之談。我認為這非常糟糕。
我們應該追求的,特別是在基礎科學會議上,是一些全新的想法。從長遠來看,一個全新的想法比一個微小的改進更有影響力。出現這個問題的原因,就是資深人士太少,而年輕人太多。
Wired:這會破壞AI領域的進展么?
Hinton:用不了幾年,問題就會自行解決。困難都是暫時的。大公司、大學都已經開始培育更多的人才,大學最終也會聘請更多的教授。
Wired:一些學者警告說,目前的AI熱潮還會再次進入寒冬。
Hinton:不,不會再有AI寒冬了。現在AI都已經在你的手機里了。當年經歷AI寒冬時,人工智能還不是人們日常生活的一部分。而現在AI已經是了。
-
AI
+關注
關注
87文章
31421瀏覽量
269818 -
TPU
+關注
關注
0文章
143瀏覽量
20762
原文標題:Hinton最新專訪:別讓AI解釋自己,AI寒冬不會再來
文章出處:【微信號:worldofai,微信公眾號:worldofai】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論