從虛擬助手到巨大的商業(yè)效益,人工智能正在重塑信息時代,作為著名的人工智能先驅(qū)者之一,Yann LeCun又是怎么看待這一領域的發(fā)展、近期的變化和潛力的呢?
20世紀80年代中期,人工智能的研究陷入了完全停滯的狀態(tài)。首先,計算機缺乏將事情促成的處理能力,與現(xiàn)代智能手機相比,軟盤驅(qū)動設備在先進程度上相形見絀,直到1989年,計算機芯片才能夠容納100萬個元件,相比之下,現(xiàn)代的高端計算機芯片則能夠容納80億個元件。
另一個障礙也阻礙了人工智能的成形,1984年,美國人工智能協(xié)會召開了一次重大會議,行業(yè)先驅(qū)馬文·明斯基(Marvin Minsky)在會上警告商界,投資者對人工智能的熱情最終將會變成大失所望,果然,人工智能領域的投資開始劇降。
那時候,像Yann LeCun這樣的夢想家選擇了不去過多關注那些負面的東西,這是一件好事,當這位法國人加入位于新澤西的AT&T貝爾實驗室適應性系統(tǒng)研究部門時,他還不到30歲,在那里,他對人工智能充滿著熱情。在貝爾實驗室,LeCun開發(fā)了許多新的機器學習方法,包括模仿動物視覺皮層的卷積神經(jīng)網(wǎng)絡,LeCun的研究也促進了圖像和視頻識別以及自然語言處理的發(fā)展。
“整個人工智能背景下的統(tǒng)計學習概念在1960年代末似乎消失不見了。”LeCun回憶道,“人們或多或少拋棄了它,然后在80年代末,神經(jīng)網(wǎng)絡又重新成為人們關注的焦點。因此,當訓練多層神經(jīng)網(wǎng)絡的學習算法在80年代中期出現(xiàn)時,它引起了人們的興趣。”
在捕捉這場革命的過程中,LeCun一直都極其謙遜,甚至謙遜過頭了,他的發(fā)現(xiàn)創(chuàng)造了歷史,但他卻很少提及自己的名字或成就,他不會自視非凡,事實上,他的個人網(wǎng)站上有一整個區(qū)域都是關于雙關語的,其中有這樣的自我告誡:“禁止酷刑的日內(nèi)瓦公約以及禁止施加殘酷和非常懲罰的美國憲法,禁止我連續(xù)寫出三個以上兇殘狠毒的雙關語。”
LeCun也不愿滿足于他在計算機科學上取得的任何應得的榮譽,如今,他擔任Facebook的首席人工智能科學家,在那里他孜孜不倦地努力實現(xiàn)新的突破,而今天,他帶領我們進行一次特權(quán)之旅——比坐在前排看明星表演還要過癮,因為他就是這場秀的明星主角——洞悉人工智能的發(fā)展、近期的變化和潛力。
關于Yann LeCun,他在人工智能研究領域,Yann LeCun、Geoffrey Hinton 和 Yoshua Bengio一直被公認為深度學習三巨頭,他是計算機科學家,被譽為“卷積網(wǎng)絡之父”,為卷積神經(jīng)網(wǎng)絡(CNN,Convolutional Neural Networks)和圖像識別領域做出了重要貢獻,以手寫字體識別、圖像壓縮和人工智能硬件等主題發(fā)表過190多份論文,研發(fā)了很多關于深度學習的項目,并且擁有14項相關的美國專利。
目前,Yann LeCun是Facebook人工智能研究院院長,紐約大學的 Silver 教授,隸屬于紐約大學數(shù)據(jù)科學中心、Courant 數(shù)學科學研究所、神經(jīng)科學中心和電氣與計算機工程系。加盟Facebook之前,Lecun已在貝爾實驗室工作超過20年,期間他開發(fā)了一套能夠識別手寫數(shù)字的系統(tǒng),叫作LeNet,用到了卷積神經(jīng)網(wǎng)絡,已開源。他在 1983 年在巴黎 ESIEE 獲得電子工程學位,1987 年在 Université P&M Curie 獲得計算機科學博士學位。在完成了多倫多大學的博士后研究之后,他在 1988 年加入了 AT&T 貝爾實驗室(AT&T Bell Laboratories /Holmdel, NJ),在 1996 年成為 AT&T Labs-Research 的圖像處理研究部門主管。2003 年,他加入紐約大學獲得教授任職,并在 NEC 研究所呆過短暫一段時間。2012 年他成為紐約大學數(shù)據(jù)科學中心的創(chuàng)辦主任。2013 年末,他成為 Facebook 的人工智能研究中心(FAIR)負責人,并仍保持在 NYU 中兼職教學。
“人工智能”的開端
作為一個研究人工智能歷史的學生,LeCun可以一個不漏地說出該領域的里程碑事件:始于1956年夏天在達特茅斯舉行的一次頭腦風暴會議,“人工智能”一詞就是在那次會議上被創(chuàng)造出來的。僅僅一年之后,弗蘭克·羅森布拉特(Frank Rosenblatt)在康奈爾航空實驗室發(fā)明了感知器。第一個實現(xiàn)版本是Mark 1 Perceptron感知器,那是一個巨大的矩形機器,包含400個隨機地連接到簡單的圖形檢測器的光電池,以及一個可訓練分類器。
“它是第一個能夠?qū)W會以一種不平凡的方式識別簡單模式的神經(jīng)網(wǎng)絡。”LeCun說,“你可以用它們來進行簡單的圖像識別,但不能識別照片中的物體,也不能進行任何推理或規(guī)劃。”
十年以前,模式識別系統(tǒng)一直都需要人類完成大量繁重的工作才能夠識別自然圖像中的物體。“你需要做很多的工作來構(gòu)建一個工程模塊,將圖像轉(zhuǎn)化成一種代表性的東西——通常是一個長長的數(shù)字列表,它們能夠被簡單的學習算法處理。所以基本上你必須親手完成這項工作。”他補充道,早期的語音識別和由計算機驅(qū)動的翻譯也是如此:手動工程意味著付出巨大的努力,卻沒有得到多少回報。
那么是什么改變了計算機科學呢?“在所有的那些應用中,深度學習和神經(jīng)網(wǎng)絡已經(jīng)在性能上帶來了顯著的改善——同時也大大減少了必要的體力勞動。”LeCun說道,“這使得人們可以將這些應用擴展到很多不同的領域。”
這就提出了這樣一個問題:計算機首先是如何“學習”的。神經(jīng)網(wǎng)絡相當于對大腦的一種軟件模擬;它們處理諸如視覺圖像的信息,并試圖得到一個正確的答案。但如果答案不是那么正確呢?輸入“反向傳播”(backpropagation),這是一種促使神經(jīng)網(wǎng)絡學習的反饋流算法。
Yann LeCun和反向傳播算法
反向傳播的突破性發(fā)現(xiàn)出現(xiàn)在1986年。當時,杰弗里·辛頓(Geoffrey Hinton)教授成為最早描述計算機通過反復執(zhí)行任務來學習的方法的研究人員之一。在學習的過程中,計算機的神經(jīng)網(wǎng)絡每次都會“往減少錯誤的方向進行調(diào)整”。
LeCun不僅很好地利用了辛頓所打下的基礎——他還幫助奠定了基礎。20世紀80年代初,辛頓第一次提出了“反向”(backprop)的想法,但后來他放棄了,因為他認為這個想法行不通。
但在1985年,LeCun寫了一篇論文來描述反向傳播的一種形式。論文是用法語寫的,基本上沒有被很多人讀過——但至少被一個重要的人讀到了。那就是辛頓。在開始在AT&T貝爾實驗室(晶體管的誕生地)工作之前,LeCun在多倫多大學在Hinton手下工作,擔任博士后研究員。
“所有的機器學習都是關于糾錯的。”LeCun解釋道。想象一下,給計算機展示”成千上萬張汽車和飛機的圖片,每一次參數(shù)都自行調(diào)整一點,輸出結(jié)果隨之距離正確的參數(shù)近一點——如果你足夠幸運的話,最終會達成一個讓機器能夠準確識別出每一輛汽車和每一架飛機的配置。”
描述最終結(jié)果的時候,他激動地說:“機器學習的神奇之處在于,即使是系統(tǒng)從未見過的圖像,也會被正確地分類。”
不過,他還是忍不住有點愛開玩笑。“有各種各樣的技巧可以讓反向傳播發(fā)揮作用,而且它還是有點黑色藝術——但現(xiàn)在我們有了一個秘方。如果你按照秘方來做,它每次都會奏效。”
數(shù)據(jù)、人工智能和商業(yè):天空與極限
人工智能時代的數(shù)據(jù)被以各種各樣的方式描述:新的黃金,新的石油,新的貨幣,甚至新的培根。到目前為止,每個人都明白:從審計到電子商務,數(shù)據(jù)對企業(yè)來說都很有價值。但也要理解數(shù)據(jù)能做什么和不能做什么,這是眾多商界人士仍必須面對的一個區(qū)別。
“數(shù)據(jù)對于把機器學習變成一門生意很重要。”LeCun坦言,“你需要數(shù)據(jù)來訓練你的系統(tǒng),你的數(shù)據(jù)越多,你的系統(tǒng)就會越精準。所以,從技術目標和商業(yè)角度來看,數(shù)據(jù)越多越好。”
但也有數(shù)據(jù)會變成油膩的培根的時候,如果你愿意的話:也就是說,它不能讓使用人工智能的機器變得更智能。“在人工智能的研究方面——我們在Facebook研究的東西,還有很多在DeepMind、谷歌和其他地方的人研究的東西——我們不使用內(nèi)部數(shù)據(jù)來測試它們。”LeCun說,“我們使用公共數(shù)據(jù),原因是我們喜歡將我們的方法與學術研究領域的其他人進行比較。擁有更多的數(shù)據(jù)對于開發(fā)更好的方法并不重要。事實上,很多努力都是為了減少達到給定性能水平所需的數(shù)據(jù)量。”
這一點在學術界尤為明顯。在學術界,關鍵的任務不是分析處理海量的數(shù)據(jù),而是充當LeCun所說的“新思想的先鋒”。與此同時,在尋找解決方案之前,建立人工智能戰(zhàn)略的企業(yè)需要自我評估。“這取決于人工智能對你的操作有多重要,”LeCun指出。“如果你只是想應用現(xiàn)有的人工智能方法,你可以使用許多公司提供的云服務。”這是相對容易的。“一些企業(yè)和出租技術可以幫助人工智能的部署;LeCun以蒙特利爾的AI元素為例。
對于企業(yè)來說,最大的挑戰(zhàn)是建立自己的工程團隊。“基本上,人工智能工程師和科學家現(xiàn)在需求量很大,所以你得高薪聘請他們。他們不便宜,因為他們很稀有。”
兩種學習方式,一種光明的未來
LeCun概述了構(gòu)成當今人工智能基礎的兩種不同類型的學習方式:監(jiān)督式學習和非監(jiān)督式學習。在監(jiān)督式學習中——適用于超過95%的機器學習應用——人類操作員訓練機器來逐漸提升對圖像或其他形式的輸入的識別能力。打個比方,把它看作你可以無意識地調(diào)整的旋鈕,越是調(diào)整,機器就會越接近產(chǎn)生你想要的那個輸出結(jié)果。
非監(jiān)督式學習(或者說“自我監(jiān)督式學習”)擁有著巨大的潛力,盡管它在今天的機器學習中所占的比例要小得多。“它本質(zhì)上是根據(jù)我們從世界上的其他事物中感知到的東西來預測一切。”LeCun說。他以“視頻預測”為例:“給機器播放一小段視頻,然后讓它預測接下來會發(fā)生什么。”
現(xiàn)在的情況有點像是在預測接下來會發(fā)生什么,從而實現(xiàn)這種特殊的突破。但可以肯定的是,對于科學家、學者和高科技巨頭來說,追求非監(jiān)督式學習有著十分巨大的吸引力。非監(jiān)督式學習的好處在于,能夠完成我們目前無法完成的所有應用。”LeCun說道,“我們想要擁有智能的虛擬助手,你可以和它們交談,它們可以理解你所說的一切。它們會有足夠的背景知識來在日常生活中給你提供幫助。”
他停頓了一下。“這有點像電影《她》(Her)。你看過那部電影嗎?”簡單介紹一下:在斯派克·瓊斯(Spike Jonze)2013年執(zhí)導的這部電影里,華金·菲尼克斯(Joaquin Phoenix)飾演一個孤獨的作家,愛上了他的虛擬助手,該助手由斯嘉麗·約翰遜(Scarlett Johansson)配音。原來LeCun很喜歡這部電影。
“它對人們和變得智能的虛擬助手之間可能會發(fā)生的互動刻畫得不差。”LeCun表示,“我們還遠沒有那樣的人工智能技術能讓我們制造出那樣的機器。這主要是因為現(xiàn)在的機器不具備常識。”
常識?但機器不是很多時候都比人類更善于做決定嗎?機器必須要有常識——它們有嗎?LeCun解釋了它們?yōu)槭裁礇]有常識:“我們沒有能力讓機器去學習龐大的背景知識:我們在出生以后的最初幾周和幾個月里所獲得的關于這個世界的龐大背景知識——很多動物也獲得了這種背景知識。”
正因為如此,我們對機器人的一些最簡單的假設就站不住腳。“我們不可能有靈巧的機器人。”LeCun說道,“我們不可能有能夠把我們的洗碗機裝滿然后清空的家用機器人。這超出了當今機器人技術的水平,這并不是因為我們不能制造機器人。而是因為我們不知道如何給它們制造大腦。我們不知道如何訓練它們,讓它們知道該如何握住東西,如何繞過障礙物,如何裝載東西。”他補充說:“家貓都比最聰明的機器有常識得多。”
鑒于LeCun在將人工智能帶入生活中所扮演的重要角色,這聽起來或許有些輕率。但當他想到一個光明的人工智能未來在醫(yī)學等領域正以閃電般的速度逼近時,他也表現(xiàn)出了極大的熱情——甚至驚奇。
“對于醫(yī)學圖像分析,我們能夠訓練卷積神經(jīng)網(wǎng)絡來從CT掃描圖或MRI(核磁共振成像)圖像檢測腫瘤,或者從皮膚圖像檢測黑色素瘤。”他稱,“我認為這將會對放射學產(chǎn)生深遠的影響。”
不管持有什么樣的觀點,LeCun都一直充滿著樂趣,一如當初第一天到貝爾實驗室工作的的那個二十來歲小伙。
7月8日是LeCun 58歲生日那天,他發(fā)布推文說:“深度神經(jīng)網(wǎng)絡既漂亮,又光亮透明。”
-
神經(jīng)網(wǎng)絡
+關注
關注
42文章
4779瀏覽量
101052 -
人工智能
+關注
關注
1794文章
47642瀏覽量
239691 -
深度學習
+關注
關注
73文章
5512瀏覽量
121417
原文標題:AI大神Yann LeCun談近期AI發(fā)展:最聰明的AI在常識方面還不如貓
文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論