作者:小巖
編輯:彩云
根據財聯社消息,11月28日,比爾·蓋茨針對AI未來的發展趨勢發表了自己的看法。他認為,當下生成式AI的發展已經達到了極限,很難再有突破性的進展。下一個AI發展的賽道,很可能是可解釋AI。比爾.蓋茨預測,未來10年(2030年-2039年),AI領域的主角將成為可解釋AI。
大部分人預判:GPT-5將明顯優于GPT-4,成為生成式AI領域天花板。
盡管OpenAI還沒有對外界公布GPT-5的確切上線時間,甚至還曾遭到馬斯克等人的反對,被其“聯名上書”,認為“GPT -5不應該問世”。但有一點毋庸置疑,如今的大模型GPT-4已經達到了行業領先的水準,眾人難望其項背。而它距離上一代的GPT-3.5上線,只經歷了很短的時間,所以,我們有理由相信,一旦GPT-5成功面世,它的優勢將明顯大于GPT。這也是比爾.蓋茨認為生成式AI再難有突破的重要原因。
當然不可否認,生成式AI公司在最近取得了飛速發展。根據PitchBook為彭博社收集的數據,僅第3季度,全球AI公司的融資價值同比增長27 %,達到179億美元。這表明了投資者對于AI技術,特別是當下發展正夯的生成式AI,持有相信和樂觀態度。而且,這種“一片向好”的態勢不光出現在國際上,中國自己的生成式AI行業也在這一年得到了迅速發展,這其中涵蓋了語言模型,圖像生成,文學創作,音樂創作,游戲開發等多個領域。
隨著大模型在AI領域取得了重大突破,未來算力將變得更加廉價,也會在多個領域取得顯著成果,從而推動國內的產業升級和創新發展。當然,在這個過程中,大型模型會逐漸減少,應用則會愈發增多。
不過,各大企業在享受AI飛速發展的紅利的同時,也不得不面對激烈的市場競爭。為了在市場上分得一杯羹,各企業傾向通過橫向并購的方式來擴大市場份額,從而提升地位。而AI大模型的研發,數據收集,數據驗證也需要有大量的資金來做支撐。此時,就要考驗企業是否具有“鈔能力”了。
可解釋AI即將登場!它為何有可能引領下一個AI風潮?
那么,為什么可解釋AI會備受比爾.蓋茨的推崇?
在人類歷史上,技術進步,生產關系邏輯,倫理法規的發展是動態演進的。當一種新的技術在實驗室獲得突破后,它所能帶來的價值生產方式勢必會對商品形態和生產關系等帶來沖擊。當新技術帶來的價值被認可,商業邏輯會逐步形成,同時適配全新的倫理法規。
近10年來,借由算力與數據規模的性價比突破臨界點,以深度神經網絡為代表的聯結主義模型架構及統計學習范式(簡稱深度學習)在特征表征能力上取得了跨越級別的突破,大大推動了人工智能的發展,在很多場景中達到令人難以置信的效果(譬如人臉識別準確率達到97 %以上;谷歌智能語音助手的回答正確率高達90 %以上等,都是典型案例) 。
不過,當學習不斷深入,問題也隨之產生。當“深度學習商業化運用”觸及到某些對技術敏感,或者與人的生存和安全關系緊密的領域時,諸如自動駕駛,金融,醫療和司法等高風險應用場景,原有的商業邏輯在進行技術更替的過程中就會遇到阻力,從而導致商業化速度的減緩甚至失敗。
究其原因,是因為這些敏感領域會涉及到社會道德和倫理法規的問題。對于這些,我們人類可以在第一時間給予清晰的分辨,溯源和問責。可這些深度學習的商業體,從本質上說,就是一個黑盒,無法從模型的結構或權重中獲取模型行為的任何信息,從而導致AI在業務應用中遇到技術和結構上的困難。
讓我們舉2個例子來進行一下說明。譬如在金融風控的場景里,通過深度學習,模型識別出來小部分用戶有欺詐嫌疑,但是業務部門不敢直接使用這個結果進行處理。因為整個業務部門都不知道結果是如何得來的,并且無法判斷得出的結果是否正確,整個過程也都缺乏明確的證據。再比如說在醫療使用場景里,深度學習模型根據患者的檢測數據,判斷患者有肺結核。但是醫生不知道診斷結果是怎么來的,不敢直接采用,只能根據自己的經驗,仔細查看相關檢測數據,給出自己的判斷。
由此可見,“黑盒”的形態會嚴重影響模型在實際場景的應用和推廣。要解決模型的這些問題,就需要打開黑盒模型,透明化模型構建過程和推理機理,而可解釋AI就是實現模型透明化的有效技術。
可解釋AI:一套面向機器學習(主要是深度神經網絡)技術合集。
所謂可解釋AI,英文是explainable AI(XAI)。目前,無論學術界還是工業界,對于可解釋AI都沒有一個統一的定義。我們在這里為大家介紹3個廣為流行的解釋。
第一個解釋,是希望尋求對模型工作機理的直接理解,打破人工智能的黑盒子。第二個解釋,是為AI算法所做出的決策提供人類可讀的以及可理解的解釋。都三個解釋,是確保人類可以輕松理解和信任人工智能代理做出的決策的一組方法。
由此可見,對于黑盒模型的理解,是可解釋AI的關鍵。
MindSpore團隊根據自身的實踐經驗和理解,將可解釋AI定義為:一套面向機器學習(主要是深度神經網絡)的技術合集,包括可視化,數據挖掘,邏輯推理,知識圖譜等。
有了可解釋AI的介入,用戶就可以知道AI系統為什么要這樣做,也知道AI系統為什么不這樣做;可以知道AI系統什么時候可以成功,什么時候失?。豢梢灾朗裁磿r候可以信任AI系統;更可以知道AI系統為什么做錯了。
目前,OpenAI的產品還沒有辦法實現完全盈利。本身ChatGPT并不做商業用途,而且在運營過程中,需要應對各項成本支出(培訓,微調,人員工資等),再加上GPT-5的訓練時間極有可能拉長,OpenAI未來要面臨的挑戰異常嚴峻。
此時,如果能跳脫出生成式AI的圈子,另辟蹊徑,進入下一個發展階段,未嘗不是一個適合的出路。
審核編輯 黃宇
-
AI
+關注
關注
87文章
30728瀏覽量
268888 -
人工智能
+關注
關注
1791文章
47183瀏覽量
238261 -
GPT
+關注
關注
0文章
352瀏覽量
15342 -
深度學習
+關注
關注
73文章
5500瀏覽量
121113 -
OpenAI
+關注
關注
9文章
1079瀏覽量
6482
發布評論請先 登錄
相關推薦
評論