2022 年在 AI/ML 領域取得了許多突破性的突破。谷歌、Meta 和微軟等大型科技公司在從量子計算到生成人工智能的全新創新中取得了重大進步。
接下來,讓我們看看對 2023 年的一些預測。
趨勢一:生成式 AI 需要可解釋的 AI
文本到圖像的生成是 2022 年打破排行榜的趨勢。DALL-E、Stable Diffusion 和 Midjourney 等模型在想要試驗 AI 生成藝術的愛好者中名列前茅。對話很快從文本到圖像轉移到文本到視頻,再到文本到任何東西,并且創建了多個模型,這些模型也可以生成 3D 模型。
隨著語言模型的擴展以及傳播模型的改進,文本到任何東西的趨勢預計會上升得更高。公開可用的數據集使生成式 AI 模型更具可擴展性。
這些數據集引入了有關可解釋人工智能的部分,其中訓練這些生成模型的每張圖像的屬性變得至關重要。
趨勢二:FastSaaS 競賽開始
趕上生成人工智能趨勢的公司已經開始將其作為云端服務提供。隨著 LLM 和 GPT-3 和 DALL-E 等生成模型的公開可用,企業越來越容易將它們作為服務提供,這催生了FastSaaS。
最近,Shutterstock計劃將 DALL-E 2 集成到其平臺,MicrosoftVS Code添加了 Copilot 作為擴展,TikTok宣布推出應用內文本到圖像 AI 生成器,Canva推出了 AI - 在其平臺上生成功能。
趨勢三:依賴超級計算機
這就是構建超級計算機以依賴于生成任務以及為公司提供服務的趨勢。隨著這些不斷增加的數據集和生成模型,對超級計算機的需求正在上升,并且預計會進一步上升。隨著對 FastSaaS 的競爭,對更好和高性能計算的需求是下一件事。
NVIDIA 和微軟最近合作創建了Quantum-2,一個云原生超級計算平臺。10 月,特斯拉宣布其Dojo超級計算機完全使用特斯拉開發的芯片從零開始構建。很快,它看起來可以為企業客戶提供訪問權限。此外,Cerebras 還推出了 Andromeda,這是一臺擁有 1350 萬核心的 AI 超級計算機,可提供超過 1 exaflop 的 AI 計算能力。最近,Jasper 與 Cerebras 合作以實現更好的性能。
趨勢四:超越 3nm 芯片
正如摩爾定律所預測的那樣,處理能力隨著芯片尺寸的減小而增加。因此,超級計算機要運行大型模型,就需要更小的芯片,而且我們已經看到芯片越來越小。
近年來,芯片行業一直在推動小型化,制造商不斷尋找使芯片更小、更緊湊的方法。比如M2芯片和A16,蘋果分別使用5nm和4nm芯片,預計2023年臺積電會開發3nm芯片,這將提高AI/ML算法開發的效率和性能。
趨勢五:量子與傳統計算的融合
隨著NVIDIA、谷歌和微軟等公司向云端提供硬件服務,量子計算領域的更多創新勢必會發生。這將允許小型科技公司在不需要重型硬件的情況下訓練、測試和構建 AI/ML 模型。
未來幾年量子計算的興起絕對應該被開發人員納入,因為它的使用將在許多其他領域增加,如醫療保健、金融服務等。
在最近的公告中,一臺量子計算機連接到歐洲最快的超級計算機,以結合傳統計算機和量子計算機以更快地解決問題。同樣,Nvidia 也發布了QODA——簡稱Quantum-Optimised Device Architecture,這是混合量子經典計算機的首創平臺。
IBM最近在其 2022 年年度量子峰會上宣布了他們的量子硬件和軟件,概述了使用 433 量子位 (qubit) 處理器進行以量子為中心的超級計算的開創性愿景。在全球人工智能峰會上,IBM宣布明年他們將展示一個 1000 量子比特的系統,這將成為各個領域進一步創新的顛覆者。
審核編輯 :李倩
-
AI
+關注
關注
87文章
31155瀏覽量
269496 -
人工智能
+關注
關注
1792文章
47442瀏覽量
239019 -
生成器
+關注
關注
7文章
317瀏覽量
21054
原文標題:2023年人工智能發展趨勢TOP5
文章出處:【微信號:信息與電子工程前沿FITEE,微信公眾號:信息與電子工程前沿FITEE】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論