電子發燒友網報道(文/李彎彎)3月21日晚間,英偉達CEO黃仁勛在2023年GTC開發者大會上發表了主題演講,介紹了英偉達在AI領域的最新進展。
其中有兩點最為引人矚目,一是英偉達宣布了一項突破性技術——NVIDIA cuLitho計算光刻庫,它將加速計算帶入計算光刻領域,使ASML、TSMC和Synopsys等半導體領導者能夠加速下一代芯片的設計和制造。
二是專為ChatGPT打造的H100 NVLINK,以及為賦能生成式AI發布的NVIDIA AI Foundations云服務系列。黃仁勛認為“我們正處于AI的iPhone時刻”。他說:“初創公司正在競相打造顛覆性產品和商業模式,科技巨頭也在尋求突破。”
計算光刻庫cuLitho將光刻技術提高40倍
光刻工藝過程可以用光學和化學模型,借助數學公式來描述。光照射在掩模上發生衍射,衍射級被投影透鏡收集并會聚在光刻膠表面,這一成像過程是一個光學過程;投影在光刻膠上的圖像激發光化學反應,烘烤后導致光刻膠局部可溶于顯影液,這是化學過程。
計算光刻就是使用計算機來模擬、仿真這些光學和化學過程,從理論上探索增大光刻分辨率和工藝窗口的途徑,指導工藝參數的優化。
計算光刻是提高光刻分辨率、推動芯片制造達到2nm及更先進節點的關鍵手段。英偉達表示,這一進展將使芯片擁有比現在更小的晶體管和電線,同時加快上市時間,并提高全天候運行的大型數據中心的能源效率,以推動制造過程。
具體來看,NVIDIA cuLitho計算光刻庫有哪些優勢?在GPU上運行時,cuLitho的性能比目前的光刻技術提高了40倍。
據黃仁勛介紹,英偉達的H100需要89塊掩膜板,如果用CPU進行處理的話,每個掩膜板都需要消耗兩周的時間,而如果在GPU上運行cuLitho,則只需8個小時即可處理完一個掩膜板。
它使500個NVIDIA DGX H100系統能夠實現40000個CPU系統的工作,運行所有部件并行計算光刻工藝,有助于減少電力需求和潛在環境影響。
在短期內,使用cuLitho的晶圓廠可以每天生產3-5倍以上的光掩模,芯片設計模板使用的功率比當前配置低9倍。之前一個光掩模所需的兩周時間現在可以在一夜之間處理。從長遠來看,cuLitho將提供更好的設計規則、更高的密度、更高的產量和人工智能光刻技術。
NVIDIA正在與主要合作伙伴合作,以推動這些新技術的快速采用。黃仁勛并預告臺積電將把這套AI系統,在今年6月導入2納米試產,用于提升2納米制程良率,并縮短量產時程。
臺積電CEO魏哲家表示,這一發展為TSMC在芯片制造中更廣泛地部署光刻技術和深度學習等光刻解決方案提供了新的可能性,為半導體擴展的延續做出了重要貢獻。
ASML首席執行官Peter Wennink表示,正計劃將其集成到所有的計算光刻軟件中,ASML與NVIDIA在GPU和cuLitho方面的合作,應該會給計算光刻帶來巨大的好處,從而給半導體帶來巨大的益處縮放比例,在高NA極紫外光刻的時代尤其如此。
Synopsys董事長兼首席執行官Aart de Geus表示,計算光刻,特別是光學鄰近校正(OPC),正在突破界限,與NVIDIA合作,在cuLitho平臺上運行Synopsys OPC軟件,我們將性能從幾周大幅提高到幾天。
專為ChatGPT打造的H100 NVLINK
NVIDIA技術是AI的基礎,黃仁勛講述了NVIDIA如何在生成式AI變革初期就已參與進來。早在2016年,他就向OpenAl親手交付了第一臺NVIDIA DGX AI超級計算機一支持ChatGPT的大型語言模型突破背后的引擎。
去年年底推出的ChatGPT幾乎在一夜之間爆火,吸引了超過1億用戶,成為有史以來增長最快的應用。黃仁勛認為“我們正處于Al的iPhone時刻”。在GTC大會上,他還宣布了專為ChatGPT設計的推理GPU(圖形處理器)。
其中最主要的是H100 NVLINK,它將英偉達的兩個H100 GPU拼接在一起,以部署像 ChatGPT這樣的大型語言模型(LLM)。
黃仁勛表示,當前唯一可以實際處理ChatGPT的GPU是英偉達HGX A100。與前者相比,現在一臺搭載四對H100和雙NVLINK的標準服務器速度能快10倍,可以將大語言模型的處理成本降低一個數量級。
H100不是新的GPU,英偉達在一年前的GTC上展示了其Hopper架構,并在各種任務中加速AI推理(推理是機器學習程序部署的第二階段,此時運行經過訓練的程序以通過預測來回答問題)。英偉達表示,H100 NVL附帶94GB內存,與上一代產品相比,H100的綜合技術創新可以將大型語言模型的速度提高30倍。
據黃仁勛透露,H100 NVL預計將在今年下半年上市。
另外,為了加速企業使用生成式Al的工作,黃仁勛在此次大會上還發布了NVIDIA AI Foundations云服務系列,為需要構建、完善和運行自定義大型語言模型及生成式A的客戶提供服務,他們通常使用專有數據進行訓練并完成特定領域的任務。
Al Foundations服務包括NVIDIA NeMo,用于構建自定義語言文本-文本轉換生成模型;Picasso視覺語言模型制作服務,適用于想要構建使用授權或專有內容訓練而成的自定義模型的客戶;以及BioNeMo,助力2萬億美元規模的藥物研發行業的研究人員。
小結
在本次GTC開發者大會上,英偉達除了帶來令人矚目的計算光刻庫cuLitho,專為ChatGPT打造的H100 NVLINK以及賦能生成式AI的NVIDIA AI Foundations云服務系列外,還帶來了其他的技術進展,包括量子計算系統、視覺圖像系統等。
新的AI技術和迅速蔓延的應用正在改變科學和各行各業,并為成千上萬的新公司開辟新的疆域。在黃仁勛看來,這將是迄今為止最重要的一次GTC。
其中有兩點最為引人矚目,一是英偉達宣布了一項突破性技術——NVIDIA cuLitho計算光刻庫,它將加速計算帶入計算光刻領域,使ASML、TSMC和Synopsys等半導體領導者能夠加速下一代芯片的設計和制造。
二是專為ChatGPT打造的H100 NVLINK,以及為賦能生成式AI發布的NVIDIA AI Foundations云服務系列。黃仁勛認為“我們正處于AI的iPhone時刻”。他說:“初創公司正在競相打造顛覆性產品和商業模式,科技巨頭也在尋求突破。”
計算光刻庫cuLitho將光刻技術提高40倍
光刻工藝過程可以用光學和化學模型,借助數學公式來描述。光照射在掩模上發生衍射,衍射級被投影透鏡收集并會聚在光刻膠表面,這一成像過程是一個光學過程;投影在光刻膠上的圖像激發光化學反應,烘烤后導致光刻膠局部可溶于顯影液,這是化學過程。
計算光刻就是使用計算機來模擬、仿真這些光學和化學過程,從理論上探索增大光刻分辨率和工藝窗口的途徑,指導工藝參數的優化。
計算光刻是提高光刻分辨率、推動芯片制造達到2nm及更先進節點的關鍵手段。英偉達表示,這一進展將使芯片擁有比現在更小的晶體管和電線,同時加快上市時間,并提高全天候運行的大型數據中心的能源效率,以推動制造過程。
具體來看,NVIDIA cuLitho計算光刻庫有哪些優勢?在GPU上運行時,cuLitho的性能比目前的光刻技術提高了40倍。
據黃仁勛介紹,英偉達的H100需要89塊掩膜板,如果用CPU進行處理的話,每個掩膜板都需要消耗兩周的時間,而如果在GPU上運行cuLitho,則只需8個小時即可處理完一個掩膜板。
它使500個NVIDIA DGX H100系統能夠實現40000個CPU系統的工作,運行所有部件并行計算光刻工藝,有助于減少電力需求和潛在環境影響。
在短期內,使用cuLitho的晶圓廠可以每天生產3-5倍以上的光掩模,芯片設計模板使用的功率比當前配置低9倍。之前一個光掩模所需的兩周時間現在可以在一夜之間處理。從長遠來看,cuLitho將提供更好的設計規則、更高的密度、更高的產量和人工智能光刻技術。
NVIDIA正在與主要合作伙伴合作,以推動這些新技術的快速采用。黃仁勛并預告臺積電將把這套AI系統,在今年6月導入2納米試產,用于提升2納米制程良率,并縮短量產時程。
臺積電CEO魏哲家表示,這一發展為TSMC在芯片制造中更廣泛地部署光刻技術和深度學習等光刻解決方案提供了新的可能性,為半導體擴展的延續做出了重要貢獻。
ASML首席執行官Peter Wennink表示,正計劃將其集成到所有的計算光刻軟件中,ASML與NVIDIA在GPU和cuLitho方面的合作,應該會給計算光刻帶來巨大的好處,從而給半導體帶來巨大的益處縮放比例,在高NA極紫外光刻的時代尤其如此。
Synopsys董事長兼首席執行官Aart de Geus表示,計算光刻,特別是光學鄰近校正(OPC),正在突破界限,與NVIDIA合作,在cuLitho平臺上運行Synopsys OPC軟件,我們將性能從幾周大幅提高到幾天。
專為ChatGPT打造的H100 NVLINK
NVIDIA技術是AI的基礎,黃仁勛講述了NVIDIA如何在生成式AI變革初期就已參與進來。早在2016年,他就向OpenAl親手交付了第一臺NVIDIA DGX AI超級計算機一支持ChatGPT的大型語言模型突破背后的引擎。
去年年底推出的ChatGPT幾乎在一夜之間爆火,吸引了超過1億用戶,成為有史以來增長最快的應用。黃仁勛認為“我們正處于Al的iPhone時刻”。在GTC大會上,他還宣布了專為ChatGPT設計的推理GPU(圖形處理器)。
其中最主要的是H100 NVLINK,它將英偉達的兩個H100 GPU拼接在一起,以部署像 ChatGPT這樣的大型語言模型(LLM)。
黃仁勛表示,當前唯一可以實際處理ChatGPT的GPU是英偉達HGX A100。與前者相比,現在一臺搭載四對H100和雙NVLINK的標準服務器速度能快10倍,可以將大語言模型的處理成本降低一個數量級。
H100不是新的GPU,英偉達在一年前的GTC上展示了其Hopper架構,并在各種任務中加速AI推理(推理是機器學習程序部署的第二階段,此時運行經過訓練的程序以通過預測來回答問題)。英偉達表示,H100 NVL附帶94GB內存,與上一代產品相比,H100的綜合技術創新可以將大型語言模型的速度提高30倍。
據黃仁勛透露,H100 NVL預計將在今年下半年上市。
另外,為了加速企業使用生成式Al的工作,黃仁勛在此次大會上還發布了NVIDIA AI Foundations云服務系列,為需要構建、完善和運行自定義大型語言模型及生成式A的客戶提供服務,他們通常使用專有數據進行訓練并完成特定領域的任務。
Al Foundations服務包括NVIDIA NeMo,用于構建自定義語言文本-文本轉換生成模型;Picasso視覺語言模型制作服務,適用于想要構建使用授權或專有內容訓練而成的自定義模型的客戶;以及BioNeMo,助力2萬億美元規模的藥物研發行業的研究人員。
小結
在本次GTC開發者大會上,英偉達除了帶來令人矚目的計算光刻庫cuLitho,專為ChatGPT打造的H100 NVLINK以及賦能生成式AI的NVIDIA AI Foundations云服務系列外,還帶來了其他的技術進展,包括量子計算系統、視覺圖像系統等。
新的AI技術和迅速蔓延的應用正在改變科學和各行各業,并為成千上萬的新公司開辟新的疆域。在黃仁勛看來,這將是迄今為止最重要的一次GTC。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
gpu
+關注
關注
28文章
4760瀏覽量
129131 -
英偉達
+關注
關注
22文章
3815瀏覽量
91492
發布評論請先 登錄
相關推薦
黃仁勛減持英偉達股票
在全球科技巨頭市值競爭激烈的背景下,英偉達CEO黃仁勛近日做出了引人注目的投資決策。隨著微軟、蘋果交替坐上全球股王的位置,且均創下了歷史收盤
英偉達黃仁勛:堅守法規服務中國,展望人形機器人未來
在科技飛速發展的今天,英偉達作為圖形處理器(GPU)領域的佼佼者,其一舉一動都牽動著全球科技界的目光。近日,英偉
英偉達CEO黃仁勛展望AI與機器人新時代
在COMPUTEX 2024大會上,英偉達CEO黃仁勛發表了激動人心的演講,他看好機器人即將跨入擁有更強感知能力和系統的全新時代。
英偉達CEO黃仁勛薪酬大漲60%,高達2.47億元
據英偉達在5月15日發布的最新報告顯示,黃仁勛在2024財年的薪酬高達2.47億元,較前一財年的1.5億元增長了驚人的60%。
英偉達黃仁勛:應對最壞情況,與臺積電緊密合作
當日,第二屆NVIDIA GPU技術會議正式啟動。黃仁勛在此次國際記者會上,首先簡要介紹了公司的供應鏈和產品組成情況。他指出,AI(人工智能
評論