色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

在Azure機器學(xué)習(xí)上提高人工智能模型推理性能

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-10-11 09:49 ? 次閱讀

每個 AI 應(yīng)用程序都需要強大的推理引擎。無論您是部署圖像識別服務(wù)、智能虛擬助理還是欺詐檢測應(yīng)用程序,可靠的推理服務(wù)器都能提供快速、準(zhǔn)確和可擴展的預(yù)測,具有低延遲(對單個查詢的響應(yīng)時間較短)和高吞吐量(在給定時間間隔內(nèi)處理大量查詢)。然而,檢查所有這些方框可能很難實現(xiàn),而且成本高昂。

團(tuán)隊需要考慮部署可以利用以下功能的應(yīng)用程序:

具有獨立執(zhí)行后端的多種框架( ONNX 運行時、 TensorFlow 、 PyTorch )

不同的推理類型(實時、批量、流式)

用于混合基礎(chǔ)設(shè)施( CPUGPU )的不同推理服務(wù)解決方案

可以顯著影響推理性能的不同模型配置設(shè)置(動態(tài)批處理、模型并發(fā))

這些要求使人工智能推理成為一項極具挑戰(zhàn)性的任務(wù),可以通過 NVIDIA Triton 推理服務(wù)器 。

這篇文章提供了一個逐步提高 AI 推理性能的教程 Azure 機器學(xué)習(xí) 使用 NVIDIA Triton 模型分析儀和 ONNX 運行時橄欖 ,如圖 1 所示。

pYYBAGNEy6OASFXXAAE2yB9_A1A913.png

圖 1.使用 ONNX 運行時、 OLive 、 Triton 模型分析器和 Azure 機器學(xué)習(xí)優(yōu)化 PyTorch 模型的工作流

工作流優(yōu)化的機器學(xué)習(xí)模型

為了提高 AI 推理性能, ONNX Runtime OLive 和 Triton 模型分析器在模型部署之前自動執(zhí)行參數(shù)優(yōu)化步驟。這些參數(shù)定義了底層推理引擎將如何執(zhí)行。您可以使用這些工具來優(yōu)化 ONNX 運行時參數(shù) (執(zhí)行提供程序、會話選項和精度參數(shù)),以及 Triton 參數(shù) (動態(tài)批處理和模型并發(fā)參數(shù))。

階段 1 : ONNX 運行時橄欖優(yōu)化

如果 Azure 機器學(xué)習(xí)是您部署 AI 應(yīng)用程序的地方,那么您可能熟悉 ONNX 運行時。 ONNX Runtime 是微軟的高性能推理引擎,用于跨平臺運行 AI 模型。它可以跨多種配置設(shè)置部署模型,目前 Triton ?聲波風(fēng)廓線儀支持。微調(diào)這些配置設(shè)置需要專門的時間和領(lǐng)域?qū)I(yè)知識。

OLive ( ONNX Runtime Go Live )是一個 Python 包,通過使用 ONNX 運行時自動化加速模型的工作來加速此過程。它提供了兩種功能:將模型轉(zhuǎn)換為 ONNX 格式和自動調(diào)整 ONNX 運行時參數(shù),以最大化推理性能。運行 OLive 將隔離并推薦 ONNX 運行時配置設(shè)置,以獲得最佳核心 AI 推理結(jié)果。

您可以使用以下 ONNX 運行時參數(shù)使用 OLive 優(yōu)化 ONNX Runtime BERT 小隊模型:

執(zhí)行提供程序:ONNX Runtime 通過其可擴展執(zhí)行提供程序( EP )框架與不同的硬件加速庫協(xié)作,以在硬件平臺上優(yōu)化運行 ONNX 模型,該框架可以利用平臺的計算能力優(yōu)化執(zhí)行。 OLive 探索了以下執(zhí)行提供程序的優(yōu)化:針對 CPU 的 MLA (默認(rèn) CPU EP )、英特爾 DNNL 和 OpenVino 、針對 GPU 的 NVIDIA CUDA 和 TensorRT 。

會話選項:OLive 瀏覽 ONNX 運行時會話選項,以找到線程控制的最佳配置,包括 inter_op_num_threads、intra_op_num_threads、execution_mode和graph_optimization_level。

精度:OLive 以不同的精度級別評估性能,包括float32和float16,并返回最佳精度配置。

在運行了優(yōu)化之后,您仍然可能會在應(yīng)用程序級別上留下一些性能。使用 Triton 模型分析器可以進(jìn)一步提高端到端吞吐量和延遲,該分析器能夠支持優(yōu)化的 ONNX 運行時模型。

第 2 階段: Triton 模型分析器優(yōu)化

NVIDIA Triton 推理服務(wù)器 是一款開源推理服務(wù)軟件,有助于標(biāo)準(zhǔn)化模型部署和執(zhí)行,并在生產(chǎn)中提供快速、可擴展的人工智能推理。圖 2 顯示了 Triton 推理服務(wù)器在與客戶端應(yīng)用程序和多個 AI 模型集成時如何管理客戶端請求。

poYBAGNEy6WAEZ8dAAI2mW4HXaE682.png

圖 2. Triton 推理服務(wù)器如何管理客戶端請求

這篇文章將著重于使用 Triton 模型分析器優(yōu)化兩個主要的 Parabricks 特性:

動態(tài)配料:Triton 允許服務(wù)器組合推理請求,以便動態(tài)創(chuàng)建批處理。這導(dǎo)致在固定延遲預(yù)算內(nèi)增加吞吐量。

并發(fā)模型:Triton 允許同一模型的多個模型或?qū)嵗谕幌到y(tǒng)上并行執(zhí)行。這導(dǎo)致吞吐量增加。

當(dāng)以最佳級別部署時,這些功能非常強大。當(dāng)以次優(yōu)配置部署時,性能會受到影響,使終端應(yīng)用程序容易受到當(dāng)前苛刻的服務(wù)質(zhì)量標(biāo)準(zhǔn)(延遲、吞吐量和內(nèi)存要求)的影響。

因此,基于預(yù)期用戶流量優(yōu)化批量大小和模型并發(fā)級別對于充分挖掘 Triton 的潛力至關(guān)重要。這些優(yōu)化 模型配置設(shè)置 將在嚴(yán)格的延遲約束下提高吞吐量,在部署應(yīng)用程序時提高 GPU 利用率。該過程可以使用 Triton 模型分析儀實現(xiàn)自動化。

給定一組約束,包括延遲、吞吐量目標(biāo)或內(nèi)存占用, Triton 模型分析器根據(jù)批量大小、模型并發(fā)性或其他[ZGK22]模型配置設(shè)置的不同級別,搜索并選擇最大化推理性能的最佳模型配置。部署和優(yōu)化這些功能后,您將看到令人難以置信的結(jié)果。

教程:開始優(yōu)化推理性能

在 Azure 機器學(xué)習(xí)上使用 ONNX Runtime OLive 和 Triton 模型分析器部署優(yōu)化的機器學(xué)習(xí)模型需要四個步驟:

發(fā)射 Azure 虛擬機 使用 NVIDIA GPU 優(yōu)化的虛擬機映像( VMI )

在模型上執(zhí)行 ONNX 、 Runtime 、 OLive 和 Triton 模型分析器參數(shù)優(yōu)化

分析和自定義結(jié)果

將優(yōu)化的 Triton ONNX 運行時模型部署到 Azure 機器學(xué)習(xí)端點上

要完成本教程,請確保您有一個 Azure 帳戶,可以訪問 NVIDIA GPU 支持的虛擬機。例如,使用 Azure ND A100 v4 系列 虛擬機 NVIDIA A100 GPU , NCasT4 v3 系列 對于 NVIDIA T4 GPU 或 NCv3 系列 適用于 NVIDIA V100 GPU 。雖然建議使用 ND A100 v4 系列以獲得最大規(guī)模的性能,但本教程使用標(biāo)準(zhǔn)的 NC6s _ v3 虛擬機,使用單個 NVIDIA V100 GPU 。

步驟 1 :使用 NVIDIA 的 GPU 優(yōu)化 VMI 啟動 Azure 虛擬機

本教程使用 NVIDIA GPU 優(yōu)化 VMI 在 Azure 市場上可用。它預(yù)先配置了 NVIDIA GPU 驅(qū)動程序、 CUDA 、 Docker 工具包、運行時和其他依賴項。此外,它還為開發(fā)人員構(gòu)建 AI 應(yīng)用程序提供了一個標(biāo)準(zhǔn)化堆棧。

為了最大限度地提高性能, NVIDIA 每季度對該 VMI 進(jìn)行驗證和更新,并提供最新的驅(qū)動程序、安全補丁和對最新 GPU 的支持。

有關(guān)如何在 Azure VM 上啟動和連接 NVIDIA GPU 優(yōu)化 VMI 的詳細(xì)信息,請參閱 Azure 虛擬機上的 NGC 文檔 。

第 2 步:執(zhí)行 ONNX Runtime OLive 和 Triton 模型分析器優(yōu)化

使用 SSH 連接到 Azure 虛擬機并加載 NVIDIA GPU 優(yōu)化的 VMI 后,即可開始執(zhí)行 ONNX Runtime OLive 和 Triton 模型分析器優(yōu)化。

首先,克隆 GitHub 存儲庫并通過運行以下命令導(dǎo)航到內(nèi)容根目錄:git clone https://github.com/microsoft/OLive.git

接下來,加載Triton 服務(wù)器容器請注意,本教程使用版本號 22.06 。

docker run --gpus=1 --rm -it -v “$(pwd)”:/models nvcr.io/nvidia/tritonserver:22.06-py3 /bin/bash

加載后,導(dǎo)航到安裝 GitHub 材料的/models文件夾:

cd /models 

下載 OLive 和 ONNX 運行時包,以及要優(yōu)化的模型。然后,通過設(shè)置以下環(huán)境變量,指定要優(yōu)化的模型的位置:

導(dǎo)出模型_位置= https://olivewheels.blob.core.windows.net/models/bert-base-cased-squad.pth

導(dǎo)出模型_文件名= bert-base-cased-squad.pth

您可以使用您選擇的模型調(diào)整上面提供的位置和文件名。為了獲得最佳性能,請直接從 NGC 目錄 這些模型被訓(xùn)練到高精度,并且具有高級證書和代碼樣本。

接下來,運行以下腳本:

bash download.sh $model_location $export model_filename

腳本將下載三個文件到您的機器上:

  • 橄欖包裝:onnxruntime_olive-0.3.0-py3-none-any.whl
  • ONNX 運行時包:onnxruntime_gpu_tensorrt-1.9.0-cp38-cp38-linux_x86_64.whl
  • PyTorch Model:bert-base-cased-squad.pth

在運行圖 1 中的管道之前,首先通過設(shè)置環(huán)境變量指定其輸入?yún)?shù):

  • 出口model_name=bertsquad
  • 出口model_type=pytorch
  • 出口in_names=input_names,input_mask,segment_ids
  • 出口in_shapes=[[-1,256],[-1,256],[-1,256]]
  • 出口in_types=int64,int64,int64
  • 出口out_names=start,end

參數(shù)in_namesin_shapesin_types指模型預(yù)期輸入的名稱、形狀和類型。在這種情況下,輸入是長度為 256 的序列,但它們被指定為[-1256],以允許對輸入進(jìn)行批處理。您可以更改與模型及其預(yù)期輸入和輸出相對應(yīng)的參數(shù)值。

現(xiàn)在,您可以通過執(zhí)行以下命令來運行管道:

bash optimize.sh $model_filename $model_name $model_type  $in_names $in_shapes $in_types $out_names

該命令首先安裝所有必要的庫和依賴項,并調(diào)用 OLive 將原始模型轉(zhuǎn)換為 ONNX 格式。

接下來,調(diào)用 Triton 模型分析器,自動生成帶有模型元數(shù)據(jù)的模型配置文件。然后將配置文件傳遞回 OLive ,以通過前面討論的 ONNX 運行時參數(shù)(執(zhí)行提供程序、會話選項和精度)進(jìn)行優(yōu)化。

為了進(jìn)一步提高吞吐量和延遲,然后將 ONNX 運行時優(yōu)化的模型配置文件傳遞到 Triton 模型庫中,供 Parabricks 模型分析器工具使用。 Triton 模型分析器然后運行profile命令,它設(shè)置優(yōu)化搜索空間,并使用.yaml配置文件指定 Triton 模型存儲庫的位置(見圖 3 )。

pYYBAGNEy6aAPLgwAAOzttjqeE4000.png

圖 3.概要配置文件概述了 Triton 模型分析器搜索空間,以優(yōu)化推理性能

上述配置文件可用于以多種方式自定義 Triton 模型分析器的搜索空間。該文件需要模型存儲庫的位置、要優(yōu)化的參數(shù)及其范圍,以創(chuàng)建 Triton 模型分析器用于查找最佳配置設(shè)置的搜索空間。

第 1-5 行指定了重要的路徑,例如優(yōu)化模型所在的輸出模型存儲庫的位置。

第 10 行指定了參數(shù) concurrency ,該參數(shù)指定了要由性能分析器,它模擬用戶流量。

第 15 行指定了bert_default 模型,其對應(yīng)于從 PyTorch 到 ONNX 轉(zhuǎn)換獲得的默認(rèn)模型。該模型是基線模型,因此使用了動態(tài)批處理(第 17 行)和模型并發(fā)(第 20 行)的非優(yōu)化值

第 19 行和第 32 行顯示了在優(yōu)化過程中必須滿足的 30ms 延遲約束。

第 28 行指定了bertsquad 模型,其對應(yīng)于橄欖優(yōu)化模型。此模型與bert_default模型不同,因為此處的動態(tài)批處理參數(shù)搜索空間設(shè)置為 1 、 2 、 4 、 8 和 16 ,模型并發(fā)參數(shù)搜索空間設(shè)為 1 、 3 、 4 和 5 。

profile命令記錄每個并發(fā)推理請求級別的結(jié)果,并且對于每個并行推理請求級別,記錄 25 個不同參數(shù)的結(jié)果,因為動態(tài)批處理和模型并發(fā)參數(shù)的搜索空間分別具有五個唯一值,總計等于 25 個不同的參數(shù)。請注意,運行此操作所需的時間將隨著圖 3 中概要文件配置文件中搜索空間中提供的配置數(shù)量的增加而增加。

腳本然后運行Triton 模型分析儀分析命令使用圖 4 所示的附加配置文件來處理結(jié)果。該文件指定了輸出模型存儲庫的位置,其中通過profile命令生成結(jié)果,以及將記錄性能結(jié)果的 CSV 文件的名稱。

poYBAGNEy6iAOQKTAAMRxzYOlAE914.png

圖 4.分析用于運行analyze命令的配置文件,并處理profile命令的結(jié)果

雖然profile和analyze命令可能需要幾個小時才能運行,但優(yōu)化的模型配置設(shè)置將確保部署的模型具有強大的長期推理性能。對于較短的運行時間,調(diào)整模型配置文件(圖 3 ),在希望優(yōu)化的參數(shù)上使用較小的搜索空間。

演示運行完成后,將生成兩個文件: optim _ Results 。 png ,如圖 5 所示,以及 Optimal _ ConfigFile _ Location 。 txt ,表示要部署在 Azure 機器學(xué)習(xí)上的最佳配置文件的位置。建立非優(yōu)化基線(藍(lán)線)。通過 OLive 優(yōu)化實現(xiàn)的性能提升如圖所示(淺綠線),以及 OLive + Triton 模型分析器優(yōu)化(深綠線)。

步驟 3 :分析性能結(jié)果

pYYBAGNEy6mAfeZfAAJ1kqBNxcI981.png

圖 5.在使用單個 V100 NVIDIA GPU 的 Azure 虛擬機( Standard _ NC6s _ v3 )上應(yīng)用 OLive plus Triton Model Analyzer 優(yōu)化配置設(shè)置時,推理吞吐量提高了 10 倍。(注意:這不是官方基準(zhǔn)。)

基線對應(yīng)于具有非優(yōu)化 ONNX 運行時參數(shù)( CUDA 后端,具有全精度)和非優(yōu)化 Triton 參數(shù)(無動態(tài)批處理和模型并發(fā))的模型。隨著基線的建立,很明顯,從 OLive 和 Triton 模型分析器在各種推理請求并發(fā)級別( x 軸)上的優(yōu)化中獲得的推理吞吐量性能( y 軸)有了很大提升,仿真結(jié)果如下:Triton 性能分析儀,一種通過生成推理請求來模擬用戶流量的工具。

OLive 優(yōu)化通過以混合精度將執(zhí)行提供程序調(diào)整為 TensorRT 以及其他 ONNX 運行時參數(shù),提高了模型性能(淺綠線)。然而,這顯示了沒有 Triton 動態(tài)批處理或模型并發(fā)的性能。因此,可以使用 Triton 模型分析器進(jìn)一步優(yōu)化該模型。

Triton 模型分析器在優(yōu)化模型并發(fā)性和動態(tài)批處理后,進(jìn)一步將推理性能提高了 20% (深綠線)。 Triton 模型分析器選擇的最終最佳值是兩個模型并發(fā)性(兩個 BERT 模型副本將保存在 GPU 上)和 16 個最大動態(tài)批處理級別(一次最多 16 個推理請求將一起批處理)。

總體而言,使用優(yōu)化參數(shù)的推理性能增益超過 10 倍。

此外,如果您希望應(yīng)用程序具有特定級別的推理請求,則可以通過配置Triton perf_analyzer.您還可以調(diào)整模型配置文件,以包括:要優(yōu)化的其他參數(shù)例如延遲分批。

您現(xiàn)在可以使用 Azure 機器學(xué)習(xí)部署優(yōu)化模型了。

步驟 4 :將優(yōu)化模型部署到 Azure 機器學(xué)習(xí)端點

部署優(yōu)化的人工智能模型,以便在使用 Triton 的 Azure 機器學(xué)習(xí)涉及使用托管在線端點和Azure 機器學(xué)習(xí)工作室沒有代碼接口

托管在線端點幫助您以交鑰匙方式部署 ML 模型。它負(fù)責(zé)服務(wù)、擴展、保護(hù)和監(jiān)控您的模型,將您從設(shè)置和管理底層基礎(chǔ)設(shè)施的開銷中解放出來。

要繼續(xù),請確保已下載Azure CLI,并且手頭有圖 6 所示的 YAML 文件。

poYBAGNEy6qAFNHuAADPaW8kTbY982.png

圖 6.優(yōu)化 BERT 模型的 YAML 文件

第一注冊您的模型使用上述 YAML 文件以 Triton 格式。您注冊的模型應(yīng)該類似于圖 7 ,如模型所示 Azure 機器學(xué)習(xí)工作室的頁面。

poYBAGNEy6yAGLSaAAKW2BSDK4A745.png

圖 7.Azure 機器學(xué)習(xí)工作室注冊的優(yōu)化模型

接下來,選擇 Triton 模型,選擇“部署”,然后選擇“部署到實時端點”繼續(xù)通過向?qū)?ONNX 運行時和 Triton 優(yōu)化模型部署到端點。請注意,將 Triton 模型部署到 Azure 機器學(xué)習(xí)管理端點時,不需要評分腳本。

祝賀現(xiàn)在,您已經(jīng)在 Azure 機器學(xué)習(xí)上部署了一個 BERT 小隊模型,該模型使用 ONNX 運行時和 Triton 參數(shù)優(yōu)化了推理性能。通過優(yōu)化這些參數(shù),相對于未優(yōu)化的基線 BERT 小隊模型,您的性能提高了 10 倍。

關(guān)于作者

Manuel J.Reyes Gomez 是一位經(jīng)驗豐富的數(shù)據(jù)科學(xué)和機器學(xué)習(xí)實踐者。他還是微軟公司的 NVIDIA 開發(fā)者關(guān)系經(jīng)理,負(fù)責(zé)監(jiān)督兩家公司之間的協(xié)作 AI 和 ML 項目。

Emma Ning 是微軟人工智能框架團(tuán)隊的主要項目經(jīng)理,專注于人工智能模型的操作和加速,以及開放和可互操作人工智能的 ONNX / ONNX 運行時。她在利用機器學(xué)習(xí)技術(shù)的搜索引擎領(lǐng)域擁有超過五年的產(chǎn)品經(jīng)驗,并花了六年多的時間探索人工智能在各種企業(yè)中的應(yīng)用。她熱衷于引入人工智能解決方案來解決業(yè)務(wù)問題,并提高產(chǎn)品體驗。

Lei Qiao 是微軟人工智能框架團(tuán)隊的軟件工程師,專注于深度學(xué)習(xí)模型推理加速。她在將這些加速技術(shù)集成到不同的機器學(xué)習(xí)平臺方面也很有經(jīng)驗。

Rohil Bhargava 是 NVIDIA 的產(chǎn)品營銷經(jīng)理,專注于在特定 CSP 平臺上部署 NVIDIA 應(yīng)用程序框架和 SDK 。在加入 NVIDIA 之前,羅希爾曾擔(dān)任金融服務(wù)行業(yè)的顧問和產(chǎn)品經(jīng)理。他的工作加速了人工智能在銀行遺留決策過程中的采用和分析工作流。他目前在卡內(nèi)基梅隆大學(xué)攻讀技術(shù)戰(zhàn)略 MBA ,并擁有西北大學(xué)工業(yè)工程和經(jīng)濟(jì)學(xué)學(xué)士學(xué)位。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    12

    文章

    9253

    瀏覽量

    85747
  • 人工智能
    +關(guān)注

    關(guān)注

    1792

    文章

    47497

    瀏覽量

    239211
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8428

    瀏覽量

    132835
收藏 人收藏

    評論

    相關(guān)推薦

    【「具身智能機器人系統(tǒng)」閱讀體驗】2.具身智能機器人大模型

    近年來,人工智能領(lǐng)域的大模型技術(shù)多個方向上取得了突破性的進(jìn)展,特別是機器人控制領(lǐng)域展現(xiàn)出了巨大的潛力。
    發(fā)表于 12-29 23:04

    《具身智能機器人系統(tǒng)》第7-9章閱讀心得之具身智能機器人與大模型

    共同挑戰(zhàn):如何從高維噪聲數(shù)據(jù)中提取有效特征?如何平衡模型復(fù)雜度和計算效率?如何保證系統(tǒng)真實環(huán)境中的穩(wěn)定性?書中提出的技術(shù)方案對我的工作很有啟發(fā)。多模態(tài)融合策略可用于處理異構(gòu)數(shù)據(jù)源,元學(xué)習(xí)思想可指導(dǎo)增量
    發(fā)表于 12-24 15:03

    【「具身智能機器人系統(tǒng)」閱讀體驗】+數(shù)據(jù)具身人工智能中的價值

    嵌入式人工智能(EAI)將人工智能集成到機器人等物理實體中,使它們能夠感知、學(xué)習(xí)環(huán)境并與之動態(tài)交互。這種能力使此類機器人能夠
    發(fā)表于 12-24 00:33

    Arm KleidiAI助力提升PyTorchLLM推理性能

    生成式人工智能 (AI) 正在科技領(lǐng)域發(fā)揮關(guān)鍵作用,許多企業(yè)已經(jīng)開始將大語言模型 (LLM) 集成到云端和邊緣側(cè)的應(yīng)用中。生成式 AI 的引入也使得許多框架和庫得以發(fā)展。其中,PyTorch 作為
    的頭像 發(fā)表于 12-03 17:05 ?864次閱讀
    Arm KleidiAI助力提升PyTorch<b class='flag-5'>上</b>LLM<b class='flag-5'>推理性能</b>

    Arm成功將Arm KleidiAI軟件庫集成到騰訊自研的Angel 機器學(xué)習(xí)框架

    KleidiAI 技術(shù)融入騰訊混元自研的 Angel 機器學(xué)習(xí)框架。這一合作旨在提高移動端人工智能 (AI) 服務(wù)的推理性能和效率,為用戶
    的頭像 發(fā)表于 11-24 15:33 ?733次閱讀

    嵌入式和人工智能究竟是什么關(guān)系?

    領(lǐng)域,如工業(yè)控制、智能家居、醫(yī)療設(shè)備等。 人工智能是計算機科學(xué)的一個分支,它研究如何使計算機具備像人類一樣思考、學(xué)習(xí)推理和決策的能力。人工智能
    發(fā)表于 11-14 16:39

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得

    人工智能在科學(xué)研究中的核心技術(shù),包括機器學(xué)習(xí)、深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)等。這些技術(shù)構(gòu)成了AI for Science的基石,使得AI能夠處理和分析復(fù)雜的數(shù)據(jù)集,從而發(fā)現(xiàn)隱藏在數(shù)據(jù)中的模式和規(guī)
    發(fā)表于 10-14 09:16

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第一章人工智能驅(qū)動的科學(xué)創(chuàng)新學(xué)習(xí)心得

    人工智能:科學(xué)研究的加速器 第一章清晰地闡述了人工智能作為科學(xué)研究工具的強大功能。通過機器學(xué)習(xí)、深度學(xué)習(xí)等先進(jìn)技術(shù),AI能夠處理和分析海量
    發(fā)表于 10-14 09:12

    risc-v人工智能圖像處理應(yīng)用前景分析

    人工智能推薦系統(tǒng)中強大的圖形處理器(GPU)一爭高下。其獨特的設(shè)計使得該處理器功耗受限的條件下仍能實現(xiàn)高性能的圖像處理任務(wù)。 Ceremorphic公司 :該公司開發(fā)的分層學(xué)習(xí)處理
    發(fā)表于 09-28 11:00

    開箱即用,AISBench測試展示英特爾至強處理器的卓越推理性能

    。 中國電子技術(shù)標(biāo)準(zhǔn)化研究院賽西實驗室依據(jù)國家標(biāo)準(zhǔn)《人工智能服務(wù)器系統(tǒng)性能測試規(guī)范》(征求意見稿)相關(guān)要求,使用AISBench?2.0測試工具,完成了第五代英特爾至強可擴展處理器的AI大模型
    的頭像 發(fā)表于 09-06 15:33 ?378次閱讀
    開箱即用,AISBench測試展示英特爾至強處理器的卓越<b class='flag-5'>推理性能</b>

    FPGA人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場可編程門陣列)人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個方面: 一、深度學(xué)習(xí)加速 訓(xùn)練和推理過程加速:FPGA可以用來加速深度學(xué)
    發(fā)表于 07-29 17:05

    進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級芯片

    帶寬和1.8TB/s的NVLink帶寬,使處理能力翻倍,大幅增加內(nèi)存容量和帶寬,為處理大規(guī)模人工智能模型和復(fù)雜計算提供必要資源。 針對大規(guī)模模型如GPT-MoE-1.8T,HGX B200的
    發(fā)表于 05-13 17:16

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V2)

    Aidlite-SDK模型推理 https://v2.docs.aidlux.com/sdk-api/aidlite-sdk/aidlite-python 人工智能 5G AIoT技術(shù)實踐入門與探索_V2 59分
    發(fā)表于 05-10 16:46

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    大語言模型(LLM)是人工智能領(lǐng)域的尖端技術(shù),憑借龐大的參數(shù)量和卓越的語言理解能力贏得了廣泛關(guān)注。它基于深度學(xué)習(xí),利用神經(jīng)網(wǎng)絡(luò)框架來理解和生成自然語言文本。這些模型通過訓(xùn)練海量的文本數(shù)
    發(fā)表于 05-04 23:55

    機器學(xué)習(xí)怎么進(jìn)入人工智能

    人工智能已成為一個熱門領(lǐng)域,涉及到多個行業(yè)和領(lǐng)域,例如語音識別、機器翻譯、圖像識別等。 在編程中進(jìn)行人工智能的關(guān)鍵是使用機器學(xué)習(xí)算法,這是
    的頭像 發(fā)表于 04-04 08:41 ?353次閱讀
    主站蜘蛛池模板: 日韩 国产 中文 无码| 国产精品无码亚洲精品| 色翁荡息又大又硬又粗又爽电影| 国产在线视频一区二区不卡| pkf女尸studiosxnxx| 亚洲一在线| 天天看片视频免费观看| 欧美囗交xx bbb视频| 久久热这里面只有精品| 国产精品免费视频播放| z0000性欧美| 中国videos1314tv| 亚洲精品第二页| 视频三区 国产盗摄| 欧美人xxxxx| 毛片免费观看视频| 精品一品国产午夜福利视频| 国产69精品久久久久APP下载| 99欧美精品| 87.6在线收听| 伊人久久综合网站| 亚洲欧洲日本无在线码播放| 小蝌蚪视频在线观看免费观看WWW| 青青青青青青草| 免费亚洲视频在线观看| 久热人人综合人人九九精品视频| 国产专区青青草原亚洲| 国产99热在线观看| 成人国内精品久久久久影院| 办公室日本肉丝OL在线| 99视频导航| a4you销魂gogo人体| 99国产电影| 97碰成视频免费| 99久久精品费精品国产| 99久久国产露脸精品国产吴梦梦| 5566av资源| 99久久精品久久久久久清纯| 91区国产福利在线观看午夜| 91国在线啪精品一区| 99爱视频在线观看|