色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct模型

英特爾物聯網 ? 來源:英特爾物聯網 ? 2024-10-12 09:39 ? 次閱讀

作者:

劉力 算力魔方創始人

前面我們分享了《三步完成Llama3在算力魔方的本地量化和部署》。2024年9月25日,Meta又發布了Llama3.2:一個多語言大型語言模型(LLMs)的集合,其中包括:

大語言模型:1B和3B參數版本,僅接收多種語言文本輸入。

多模態模型:11B和90B參數版本,既能接收文本輸入又能接收圖像輸入。

本文將介紹使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct模型。

1.1Llama 3.2簡介

Llama 3.2的1B和3B參數版本是一個支持多種語言大型語言模型,其指令調優純文本模型Llama-3.2-1B-Instruct和Llama-3.2-3B-Instruct,針對多語言對話用例進行了優化,包括代理檢索和摘要任務,性能參數如下圖所示。

3bc8c1f6-877f-11ef-b8af-92fbcf53809c.png

Llama3.2官方正式支持的語言包括英語、德語、法語、意大利語、葡萄牙語、印地語、西班牙語和泰語。

請讀者用下面的命令把Llama-3.2-1B-Instruct模型的預訓練權重下載到本地待用。

git clone https://www.modelscope.cn/LLM-Research/Llama-3.2-1B-Instruct.git

1.2算力魔方簡介

算力魔方是一款可以DIY的迷你主機,采用了抽屜式設計,后續組裝、升級、維護只需要拔插模塊。通過選擇不同算力的計算模塊,再搭配不同的 IO 模塊可以組成豐富的配置,適應不同場景。

性能不夠時,可以升級計算模塊提升算力;IO 接口不匹配時,可以更換 IO 模塊調整功能,而無需重構整個系統。

本文以下所有步驟將在帶有英特爾i7-1265U處理器的算力魔方上完成驗證。

1.3三步完成Llama-3.2-1B-Instruct的INT4量化和本地部署

把Llama-3.2-1B-Instruct模型的預訓練權重下載到本地后,接下來本文將依次介紹基于Optimum Intel工具將Llama-3.2-1B-Instruct進行INT4量化,并完成本地部署。

Optimum Intel作為Transformers和Diffusers庫與Intel提供的各種優化工具之間的接口層,它給開發者提供了一種簡便的使用方式,讓這兩個庫能夠利用Intel針對硬件優化的技術,例如:OpenVINO、IPEX等,加速基于Transformer或Diffusion構架的AI大模型在英特爾硬件上的推理計算性能。

Optimum Intel代碼倉連接:https://github.com/huggingface/optimum-intel

1.3.1 第一步,搭建開發環境

請下載并安裝Anaconda,然后用下面的命令創建并激活名為llama32的虛擬環境:

conda create -n llama32 python=3.11#創建虛擬環境
conda activate llama32#激活虛擬環境
python -m pip install --upgrade pip #升級pip到最新版

然后安裝Optimum Intel和其依賴項OpenVINO:

pip install optimum-intel[openvino]

1.3.2 第二步,用optimum-cli對Llama-3.2-1B-Instruct模型進行INT4量化

optimum-cli是Optimum Intel自帶的跨平臺命令行工具,可以不用編寫量化代碼,實現對Llama-3.2-1B-Instruct模型的量化。

執行命令將Llama-3.2-1B-Instruct模型量化為INT4 OpenVINO格式模型:

optimum-cli export openvino --model D:llama3Meta-Llama-3-8B --task text-generation-with-past --weight-format int4 --group-size 128 --ratio 0.8 --sym llama3_int4_ov_model

3c14a5e4-877f-11ef-b8af-92fbcf53809c.png

1.3.3第三步:編寫推理程序llama3_2_int4_ov_infer.py

基于Optimum Intel工具包的API函數編寫Llama3的推理程序,非常簡單,只需要調用五個API函數:

編譯并載入Llama-3.2模型到指定DEVICE:OVModelForCausalLM.from_pretrained()

實例化Llama-3.2模型的Tokenizer:tok=AutoTokenizer.from_pretrained()

將自然語言轉換為Token序列:tok(question, return_tensors="pt", **{})

生成答案的Token序列:ov_model.generate()

將答案Token序列解碼為自然語言:tok.batch_decode()

完整范例程序如下所示下載鏈接:git clone

https://gitee.com/Pauntech/llama3.git

import openvino as ov
from transformers import AutoConfig, AutoTokenizer
from optimum.intel.openvino import OVModelForCausalLM


ov_config = {"PERFORMANCE_HINT": "LATENCY", "NUM_STREAMS": "1", "CACHE_DIR": ""}
model_dir = "d:\llama3_2_1B_int4" #llama3.2 1B int4模型路徑
DEVICE = "CPU" #可更換為"GPU", "AUTO"...


# 編譯并載入Llama3.2模型到指定DEVICE
ov_model = OVModelForCausalLM.from_pretrained(
  model_dir,
  device=DEVICE,
  ov_config=ov_config,
  config=AutoConfig.from_pretrained(model_dir, trust_remote_code=True),
  trust_remote_code=True,
)


# 實例化Llama3.2模型的Tokenizer
tok = AutoTokenizer.from_pretrained(model_dir, trust_remote_code=True)
# 設置問題
question = "What's the OpenVINO?" 
# 將自然語言轉換為Token序列
input_tokens = tok(question, return_tensors="pt", **{})
# 生成答案的Token序列
answer = ov_model.generate(**input_tokens, max_new_tokens=128)
# 將答案Token序列解碼為自然語言
print(tok.batch_decode(answer, skip_special_tokens=True)[0])

運行llama3_2_int4_ov_infer.py:

python llama3_2_int4_ov_infer.py

運行結果,如下所示:

3c430b6e-877f-11ef-b8af-92fbcf53809c.png

1.4總結

Optimum Intel工具包簡單易用,僅需三步即可完成開發環境搭建、Llama-3.2-1B-Instruct模型INT4量化和推理程序開發。基于Optimum Intel工具包開發Llama3推理程序僅需調用五個API函數,方便快捷的實現將Llama-3.2-1B-Instruct本地化部署在基于英特爾處理器的算力魔方上。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3247

    瀏覽量

    48858
  • Meta
    +關注

    關注

    0

    文章

    271

    瀏覽量

    11393
  • 算力
    +關注

    關注

    1

    文章

    982

    瀏覽量

    14827
  • OpenVINO
    +關注

    關注

    0

    文章

    93

    瀏覽量

    207

原文標題:三步完成Llama3.2在算力魔方的INT4量化和部署|開發者實戰

文章出處:【微信號:英特爾物聯網,微信公眾號:英特爾物聯網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    LabVIEW+OpenVINOCPU上部署新冠肺炎檢測模型實戰(含源碼)

    使用LabVIEW+OpenVINOCPU上部署新冠肺炎CT圖像病害分割
    的頭像 發表于 03-23 13:34 ?1755次閱讀
    LabVIEW+<b class='flag-5'>OpenVINO</b><b class='flag-5'>在</b>CPU<b class='flag-5'>上部署</b>新冠肺炎檢測<b class='flag-5'>模型</b>實戰(含源碼)

    模型時代的需求

    現在AI已進入大模型時代,各企業都爭相部署模型,但如何保證大模型,以及相關的穩定性和性能
    發表于 08-20 09:04

    介紹STM32cubeIDE上部署AI模型的系列教程

    介紹STM32cubeIDE上部署AI模型的系列教程,開發板型號STM32H747I-disco,值得一看。MCUAI原文鏈接:【嵌入式AI開發】篇四|部署篇:STM32cubeID
    發表于 12-14 09:05

    英特爾獨立顯卡上部署YOLOv5 v7.0版實時實例分割模型

    本文將介紹基于 OpenVINO 英特爾獨立顯卡上部署 YOLOv5 實時實例分割模型的全流程,并提供完整范例代碼供讀者使用。
    的頭像 發表于 12-20 11:32 ?4104次閱讀

    使用OpenVINO?魔方上加速stable diffusion模型

    魔方一款可以DIY的迷你主機,采用了抽屜式設計,后續組裝、升級、維護只需要拔插模塊。通過選擇計算模塊的版本,再搭配不同額IO模塊可以組成豐富的配置,適應不同場景。
    的頭像 發表于 05-25 14:34 ?687次閱讀
    使用<b class='flag-5'>OpenVINO</b>?<b class='flag-5'>在</b><b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>魔方</b>上加速stable diffusion<b class='flag-5'>模型</b>

    OpenNCC上部署人臉檢測模型

    電子發燒友網站提供《OpenNCC上部署人臉檢測模型.zip》資料免費下載
    發表于 06-27 10:34 ?0次下載
    <b class='flag-5'>在</b>OpenNCC<b class='flag-5'>上部署</b>人臉檢測<b class='flag-5'>模型</b>

    PODsys:大模型AI平臺部署的開源“神器”

    的大模型研發工具和框架。平臺的部署過程中,大模型研發機構常常需要面對一系列的問題:大
    的頭像 發表于 11-08 09:17 ?912次閱讀
    PODsys:大<b class='flag-5'>模型</b>AI<b class='flag-5'>算</b><b class='flag-5'>力</b>平臺<b class='flag-5'>部署</b>的開源“神器”

    NNCF壓縮與量化YOLOv8模型OpenVINO部署測試

    OpenVINO2023版本衍生出了一個新支持工具包NNCF(Neural Network Compression Framework – 神經網絡壓縮框架),通過對OpenVINO IR格式模型的壓縮與量化更好的提升
    的頭像 發表于 11-20 10:46 ?1615次閱讀
    NNCF壓縮與量化YOLOv8<b class='flag-5'>模型</b>與<b class='flag-5'>OpenVINO</b><b class='flag-5'>部署</b>測試

    Optimum Intel三步完成Llama3魔方的本地量化和部署

    Llama3 是Meta最新發布的開源大語言模型(LLM), 當前已開源8B和70B參數量的預訓練模型權重,并支持指令微調。
    的頭像 發表于 05-10 10:34 ?1059次閱讀
    Optimum Intel三步完成<b class='flag-5'>Llama</b>3<b class='flag-5'>在</b><b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>魔方</b>的本地量化和<b class='flag-5'>部署</b>

    亞馬遜云科技正式上線Meta Llama 3.2模型

    亞馬遜云科技宣布,Meta的新一代模型Llama 3.2,包括其首款多模態模型,現已在Amazon Bedrock和Amazon SageMaker中正式可用。
    的頭像 發表于 10-11 09:20 ?519次閱讀

    亞馬遜云科技上線Meta Llama 3.2模型

    亞馬遜云科技近日宣布,Meta公司的新一代模型Llama 3.2已在其平臺上正式上線。該模型包括Meta首款多模態模型,現已在Amazon
    的頭像 發表于 10-11 18:08 ?460次閱讀

    Meta發布Llama 3.2量化版模型

    近日,Meta開源Llama 3.21B與3B模型后,再次為人工智能領域帶來了新進展。10月
    的頭像 發表于 10-29 11:05 ?397次閱讀

    使用OpenVINO Model Server在哪吒開發板上部署模型

    OpenVINO Model Server(OVMS)是一個高性能的模型部署系統,使用C++實現,并在Intel架構上的部署進行了優化,使用Open
    的頭像 發表于 11-01 14:19 ?288次閱讀
    使用<b class='flag-5'>OpenVINO</b> Model Server在哪吒開發板<b class='flag-5'>上部署</b><b class='flag-5'>模型</b>

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama 是一個開源的大語言模型服務工具,它的核心目的是簡化大語言模型(LLMs)的本地部署和運行過程,請參考《Gemma 2+Ollama
    的頭像 發表于 11-23 17:22 ?1100次閱讀
    用Ollama輕松搞定<b class='flag-5'>Llama</b> <b class='flag-5'>3.2</b> Vision<b class='flag-5'>模型</b>本地<b class='flag-5'>部署</b>

    使用NVIDIA TensorRT提升Llama 3.2性能

    Llama 3.2 模型集擴展了 Meta Llama 開源模型集的模型陣容,包含視覺語言
    的頭像 發表于 11-20 09:59 ?231次閱讀
    主站蜘蛛池模板: 久久中文字幕乱码免费| 国产精品高清在线观看地址| 99re6热这里在线精品视频| 国产亚洲精品AV麻豆狂野| 日本妈妈xxxx| 97人妻无码AV碰碰视频| 久久精品免费看网站| 一本色道久久88综合日韩精品| 国产久久精品热99看| 香蕉尹人综合精品| 国产一在线精品一区在线观看| 亚洲AV久久久久久久无码| 国产午夜精品一区二区三区| 午夜影院和视费x看| 国产午夜精品AV一区二区麻豆| 天美传媒MV高清免费看| 国产精品成人啪精品视频免费观看| 日日日操操操| 国产99精品在线观看| 歪歪漫画羞羞漫画国产| 国产亚洲精品久久久久久禁果TV | 国产AV一区二区三区传媒| 人人干人人爽| 俄罗斯15一16处交| 特级毛片内射WWW无码| 国产在线视频分类精品| 一级毛片免费在线播放| 美女脱衣服搞鸡| 成人永久免费视频| 亚洲精品电影久久久影院| 久久机热免费视频| 99这里只有是精品2| 试看2分钟AA片| 精品国产自在天天线2019| 92看看福利午夜影院| 色悠久久久久综合欧美99| 国内精品一级毛片免费看| 5566av资源| 四虎永久在线精品免费A| 久久精品一区二区三区资源网| FREECHINESE东北群交|