色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

用英特爾CPU及GPU運行OpenAI-whisper模型語音識別

英特爾物聯網 ? 來源:英特爾物聯網 ? 2024-12-03 10:14 ? 次閱讀

作者:金立彥

介紹

Whisper 作為一款卓越的自動語音識別(ASR)系統,依托海量且多元的監督數據完成訓練,其數據規模高達 680,000 小時,涵蓋多種語言及豐富多樣的任務類型,廣泛采擷自網絡資源,以此鑄就了堅實的性能根基。

從技術架構層面剖析,Whisper 構建于先進的 Transformer 框架之上,采用經典的編碼器 - 解碼器模型設計,也就是廣為人知的序列到序列模型范式。運作流程上,先是由特征提取器對原始音頻輸入展開精細處理,將其轉換為對數梅爾頻譜圖,以此完成音頻數據的初次 “編碼”,提煉關鍵特征信息。緊接著,Transformer 編碼器發揮強大的編碼效能,深度解析頻譜圖蘊含的信息,進而凝練形成一系列編碼器隱藏狀態,為后續文本生成筑牢信息基石。最終環節,解碼器粉墨登場,以前續已生成的文本標記以及編碼器隱藏狀態作為關鍵參照條件,遵循自回歸原理,按順序逐次預測文本標記,精準高效地實現從音頻到文本的轉換輸出,展現出高水準的語音識別能力。

2d8d6a88-ae3a-11ef-93f3-92fbcf53809c.png

在本次教程里,我們將聚焦于如何借助 OpenVINO 高效運行 Whisper,解鎖其強大的語音識別功能。為了快速上手、搭建應用,我們選用 Hugging Face Transformers 庫中經過精心預訓練的 Whisper 模型,充分利用其豐富且優質的參數設定與知識沉淀,作為項目開展的有力基石。緊接著,借助 Hugging Face Optimum Intel 庫,能夠輕松達成模型格式的無縫轉換,將原本的模型精準轉化為 OpenVINO IR 格式,這種格式專為 OpenVINO 生態量身定制,在推理速度、資源利用效率等諸多方面優勢盡顯,為后續流暢運行筑牢根基。

尤為值得一提的是,為了全方位簡化用戶在操作過程中的使用體驗,我們引入便捷且高效的 OpenVINO Generate API,依托這一得力工具,去逐一落實 Whisper 自動語音識別的各場景應用,無論是實時語音轉錄,還是音頻文件批量處理等,都能游刃有余,助力開發者以更低門檻、更高效率,駕馭 Whisper 與 OpenVINO 協同帶來的卓越語音識別能力。

準備工作

依賴庫安裝

鑒于教程依托 OpenVINO - GenAI API 來開展各項驗證,相應依賴環境的妥善搭建就成了至關重要的前置環節。為確保整個運行體系的穩定性、獨立性與純凈性,強烈推薦借助 Python 的虛擬環境來執行安裝操作。Python 虛擬環境能夠有效隔離不同項目所需的依賴包及配置信息,避免因版本沖突、庫依賴混淆等常見問題干擾項目推進,讓 OpenVINO - GenAI API 所需的各類依賴組件得以精準、有序且互不干擾地完成部署,為后續流暢、高效運用該 API 筑牢堅實根基,從而保障整個語音識別功能開發與實踐過程順遂無憂。

pip install -q "torch>=2.3" "torchvision>=0.18.1" --extra-index-url https://download.pytorch.org/whl/cpu
pip install -q "transformers>=4.45" "git+https://github.com/huggingface/optimum-intel.git" --extra-index-url https://download.pytorch.org/whl/cpu
pip install -q -U "openvino>=2024.5.0" "openvino-tokenizers>=2024.5.0" "openvino-genai>=2024.5.0" --extra-index-url https://download.pytorch.org/whl/cpu
pip install -q datasets "gradio>=4.0" "soundfile>=0.12" "librosa" "python-ffmpeg<=1.0.16"
pip install -q "nncf>=2.14.0" "jiwer" "typing_extensions>=4.9"
pip install -q "numpy<2.0"

在安裝 openvino-genai 時需特別留意,務必添加 “--extra-index-urlhttps://download.pytorch.org/whl/cpu” 這一參數,若不添加,后續調用 ov_genai.WhisperPipeline 方法時會出現找不到該方法的問題。此外,若使用的是 Windows 平臺,還需關注 numpy 版本情況。鑒于可能存在的版本兼容性問題,建議將 numpy 版本降至 2.0 以下;要是遇到因版本不兼容而彈出提示的狀況,可直接注釋掉源文件,以此確保 openvino-genai 能夠順利安裝與運行。

模型下載

模型下載具備兩種可選方式。其一,借助 Hugging Face Optimum Intel 平臺執行下載操作。倘若在此過程中遭遇下載受阻的情形,可靈活通過配置國內鏡像站來完成下載路徑的轉換,順利達成下載任務。不過需要注意的是,鑒于相關模型的數據體量頗為龐大,在模型轉換階段對內存容量有著較高要求,一旦設備內存過小,極有可能致使系統運行異常,甚至出現崩潰狀況。

其二,可選擇直接從 Hugging Face 下載由 intel 預先轉換好的模型,這種方式更為便捷直接,免去了自行轉換可能面臨的內存等諸多困擾,可按需擇優選用。

以下為目前所有支持的模型清單,供參考使用。

model_ids = {
  "Multilingual models": [
    "openai/whisper-large-v3-turbo",
    "openai/whisper-large-v3",
    "openai/whisper-large-v2",
    "openai/whisper-large",
    "openai/whisper-medium",
    "openai/whisper-small",
    "openai/whisper-base",
    "openai/whisper-tiny",
  ],
  "English-only models": [
    "distil-whisper/distil-large-v2",
    "distil-whisper/distil-large-v3",
    "distil-whisper/distil-medium.en",
    "distil-whisper/distil-small.en",
    "openai/whisper-medium.en",
    "openai/whisper-small.en",
    "openai/whisper-base.en",
    "openai/whisper-tiny.en",
  ],}

Hugging Face Optimum Intel

若計劃通過 Hugging Face Optimum Intel 途徑來獲取所需內容,有兩種便捷方式可供選擇。

其一,可前往官方代碼倉庫

https://github.com/huggingface/optimum-intel.git

手動進行下載操作,按照頁面指引與常規代碼拉取流程,便能順利將相關資源保存至本地。其二,更為高效的方式則是借助 pip 工具,在命令行輸入 “pip install optimum-intel”,系統便會自動連接網絡資源,開啟下載與安裝進程,輕松將 optimum-intel 模塊部署到位。

然而,在實際操作過程中,可能會遇到因網絡限制、服務器擁堵等因素導致的下載不暢甚至失敗的狀況。此時,巧妙配置國內鏡像站就能有效破解難題,確保下載順利推進。具體而言,配置國內鏡像站后,下載命令如下(示例以常用的國內知名鏡像站為例,實際可按需靈活選用適配鏡像):在命令行輸入 “pip install -i [鏡像站地址] optimum-intel”,比如使用清華鏡像站時,命令便是 “pip install -i https://pypi.tuna.tsinghua.edu.cn/simpleoptimum-intel”,以此借力國內優質鏡像資源,快速、穩定地完成下載任務。

optimum-cli export openvino --model [模型] --library transformers --task
automatic-speech-recognition-with-past --framework pt [保存路徑]

如:

optimum-cli export openvino 
--model openai/whisper-large-v3-turbo 
--library transformers --task automatic-speech-recognition-with-past 
--framework pt models/whisper-large-v3-turbo

Hugging FaceAPI下載

在模型應用場景中,若設備性能與存儲條件理想,達到轉換要求,那我們可自行將模型轉換為 OpenVINO 格式,轉換完成后便能順暢投入使用,盡享 OpenVINO 帶來的高效推理優勢。然而,現實情況復雜多變,部分設備受限于硬件規格,諸如內存容量捉襟見肘、處理器性能差強人意,難以滿足模型轉換所需條件。但這并不意味著與 OpenVINO 格式模型的便捷體驗失之交臂,借助 Hugging Face 的 API,我們得以另辟蹊徑。只需簡單操作,就能直接從 Intel 的資源庫中獲取已完美轉換好的 OpenVINO 格式模型,跳過繁瑣復雜的轉換流程,即便設備性能欠佳,也能初步體驗其魅力,雖說推理速度或許稍慢一些,可也為更多設備、更多使用者推開了一扇通往高效模型應用的大門。

安裝Hugging Faceapi

pip install huggingface_hub

下載模型

import huggingface_hub as hf_hub
# 模型id
model_id = "Intel/whisper-large-v2-onnx-int4-inc"
# 模型保存的位置
model_path = "whisper-large-v2-onnx-int4-inc"


hf_hub.snapshot_download(model_id, local_dir=model_path)

具體所支持模型可以查看:

https://huggingface.co/Intel

設置國內鏡像

如果無法下載,可以設置鏡像下載為https://hf-mirror.com,只需要設置環境變量即可。

Linux

export HF_ENDPOINT=https://hf-mirror.comCopy

Windows Powershell

$env:HF_ENDPOINT = "https://hf-mirror.com"

推理

mport librosa
# 推理設備,可以是CPU,GPU,NPU
device = “”
en_raw_speech, samplerate = librosa.load(音頻文件, sr=16000)
import openvino_genai
ov_pipe = openvino_genai.WhisperPipeline(str(model_path), device=device.value)
start = time.time()
genai_result = ov_pipe.generate(en_raw_speech)
print('generate:%.2f seconds' % (time.time() - start)) # 輸出推理時間
print(f"result:{genai_result}")

2d9d6dfc-ae3a-11ef-93f3-92fbcf53809c.png

總結

通過本文,您將學習如何利用OpenVINO框架結合Intel的CPU和GPU硬件,快速高效地實現OpenAI Whisper模型的語音識別。OpenVINO作為一個強大的深度學習推理優化工具,可以顯著提升模型推理的速度和性能,尤其是在Intel的硬件平臺上。在本教程中,我們將詳細介紹如何配置OpenVINO環境,如何將OpenAI Whisper模型轉換為OpenVINO支持的格式,以及如何在Intel的CPU和GPU上運行該模型進行語音識別。

未來,借助OpenVINO框架,您將能夠輕松實現更多語音識別相關的應用案例,例如多語種語音轉文本、語音命令識別以及智能助手等。OpenVINO的跨平臺能力和對多種硬件的支持,使其成為AI開發者進行高效推理加速的理想選擇。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 語音識別
    +關注

    關注

    38

    文章

    1742

    瀏覽量

    112787
  • ASR
    ASR
    +關注

    關注

    2

    文章

    43

    瀏覽量

    18765
  • Whisper
    +關注

    關注

    0

    文章

    3

    瀏覽量

    5004

原文標題:開發者實戰|用英特爾CPU及GPU運行OpenAI-whisper模型語音識別

文章出處:【微信號:英特爾物聯網,微信公眾號:英特爾物聯網】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    釜底抽薪,英特爾挖了AMD的GPU墻角

    電子發燒友網報道(文/黃山明)中央處理器(CPU)作為計算機的運算與控制核心,也是信息處理、程序運行的最終執行單元。而說到CPU,就不得不提英特爾與AMD這兩家巨頭,在
    的頭像 發表于 02-22 09:05 ?4641次閱讀

    英特爾多款平板電腦CPU將于明年推出

    ` 中關村在線 據外媒Phone Arena報道,英特爾多款平板電腦CPU將于明年推出,達到擴大產品的覆蓋范圍,同時也能擴大產品的生產數量。相信在不久的明天,不管是在入門級還是旗艦級的平板電腦
    發表于 12-19 16:48

    如何才能在英特爾CPU第8代的主板上運行Windows Vista

    如何才能在英特爾CPU第8代的主板上運行Windows Vista以上來自于谷歌翻譯以下為原文how can i make it possible to run Windows Vista on a motherboard wi
    發表于 10-17 11:52

    OpenCL平臺和英特爾Stratix 10 FPGA的結合使用

    18 幅圖像的速度每秒處理 3,015 幅圖像。? 這些數字表明,英特爾 Stratix 10 FPGA 在處理大批量任務時完全可媲美其他高性能計算(HPC)器件(如 GPU), 在處理小批量任務時則比其他器件更快。
    發表于 07-17 06:34

    英特爾重點發布oneAPI v1.0,異構編程器到底是什么

    。oneAPI是什么?oneAPI是一個統一的、簡化的編程模型,旨在簡化跨多架構的開發過程(如CPU、GPU、FPGA、加速器)。oneAPI包含兩個組成部分:一項產業計劃和一款英特爾
    發表于 10-26 13:51

    英特爾媒體加速器參考軟件Linux版用戶指南

    英特爾媒體加速器參考軟件是用于數字標志、交互式白板(IWBs)和亭位使用模型的參考媒體播放器應用軟件,它利用固定功能硬件加速來提高媒體流速、改進工作量平衡和資源利用,以及定制的圖形處理股(GPU)管道解決方案。該用戶指南將介紹和
    發表于 08-04 06:34

    英特爾cpu命名規則_英特爾cpu分類有哪些_英特爾cpu性能排行榜

    英特爾CPU是一款CPU處理器,適用于臺式電腦。我們來看看英特爾CPU的命名規則、英特爾
    發表于 01-04 14:59 ?3.9w次閱讀

    英特爾cpu型號及分類_cpu分類及介紹_英特爾最新cpu系列

    英特爾是美國一家主要以研制CPU處理器的公司,是全球最大的個人計算機零件和CPU制造商,它成立于1968年,具有48年產品創新和市場領導的歷史。英特爾
    發表于 01-04 15:52 ?17.6w次閱讀

    黃仁勛歡迎英特爾進入GPU市場

    數據中心市場,也就是GPU加速運算,這免不了要跟AMD、NVIDIA有競爭關系,特別是對GPU領域的老大NVIDIA來說。NVIDIA應該擔心英特爾嗎?
    發表于 03-26 14:02 ?703次閱讀

    英特爾想讓CPUGPU和FPGA說“同一種語言”

    英特爾的技術活動“互聯日”(Interconnect Day) 上,英特爾處理器互聯架構部主任 Stephen Van Doren 指出了現如今 PCI-e 作為互聯技術的瓶頸所在:科技行業正在
    發表于 06-11 17:50 ?944次閱讀

    英特爾未來的芯片都將集成語音識別技術

    據悉,英特爾目前已經與語音識別技術公司 Sensory 達成了合作,將在以后的 Intel 最新的芯片中集成整合 Sensory 公司的 TrulyHandsfree 語音
    發表于 12-20 11:29 ?881次閱讀

    解讀英特爾GPU架構

    來源:半導體行業觀察 在英特爾2020年度架構日中,英特爾將大量時間用于討論公司的GPU架構計劃。雖然這對英特爾來說并非罕見,但目前該公司仍然以CP
    的頭像 發表于 09-04 16:47 ?6606次閱讀
    解讀<b class='flag-5'>英特爾</b><b class='flag-5'>GPU</b>架構

    英特爾放棄同時封裝 CPU、GPU、內存計劃

    英特爾CPUGPU 和內存芯片拼接在一個稱為 XPU 的單一封裝上的宏偉計劃已經暫緩。英特爾超級計算集團副總裁杰夫·麥克維 (Jeff McVeigh) 透露,該公司的 Falc
    的頭像 發表于 05-26 15:26 ?1379次閱讀

    重塑翻譯與識別技術:開源語音識別模型Whisper的編譯優化與部署

    模型介紹Whisper模型是一個由OpenAI團隊開發的通用語音識別
    的頭像 發表于 01-06 08:33 ?3775次閱讀
    重塑翻譯與<b class='flag-5'>識別</b>技術:開源<b class='flag-5'>語音</b><b class='flag-5'>識別</b><b class='flag-5'>模型</b><b class='flag-5'>Whisper</b>的編譯優化與部署

    英特爾助力京東云CPU加速AI推理,以大模型構建數智化供應鏈

    英特爾助力京東云CPU加速AI推理,以大模型構建數智化供應鏈
    的頭像 發表于 05-27 11:50 ?567次閱讀
    <b class='flag-5'>英特爾</b>助力京東云<b class='flag-5'>用</b><b class='flag-5'>CPU</b>加速AI推理,以大<b class='flag-5'>模型</b>構建數智化供應鏈
    主站蜘蛛池模板: 青年医生插曲| 18岁男人女人插孔| 99er热精品视频国产免费| 国产欧美二区综合| 青柠电影高清在线观看| 中文字幕亚洲欧美日韩2019| 国产亚洲精品AAAAAAA片| 人妻无码AV中文系列| 777黄色片| 久久视频在线视频观品15 | 看美女大腿中间的部分| 亚洲精品久久国产高清| 国产高清-国产av| 日本视频一区二区免费观看| 99re2.久久热最新地址| 久久re6热在线视频精品| 亚洲精品久久午夜麻豆| 国产精品婷婷久青青原| 神马伦理2019影院不卡片| 成人AV精品视频| 欧美精品色视频| 性xxxx直播放免费| 第一福利在线永久视频| 欧美性爱-第1页| 99国产精品人妻无码免费| 巨爆乳中文字幕爆乳区| 亚洲性无码av在线| 国产在线精品视频资源| 迅雷哥在线观看高清| 国产剧情麻豆mv| 无码专区久久综合久综合字幕| 国产69TV精品久久久久99| 日韩精品一区VR观看| 草莓AV福利网站导航| 换脸国产AV一区二区三区| 琪琪伦伦影院理论片| 99热都是精品| 女性性纵欲派对| chinese学生gv video| 免费果冻传媒在线完整观看| 中文字幕在线不卡日本v二区 |