色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從DeepSeek到Qwen,AI大模型的移植與交互實戰(zhàn)指南-飛凌嵌入式

飛凌嵌入式 ? 2025-03-28 08:06 ? 次閱讀

在不久前發(fā)布的技術(shù)實戰(zhàn) | OK3588-C開發(fā)板上部署DeepSeek-R1大模型的完整指南一文中,小編為大家介紹了DeepSeek-R1在飛凌嵌入式OK3588-C開發(fā)板上的移植部署、效果展示以及性能評測,本篇文章不僅將繼續(xù)為大家?guī)黻P(guān)于DeepSeek-R1的干貨知識,還會深入探討多種平臺的移植方式,并介紹更為豐富的交互方式,幫助大家更好地應(yīng)用大語言模型。

wKgZPGfmVmiAWX_lAAEuZvSlseo582.jpg

1、移植過程

1.1 使用RKLLM-Toolkit部署至NPU

RKLLM-Toolkit是瑞芯微為大語言模型(LLM)專門開發(fā)的轉(zhuǎn)換與量化工具,可以將訓(xùn)練好的模型轉(zhuǎn)化為適應(yīng)瑞芯微平臺的RKLLM格式。該工具針對大語言模型進行了優(yōu)化,使其能高效地在瑞芯微的NPU(神經(jīng)網(wǎng)絡(luò)處理單元)上運行。上一篇文章中提到的部署方式即為通過RKLLM-Toolkit進行的NPU部署。具體步驟如下:

(1) 下載RKLLMSDK:

首先從GitHub下載RKLLMSDK包,并上傳至虛擬機。SDK下載鏈接:

[GitHub- airockchip/rknn-llm](https://github.com/airrockchip/rknn-llm)。

wKgZO2fmVmiAbyrVAAHCyrtixI8410.png

(2) Python版本檢查:

確保安裝的SDK版本與目標環(huán)境兼容(目前只支持python3.8或python3.10)。

wKgZPGfmVmiAElUVAAAaAjF8RHA642.png

(3) 準備虛擬機環(huán)境:

在虛擬機中安裝rkllm-toolkit輪子,輪子包路徑(rknn-llm-main\rkllm-toolkit)。

pipinstall rkllm_toolkit-1.1.4-cp38-cp38-linux_x86_64.whl
wKgZPGfmVmiAaxYaAATePg4duaQ022.png

(4) 下載模型:

選擇需要部署的DeepSeek-R1模型。

gitclonehttps://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B
wKgZO2fmVmiAF8BeAAHfEzByIlI045.png

(5) 使用示例代碼進行模型轉(zhuǎn)換:

rknn-llm-main\examples\DeepSeek-R1-Distill-Qwen-1.5B_Demo路徑下,使用RKLLM-Toolkit提供的示例代碼進行模型格式轉(zhuǎn)換。

pythongenerate_data_quant.py -m /path/to/DeepSeek-R1-Distill-Qwen-1.5B

pythonexport_rkllm.py

wKgZO2fmVmiAXpIdAAHmCYO8cX8717.png

(6) 編譯可執(zhí)行程序:

通過運行deploy下build-linux.sh腳本(將交叉編譯器路徑替換為實際路徑)直接編譯示例代碼。這將在目錄中生成一個文件夾,其中包含可執(zhí)行文件和文件夾。

wKgZPGfmVmiAeQ7VAAEYivniTnM438.png

進行交叉編譯生成可執(zhí)行文件。

./build-linux.sh
wKgZPGfmVmmAXnpMAAOdCpj2wF0440.png

(7) 部署模型:

將已編譯好的_W8A8_RK3588.rkllm文件和librkllmrt.so動態(tài)庫文件(路徑為:rknn-llm-main\rkllm-runtime\Linux\librkllm_api\aarch64 ),一同拷貝到編譯后生成的build_linux_aarch64_Release文件夾內(nèi),然后將此文件夾上傳到目標板端。

接著,為目標板端build_linux_aarch64_Release文件夾中的 llm_demo 文件添加執(zhí)行權(quán)限并執(zhí)行它。

chmod+x llm_demo

./llm_demo_W8A8_RK3588.rkllm 10000 10000

wKgZPGfmU3SAAoW3AA7EenqgLYw127.png演示效果圖1

優(yōu)勢與不足:

- 優(yōu)勢:部署至NPU后,大語言模型能高效運行,性能表現(xiàn)優(yōu)異,且對CPU資源的占用較少。

- 不足:相較于其他方法,部署過程稍顯復(fù)雜,需要較強的技術(shù)背景和經(jīng)驗。

1.2 使用Ollama一鍵部署至CPU

Ollama是一個開源的本地化大型語言模型(LLM)運行框架,支持在本地環(huán)境下運行各種開源LLM模型(如LLaMA、Falcon等),并提供跨平臺支持(macOS、Windows、Linux)。

通過Ollama,用戶可以無需依賴云服務(wù),輕松部署和運行各種大語言模型。盡管Ollama支持快速部署,但由于DeepSeek-R1尚未在RK3588芯片上進行優(yōu)化,因此只能在CPU上運行,可能會占用較高的CPU資源。具體步驟如下:

(1) 下載Ollama:

根據(jù)需要下載并安裝Ollama,

curl-fsSL https://ollama.com/install.sh | sh

若下載速度較慢,可參考以下鏡像方式進行加速。

curl-fsSL https://ollama.com/install.sh -o ollama_install.sh

chmod+x ollama_install.sh

sed-i 's|https://ollama.com/download/|https://github.com/ollama/

ollama/releases/download/v0.5.7/|'ollama_install.sh

shollama_install.sh

wKgZO2fmVmmAd4kyAACJYlrcTnY676.png

(2) 查看Ollama結(jié)果:

確認Ollama正確安裝,并運行相關(guān)命令查看部署結(jié)果。

Ollama--help
wKgZO2fmVmmAYThaAAAi9UvcNmY651.png

(3) 下載DeepSeek-R1:

從Ollama官網(wǎng)渠道獲取下載DeepSeek-R1模型的指令。

wKgZPGfmVmmAWyiuAAEvREVFm5s693.png

(4) 運行DeepSeek-R1:

通過Ollama命令行接口啟動DeepSeek-R1模型。

ollamarun deepseek-r1:1.5b
wKgZPGfmVFSABx8BAA7MStAj0Nc912.png演示效果圖2

優(yōu)勢與不足:

- 優(yōu)勢:部署過程簡便快捷,適合快速測試和應(yīng)用。

- 不足:因模型未針對RK3588優(yōu)化,在CPU上運行時可能導(dǎo)致較高的CPU占用,影響性能。

2、在FCU3001平臺上部署其他大模型

除了DeepSeek-R1,Ollama還支持部署其他大語言模型,如通義千問(Qwen)等,這展示了Ollama的廣泛適用性。接下來,我們以通義千問為例,在飛凌嵌入式推出的一款搭載英偉達處理器的AI邊緣計算終端 FCU3001(基于NVIDIA Jetson Xavier NX處理器)上部署大語言模型:

FCU3001通過其強大的計算能力和優(yōu)化的軟件支持,能夠高效地運行Ollama所支持的大語言模型,如通義千問。在部署過程中,我們可以充分利用Ollama提供的靈活性和易用性,確保大語言模型在FCU3001上穩(wěn)定、流暢地運行。步驟如下:

(1) 安裝CUDA環(huán)境:

可以使用NVIDIA Jetson Xavier NX的GPU來運行模型。Ollama的安裝方法可以參考上述。

sudoapt update

sudoapt upgrade

sudoapt installnvidia-jetpack -y

(2) 進入Ollama官網(wǎng):

瀏覽Ollama支持的其他模型。

wKgZPGfmVmmAXHDDAAEFRoKfPTA708.png

(3) 選擇版本:

從Ollama支持的模型列表中選擇千問Qwen1.8B版本。

wKgZO2fmVmmATSOyAAFfxX5o-dE485.png

(4) 運行模型:

在Ollama環(huán)境下,使用命令ollamarun qwen:1.8b啟動通義千問模型。

ollamarunqwen:1.8b
wKgZPGfmVW2AbbrXAAlVShAbOXU649.png演示效果圖3

3、交互方式

在前述的部署方式中,交互方式主要基于串口調(diào)試,缺少圖形界面,無法展示圖片、表單等元素,也不能呈現(xiàn)歷史對話。為了提升用戶體驗,我們可以通過集成ChatboxUI或WebUI等方式,提供更為豐富的交互體驗。

3.1 Chatbox UI

Chatbox是一款集成多種語言模型的AI助手工具,支持如ChatGPT、Claude等多種模型。它不僅具備本地數(shù)據(jù)存儲和多語言切換功能,還支持圖像生成、Markdown和LaTeX等格式,提供人性化的界面和團隊協(xié)作功能。Chatbox支持Windows、macOS、Linux系統(tǒng),用戶可在本地快速實現(xiàn)對大語言模型的交互。步驟如下:

(1) 下載Chatbox:

從Chatbox官網(wǎng)(https://chatboxai.app/zh)下載適合的安裝包。

wKgZO2fmVmmAPY4MAACZn-eGOjM973.png

(2) 安裝并配置:

下載完成后是一個Chatbox-1.10.4-arm64.AppImage的文件,其實就是一個可執(zhí)行文件,添加權(quán)限即可運行,就可以配置本地ollamaAPI下的LLM模型了。

chmod+x Chatbox-1.10.4-arm64.AppImage

./Chatbox-1.10.4-arm64.AppImage

wKgZPGfmVmmAWa2AAAGXJrIoWSg309.pngwKgZO2fmVmqAFCx5AAHPhadVnTo718.png

(3) 問答對話:

用戶可以通過直觀的圖形界面與模型進行交流,體驗更為便捷、流暢的交互。

wKgZPGfmVcWAFgVQABA2QXKD9Ks577.png

演示效果圖4

3.2 Web UI

WebUI通過網(wǎng)頁或網(wǎng)絡(luò)應(yīng)用提供圖形化用戶界面,使得用戶能夠輕松通過瀏覽器與大語言模型進行交互。用戶只需在瀏覽器中訪問相應(yīng)的IP地址和端口號,即可進行實時提問。步驟如下:

(1) Web UI環(huán)境搭建:

配置WebUI所需的環(huán)境。WebUI建議使用python3.11版本。所以使用的Miniconda創(chuàng)建python==3.11虛擬環(huán)境。

安裝Miniconda

wgethttps://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-aarch64.sh

chmod+x Miniconda3-latest-Linux-aarch64.sh

./Miniconda3-lates

wKgZPGfmVmqAQmZJAAFPhzFOWFg180.png

搭建WebUI環(huán)境。

condacreate --name Web-Ui python=3.11

condaactivate Web-Ui

pipinstall open-webui -i https://pypi.tuna.tsinghua.edu.cn/simple


(2) 啟動WebUI:

使用open-webuiserve啟動WebUI應(yīng)用,服務(wù)器的IP地址和端口號為0.0.0.0:8080。

open-webuiserve

(3) 訪問WebUI:

在瀏覽器中輸入IP地址和端口號,打開WebUI界面,開始與大語言模型互動。

注冊賬號

wKgZO2fmVgCAbhbbAA-lBQNtgTA379.png演示效果圖5

4、總結(jié)

本文全面展示了OK3588-C開發(fā)板及FCU3001邊緣AI網(wǎng)關(guān)上大語言模型的多種移植方式,并介紹了如何通過ChatboxUI和WebUI等多種交互方式提升用戶體驗。

飛凌嵌入式推出了多款嵌入式AI產(chǎn)品,如OK3588-C、OK3576-C、OK-MX9352-C、OK536-C等開發(fā)板,還有AI邊緣計算終端FCU3001,算力范圍從0.5TOPS到21TOPS不等,可以滿足不同客戶的AI開發(fā)需求。如果您對這些產(chǎn)品感興趣,歡迎隨時與我們聯(lián)系,飛凌嵌入式將為您提供詳細的技術(shù)支持與指導(dǎo)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 嵌入式
    +關(guān)注

    關(guān)注

    5114

    文章

    19339

    瀏覽量

    311309
  • 移植
    +關(guān)注

    關(guān)注

    1

    文章

    390

    瀏覽量

    28393
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    32937

    瀏覽量

    272599
  • 飛凌嵌入式
    +關(guān)注

    關(guān)注

    2

    文章

    96

    瀏覽量

    336
  • AI大模型
    +關(guān)注

    關(guān)注

    0

    文章

    348

    瀏覽量

    415
收藏 1人收藏
  • fffsamet1

評論

相關(guān)推薦

嵌入式技術(shù)創(chuàng)新日(深圳站)精彩回顧

向前,5大展區(qū)便映入眼簾。 全產(chǎn)品矩陣展區(qū)展示了嵌入式豐富的產(chǎn)品線,嵌入式板卡到工控機,再到豐富的動態(tài)演示方案,無不體現(xiàn)了
發(fā)表于 08-28 09:06

RK3588開發(fā)板上部署DeepSeek-R1大模型的完整指南

實用的建議,成為用戶在各領(lǐng)域探索時的可靠伙伴。 (1)普通信息搜索 DeepSeek-R1能夠快速檢索并提供準確的信息。例如,當詢問“保定嵌入式技術(shù)有限公司”時,
發(fā)表于 02-27 16:45

Deepseek移植i.MX 8MP|93 EVK的步驟

此共享介紹了如何將 deepseek 移植i.MX93EVK使用 llama.cpp 的 Yocto BSP 本文檔使用的主要測試模型是在 dee
發(fā)表于 03-26 06:08

嵌入式亮相2014工業(yè)計算機及嵌入式系統(tǒng)展

8月6日8日 ,2014工業(yè)計算機及嵌入式系統(tǒng)展在深圳會展中心隆重舉行。嵌入式受主辦方邀請參加這個
發(fā)表于 08-15 14:03

關(guān)于飛嵌入式

`企業(yè)概況保定嵌入式技術(shù)有限公司是華智集團旗下的一家專注于ARM嵌入式核心控制系統(tǒng)研發(fā)、設(shè)計和生產(chǎn)的專業(yè)板卡制造企業(yè)。經(jīng)過多年發(fā)展,公司擁有了業(yè)內(nèi)一流的軟硬件研發(fā)團隊,建立了北京和
發(fā)表于 05-13 17:30

淺談公司嵌入式開發(fā)板的一鍵燒寫

、Cortex-A9等全系列的ARM開發(fā)板,所以對嵌入式的理解有其獨到的見解,公司的一鍵燒寫的方式可以窺見一斑,其一鍵燒寫功能普遍應(yīng)用于飛
發(fā)表于 05-20 16:43

嵌入式OK210試用活動中獎名單新鮮出爐

嵌入式舉辦的OK210開發(fā)板試用活動圓滿結(jié)束,非常感謝大家對的支持。本次活動我們共發(fā)出100塊OK210試用開發(fā)板,得到了眾多朋友
發(fā)表于 12-22 16:38

嵌入式平臺選型資料U盤 免費發(fā)放-嵌入式

ARM相關(guān)技術(shù)日新月異,嵌入式開發(fā)平臺玲瑯滿目,工程師在對產(chǎn)品進行選型時往往會感到困惑。為了幫助您更方便的進行選型,我們整理了公司基于NXP、TI、SAMSUNG等品牌的主流開發(fā)板資料與一些
發(fā)表于 01-05 09:47

嵌入式FET2440核心板介紹

嵌入式
的頭像 發(fā)表于 12-02 09:07 ?3403次閱讀
<b class='flag-5'>飛</b><b class='flag-5'>凌</b><b class='flag-5'>嵌入式</b>FET2440核心板介紹

嵌入式AI入門日記】將 AI 模型移植 RT-Thread 上(1)

本期我們分享主題是如何將 AI 模型部署嵌入式系統(tǒng)中,下一期將介紹如何在 RT-Thread 操作系統(tǒng)上運行 Mnist Demo(手寫數(shù)字識別)。
發(fā)表于 01-26 17:08 ?3次下載
【<b class='flag-5'>嵌入式</b><b class='flag-5'>AI</b>入門日記】將 <b class='flag-5'>AI</b> <b class='flag-5'>模型</b><b class='flag-5'>移植</b><b class='flag-5'>到</b> RT-Thread 上(1)

坐標蘇州,嵌入式華東技術(shù)服務(wù)中心成立

嵌入式“華東技術(shù)服務(wù)中心”在蘇州正式成立,這是繼華南技術(shù)服務(wù)中心(深圳)之后嵌入式開設(shè)的
的頭像 發(fā)表于 06-16 09:13 ?664次閱讀
坐標蘇州,<b class='flag-5'>飛</b><b class='flag-5'>凌</b><b class='flag-5'>嵌入式</b>華東技術(shù)服務(wù)中心成立

嵌入式「端午節(jié)放假通知」

嵌入式「端午節(jié)放假通知」
的頭像 發(fā)表于 06-07 08:02 ?567次閱讀
<b class='flag-5'>飛</b><b class='flag-5'>凌</b><b class='flag-5'>嵌入式</b>「端午節(jié)放假通知」

劇透!「嵌入式技術(shù)創(chuàng)新日」3大亮點搶先看

6月25日,嵌入式技術(shù)創(chuàng)新日(北京站)即將開幕,一場嵌入式前沿科技的高端局就在眼前。
的頭像 發(fā)表于 06-20 17:05 ?1001次閱讀
劇透!「<b class='flag-5'>飛</b><b class='flag-5'>凌</b><b class='flag-5'>嵌入式</b>技術(shù)創(chuàng)新日」3大亮點搶先看

嵌入式2024年度盤點】乘風(fēng)破浪,奮力前行

2024年即將落下帷幕,回首這一年,嵌入式乘風(fēng)破浪,奮力前行,創(chuàng)造了發(fā)展新篇章,站在2025年的開端,讓我們重溫
的頭像 發(fā)表于 01-04 13:22 ?489次閱讀
【<b class='flag-5'>飛</b><b class='flag-5'>凌</b><b class='flag-5'>嵌入式</b>2024年度盤點】乘風(fēng)破浪,奮力前行

新生態(tài) 智未來「嵌入式2025嵌入式及邊緣AI技術(shù)論壇」開啟報名!

在這個技術(shù)日新月異的時代,每一場思想的碰撞都可能成為推動行業(yè)前行的力量,每一次深度對話都可能迸發(fā)出改變時代的強光——2025年4月22日,嵌入式將在深圳舉辦“2025嵌入式及邊緣
的頭像 發(fā)表于 03-28 08:05 ?282次閱讀
新生態(tài) 智未來「<b class='flag-5'>飛</b><b class='flag-5'>凌</b><b class='flag-5'>嵌入式</b>2025<b class='flag-5'>嵌入式</b>及邊緣<b class='flag-5'>AI</b>技術(shù)論壇」開啟報名!
主站蜘蛛池模板: 久久精品国产亚洲AV妓女不卡 | 成人免费视频在线观看 | 亚洲精品九色在线网站 | 国产爱豆剧果冻传媒在线 | 果冻传媒在线观看视频 | 国产精品欧美一区二区在线看 | 中文字幕亚洲无线码在线 | 99久久亚洲精品日本无码 | 久久视频在线视频观看精品15 | 99re久久免费热在线视频手机 | 在线国产视频观看 | 国产亚洲精品久久精品录音 | 亚洲无AV在线中文字幕 | 国产精品人妻在线观看 | 国产精品综合AV一区二区国产馆 | 一本到2019线观看 | jizz日本女人 | 羞羞在线观看 | 国产精品玖玖玖影院 | 久久6699精品国产人妻 | 漂亮的保姆3集电影免费观看中文 | 99爱视频在线观看 | 男子扒开美女尿口做羞羞的事 | 寻找最美乡村教师颁奖晚会 | 揉抓捏打抽插射免费视频 | 国产精品视频第一区二区三区 | 老师你奶真大下面水真多 | 国产精品一国产精品免费 | 灰原哀被啪漫画禁漫 | 亚洲一卡久久4卡5卡6卡7卡 | 蜜桃麻豆WWW久久囤产精品免费 | 夜夜狂射影院欧美极品 | 久久精品国产免费播放 | 国产成人拍精品视频网 | asian4you裸模| 空姐内射出白浆10p 空姐厕所啪啪啪 | 解开白丝老师的短裙猛烈进入 | 欲乱艳荡少寡妇全文免费 | 青青草久久 | 国产精品久久人妻无码网站一区无 | 人驴交f ee欧美 |

電子發(fā)燒友

中國電子工程師最喜歡的網(wǎng)站

  • 2931785位工程師會員交流學(xué)習(xí)
  • 獲取您個性化的科技前沿技術(shù)信息
  • 參加活動獲取豐厚的禮品