色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

小身板大能量:樹莓派玩轉 Phi-2、Mistral 和 LLaVA 等AI大模型~

上海晶珩電子科技有限公司 ? 2025-03-25 09:32 ? 次閱讀

076e736c-0919-11f0-9434-92fbcf53809c.jpg

你是否想過在自己的設備上運行自己的大型語言模型(LLMs)或視覺語言模型(VLMs)?你可能有過這樣的想法,但是一想到要從頭開始設置、管理環境、下載正確的模型權重,以及你的設備是否能處理這些模型的不確定性,你可能就猶豫了。

讓我們更進一步。想象一下,在自己的信用卡大小的設備上——比如Raspberry Pi ——運行自己的LLM或VLM。不可能嗎?完全不是。畢竟,我正在寫這篇帖子,所以這肯定是可能的。

確實可能,但為什么要這么做呢?

目前,在邊緣設備上運行LLM似乎有些牽強。但這個特定的利基用例應該會隨著時間的推移而成熟,我們肯定會看到一些很酷的邊緣解決方案,這些解決方案采用完全本地的生成式AI解決方案,在邊緣設備上運行。

這也是為了探索可能性的極限。如果能在計算規模的這一極端實現,那么在Raspberry Pi 和大型強大服務器GPU之間的任何級別上都可以實現。

傳統上,邊緣AI與計算機視覺緊密相連。探索在邊緣部署LLMs和VLMs為這個新興領域增添了一個令人興奮的維度。

最重要的是,我只是想用我最近購買的Raspberry Pi 5做一些有趣的事情。

那么,我們如何在Raspberry Pi 上實現這一切呢?使用Ollama!

什么是Ollama?

Ollama已經成為在個人電腦上運行本地LLMs的最佳解決方案之一,而無需處理從頭開始設置的麻煩。只需幾條命令,就可以毫無問題地設置好一切。在我的經驗中,它完全自給自足,并且在多個設備和模型上都能完美運行。它甚至提供了一個用于模型推理的REST API,因此你可以讓它在Raspberry Pi 上運行,并從你的其他應用程序和設備中調用它(如果你愿意的話)。

還有Ollama Web UI,這是一個與Ollama無縫運行的漂亮的人工智能用戶界面(UI)/用戶體驗(UX),適合那些對命令行界面感到不安的人。如果你愿意的話,它基本上是一個本地的ChatGPT界面。

Ollama和Ollama Web UI還支持VLM,如LLaVA,這為邊緣生成式AI用例打開了更多的大門。

技術要求

你只需要以下設備:

Raspberry Pi 5(或速度較慢的Raspberry Pi 4)——選擇8GB RAM版本以容納7B模型。

SD卡——至少16GB,容量越大,可容納的模型越多。預先加載有合適的操作系統,如Raspbian Bookworm或Ubuntu。

互聯網連接

就像我之前提到的,在Raspberry Pi 上運行Ollama已經接近硬件譜系的極端。理論上,任何比Raspberry Pi 更強大的設備(只要它運行Linux發行版并具有類似的內存容量),都應該能夠運行Ollama和本文中討論的模型。

1. 安裝Ollama

為了在Raspberry Pi 上安裝Ollama,我們將避免使用Docker以節省資源。

在終端中運行

curl https://ollama.ai/install.sh | sh

運行上述命令后,你應該會看到與下面類似的圖像。

07aa9018-0919-11f0-9434-92fbcf53809c.png

就像輸出所說的那樣,轉到0.0.0.0:11434以驗證Ollama是否正在運行。由于我們使用的是Raspberry Pi ,所以看到“WARNING: No NVIDIA GPU detected. Ollama will run in CPU-only mode.”(警告:未檢測到NVIDIA GPU。Ollama將以僅CPU模式運行。)是正常的。但是,如果你在這些說明中看到的是應該具有NVIDIA GPU的設備,那么可能出現了問題。

2. 通過命令行運行LLMs

查看官方the official Ollama model library,了解可以使用Ollama運行的模型列表。在8GB的Raspberry Pi 上,大于7B的模型將無法容納。讓我們使用Phi-2,一個來自微軟推出的2.7B LLM,現在在MIT許可下。

在終端中運行

ollama run phi

一旦你看到與下面類似的輸出,你就已經在Raspberry Pi 上運行了一個LLM!就是這么簡單。

07c68d18-0919-11f0-9434-92fbcf53809c.png

以下是與Phi-2 2.7B的交互。顯然,你不會得到相同的輸出,但你應該明白了

07e7b07e-0919-11f0-9434-92fbcf53809c.png

你可以嘗試其他模型,如Mistral、Llama-2等,只需確保SD卡上有足夠的空間存儲模型權重。

當然,模型越大,輸出速度就越慢。在Phi-2 2.7B上,我可以獲得大約每秒4個令牌的速度。但是,使用Mistral 7B,生成速度下降到大約每秒2個令牌。一個令牌大致相當于一個單詞。

以下是與Mistral 7B的交互

07feb92c-0919-11f0-9434-92fbcf53809c.png

現在我們已經在Raspberry Pi 上運行了LLMs,但還沒有結束。終端并不適合所有人。讓我們也讓Ollama Web UI運行起來!

3. 安裝和運行Ollama Web UI

我們將遵循Ollama Web UI GitHub存儲庫official Ollama Web UI GitHub Repository(https://github.com/open-webui/open-webui)上的說明,在不使用Docker的情況下進行安裝。它建議Node.js版本至少為20.10,因此我們將遵循這一建議。它還建議Python版本至少為3.11,但Raspbian OS已經為我們安裝了該版本。

我們必須先安裝Node.js。在終端中運行

curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash - &&\sudo apt-get install -y nodejs

對于未來的讀者,如果需要,可以將20.x更改為更合適的版本。

然后運行下面的代碼塊。

git clone https://github.com/ollama-webui/ollama-webui.gitcd ollama-webui/
# Copying required .env filecp -RPp example.env .env
# Building Frontend Using Nodenpm inpm run build
# Serving Frontend with the Backendcd ./backendpip install -r requirements.txt --break-system-packages sh start.sh

這是對GitHub上提供的內容的輕微修改。請注意,為了簡潔和方便,我們沒有遵循最佳實踐,比如使用虛擬環境,并且我們使用了--break-system-packages標志。如果遇到找不到uvicorn之類的錯誤,請重新啟動終端會話。

如果一切順利,你應該能夠通過Raspberry Pi 上的http://0.0.0.0:8080或同一網絡上的另一臺設備通過http://:8080/訪問Ollama Web UI。

081ed07c-0919-11f0-9434-92fbcf53809c.png

創建賬戶并登錄后,你應該會看到與下面類似的圖像。

0838c9aa-0919-11f0-9434-92fbcf53809c.png

如果你之前下載了一些模型權重,你應該會在下面的下拉菜單中看到它們。如果沒有,你可以轉到設置以下載模型??赡艿哪P蜁霈F在這里

085d6d50-0919-11f0-9434-92fbcf53809c.png

如果你想要下載新的模型,去Settings > Models to pull models

087b42a8-0919-11f0-9434-92fbcf53809c.png

整個界面非常簡潔直觀,因此我不會過多解釋。這確實是一個非常出色的開源項目。

以下是通過Ollama Web UI與Mistral 7B的交互示例

08976c62-0919-11f0-9434-92fbcf53809c.png

4. 通過Ollama Web UI運行視覺語言模型(VLMs)

就像我在本文開頭提到的那樣,我們還可以運行VLMs。讓我們運行一個流行的開源VLM——LLaVA,它恰好也被Ollama支持。為此,請通過界面拉取“llava”以下載其權重。

不幸的是,與大型語言模型(LLMs)不同,Raspberry Pi 上的設置需要相當長的時間來解釋圖像。下面的示例大約需要6分鐘來處理。大部分時間可能是因為圖像方面的處理尚未得到適當優化,但這種情況在未來肯定會改變。令牌生成速度約為每秒2個令牌。

總結

至此,我們已經基本完成了本文的目標。回顧一下,我們已經成功使用Ollama和Ollama Web UI在Raspberry Pi 上運行了Phi-2、Mistral和LLaVA等LLMs和VLMs。

我完全可以想象出幾個在Raspberry Pi (或其他小型邊緣設備)上托管本地LLMs的用例,特別是如果我們使用Phi-2等大小的模型,每秒4個令牌的速度對于某些用例中的流式傳輸來說似乎是可接受的速度。

“小型”LLMs和VLMs領域(考慮到其“大型”的指定,這一名稱有些自相矛盾)是一個活躍的研究領域,最近發布了相當多的模型。希望這一新興趨勢能夠繼續下去,并發布更多高效且緊湊的模型!在未來幾個月里,這無疑是值得關注的。

免責聲明:作者與Ollama或Ollama Web UI沒有關聯。所有觀點均為作者個人的看法,不代表任何組織。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    32905

    瀏覽量

    272503
  • 樹莓派
    +關注

    關注

    118

    文章

    1871

    瀏覽量

    106235
  • 大模型
    +關注

    關注

    2

    文章

    2845

    瀏覽量

    3498
收藏 0人收藏

    評論

    相關推薦

    4臺樹莓5跑動大模型!DeepSeek R1分布式實戰!

    導語“用4臺樹莓5組網,輕松運行大模型——這可能是2025年最顛覆認知的開源AI項目!”GitHub明星項目distributed-llama最新實戰案例曝光:通過獨創的動態
    的頭像 發表于 03-24 14:50 ?250次閱讀
    4臺<b class='flag-5'>樹莓</b><b class='flag-5'>派</b>5跑動大<b class='flag-5'>模型</b>!DeepSeek R1分布式實戰!

    樹莓傳感器使用方法 樹莓 Raspberry Pi 4優缺點

    開發和物聯網應用。以下是一些基本的樹莓傳感器使用方法: 1. 連接傳感器 GPIO引腳 :樹莓的GPIO(通用輸入/輸出)引腳允許直接連接傳感器。這些引腳可以用于讀取數字信號(如按
    的頭像 發表于 12-06 10:35 ?1378次閱讀

    樹莓新推AI HAT+:26 TOPS高性能版本震撼登場

     在成功推出樹莓AI套件與AI攝像頭后,樹莓再次擴大其A
    的頭像 發表于 11-07 13:44 ?789次閱讀

    樹莓gpio有什么用,樹莓gpio接口及編程方法

    一、樹莓GPIO的用途 樹莓(Raspberry Pi)是一款小巧、功能強大的單板計算機,廣泛應用于編程教育、物聯網項目、家庭媒體中心
    的頭像 發表于 10-22 18:09 ?1858次閱讀

    什么是樹莓?樹莓是什么架構的

    什么是樹莓 樹莓(Raspberry Pi,簡寫為RPi,別名為RasPi/RPI)是由英國“Raspberry Pi 慈善基金會”開發的一款為學習計算機編程教育而設計的微型電腦。
    的頭像 發表于 10-22 17:33 ?2293次閱讀

    樹莓的功能用途是什么

    樹莓(Raspberry Pi)是一款由英國樹莓基金會研發的信用卡大小的單板計算機,自2012年推出以來,已經發展出多個型號和版本。樹莓
    的頭像 發表于 08-30 18:01 ?3601次閱讀

    在英特爾酷睿Ultra7處理器上優化和部署Phi-3-min模型

    規模的模型,其訓練數據集基于Phi-2所使用數據集的擴大版本,由大量過濾后的網絡數據和合成數據組成,經過3.3T tokens的訓練,表現可以與Mixtral 8x7B和GPT-3.5模型
    的頭像 發表于 08-30 16:58 ?952次閱讀
    在英特爾酷睿Ultra7處理器上優化和部署<b class='flag-5'>Phi</b>-3-min<b class='flag-5'>模型</b>

    樹莓裝ubuntu和raspbian哪個更好

    樹莓(Raspberry Pi)是一款由英國樹莓基金會開發的單板計算機,廣泛應用于教育、科研、物聯網領域。
    的頭像 發表于 08-30 15:41 ?2105次閱讀

    Mistral AI與NVIDIA推出全新語言模型Mistral NeMo 12B

    Mistral AI 和 NVIDIA 于近日共同發布了一款全新的領先語言模型Mistral NeMo 12B。開發者可以輕松定制和部署該模型
    的頭像 發表于 07-27 11:04 ?885次閱讀

    Mistral Large 2現已在Amazon Bedrock中正式可用

    北京2024年7月25日 /美通社/ -- 亞馬遜云科技宣布,Mistral AIMistral Large 2(24.07)基礎模型(F
    的頭像 發表于 07-26 08:07 ?425次閱讀

    Hailo聯手樹莓,開創人工智能新紀元

    近日,人工智能處理器領導品牌Hailo正式宣布與樹莓展開深度合作。Hailo將為樹莓推出專用AI套件,支持
    的頭像 發表于 06-06 16:08 ?876次閱讀

    微軟發布視覺型AI模型Phi-3-vision

     據悉,Phi-3-vision 作為微軟 Phi-3 家族的首款多模態模型,繼承自 Phi-3-mini 的文本理解能力,兼具輕巧便攜特性,適用于移動平臺/嵌入式終端;
    的頭像 發表于 05-27 15:56 ?637次閱讀

    微軟與人工智能公司Mistral AI的合作案免于英國反壟斷調查

    今年2月底,Microsoft宣布聯手被譽為“歐洲OpenAI”的法國初創企業Mistral AI。雙方達成協議,Microsoft將投資20億歐元(約合157億元人民幣)助力Mistral
    的頭像 發表于 05-18 11:49 ?458次閱讀

    微軟發布phi-3AI模型,性能超越GPT-3.5

    微軟稱,帶有38億參數的phi-3-mini經過3.3萬億token的強化學習,其基礎表現已經超過Mixtral 8x7B及GPT-3.5;此外,該模型可在手機移動設備上運行,并在phi-2
    的頭像 發表于 04-23 14:32 ?655次閱讀

    Mistral Large模型現已在Amazon Bedrock上正式可用

    亞馬遜云科技攜手Mistral AI為客戶提供更廣泛而卓越的基礎模型選擇,助力企業構建和擴展生成式AI應用程序,進一步拓寬客戶選擇范圍 北京2024年4月7日 /美通社/ -- 亞馬遜
    的頭像 發表于 04-08 16:26 ?666次閱讀
    主站蜘蛛池模板: 同时被两个男人轮流舔 | 午夜性色一区二区三区不卡视频 | 野花韩国免费高清电影 | 巨大乳hdbbw 巨爆乳中文字幕爆乳区 | 伊人久久大香线蕉综合高清 | 嫩草国产精品99国产精品 | 亚洲成 人a影院青久在线观看 | 护士美女照片 | 婷婷亚洲五月色综合久久 | 亲胸吻胸添奶头GIF动态图免费 | 国产精品午夜小视频观看 | 国产午夜伦伦伦午夜伦 | 无码国产精品高潮久久9 | 免费看欧美一级特黄a大片 免费看欧美xxx片 | 亚洲精品美女久久久久99 | 亚洲 自拍 偷拍 另类综合图区 | 让人爽到湿的小黄书 | 午夜一区欧美二区高清三区 | 免费精品一区二区三区在线观看 | 97免费在线视频 | 视频一区视频二区在线观看 | 国产乱码二卡3卡四卡 | 色偷偷男人的天堂a v | 亚洲专区中文字幕视频专区 | 卫生间被教官做好爽HH视频 | 亚洲精品视频在线免费 | 国内2018年午夜福利5678 | 欧美一级久久久久久久久大 | 99爱在线观看 | 久久综合中文字幕佐佐木希 | 亚洲精品午夜久久久伊人 | 5g在线视讯年龄确认海外禁止进入 | 狠狠干老司机 | 天天夜夜草草久久亚洲香蕉 | 国产午夜亚洲精品理论片八戒 | 真人女人无遮挡内谢免费视频% | 日韩中文亚洲欧美视频二 | 综合亚洲桃色第一影院 | WWW国产精品人妻一二三区 | 好大好爽好深舒服死了 | 亚洲电影成人 成人影院 |

    電子發燒友

    中國電子工程師最喜歡的網站

    • 2931785位工程師會員交流學習
    • 獲取您個性化的科技前沿技術信息
    • 參加活動獲取豐厚的禮品