色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

2023年發布的25個開源大型語言模型總結

穎脈Imgtec ? 2023-08-01 00:21 ? 次閱讀

大型語言模型(llm)是一種人工智能(AI),在大量文本和代碼數據集上進行訓練。它們可以用于各種任務,包括生成文本、翻譯語言和編寫不同類型的創意內容。

今年開始,人們對開源LLM越來越感興趣。這些模型是在開源許可下發布的,這意味著任何人都可以使用、修改和分發它們。這使得研究人員、開發人員和企業都可以嘗試LLM,并為它們開發新的應用程序。使用開源llm有很多好處。首先它們通常比專業的LLM更價便宜。并且它們更加透明,這意味著研究人員可以研究它們是如何工作的以及它們是如何做出決定的。最主要的是它們更加靈活,可以針對不同的任務進行定制。

本文總結了當前可用的開源llm的全部(幾乎全部)列表,以及有關其許可選項和源代碼存儲庫的信息,希望對你有所幫助。

▎SAIL 7B
基于LLaMa的搜索增強
參數:7B
許可類型:GPL-3.0
發布日期:2023年5月
論文:SAIL — Search Augmented Instruction Learning


▎Guanaco
采用高效微調方法QLoRA發布的LLM模型
參數:65B
許可類型:MIT
發布日期:2023年5月
論文:QLoRA — Efficient Finetuning of Quantized LLMs


▎RMKV
與transformer的LLM性能相當的RNN模型
參數:100M–14B
許可類型:Apache 2.0
發布日期:2023年5月
論文:Scaling RNN to 1.5B and Reach Transformer LM Performance


▎MPT-7B
MosaicML的基礎系列模型
參數:7B
許可類型:Apache 2.0
發布日期:2023年5月
論文:MPT-7B — A New Standard for Open-Source, Commercially Usable LLMs


▎OpenLLaMa
在RedPajama數據集上訓練的Meta AI的LLaMA 7B的另一個開源復制。
參數:3,7B
許可類型:Apache 2.0
發布日期:2023年5月
論文:Meet OpenLLaMA — An Open-Source Reproduction of Meta AI’s LLaMA Large Language Model


▎RedPajama-INCITE
基于RedPajama數據集上訓練的指令調整和聊天Pythia模型。
參數:3B, 7B
許可類型:Apache 2.0
發布日期:2023年5月
論文:RedPajama-INCITE family of models including base, instruction-tuned & chat models


▎h2oGPT
H2O的微調框架和文檔問答功能的聊天機器人UI
參數:12B,30B
許可類型:Apache 2.0
發布日期:2023年5月
論文:Building the World’s Best Open-Source Large Language Model:H2O.ai’s Journey


▎FastChat-T5
通過微調Flan-t5-xl對從ShareGPT收集的用戶共享對話進行訓練的聊天機器人
參數:3B
許可類型:Apache 2.0
發布日期:2023年4月
論文:FastChat-T5 — our compact and commercial-friendly chatbot!


▎GPT4All
用于訓練和部署強大的定制llm的完整工具系統
參數:7–13B
許可類型:MIT
發布日期:2023年4月
論文:GPT4All:An ecosystem of open-source on-edge large language models.


▎MiniGPT-4
基于BLIP-2和Vicuna LLM的Visual LLM模型
參數:13B
許可類型:BSD-3-Clause
發布日期:2023年4月
論文:MiniGPT-4 — Enhancing Vision-Language Understanding withAdvanced Large Language Models


▎StableLM
StableLM的LLM模型系列
參數:7B
許可類型:CC BY-NC-SA-4.0
發布日期:2023年4月
論文:Stability AI Launches the First of its StableLM Suite of Language Models


▎BloomZ
通過多任務微調實現跨語言泛化
參數:176B
許可類型:Apache 2.0
發布日期:2023年4月
論文:Cross-lingual Generalization through Multitask Finetuning


▎Dolly
Pythia 12B LLM在Databricks ML平臺上訓練的模型
參數:12B
許可類型:Apache 2.0
發布日期:2023年4月
論文:Free Dolly — Introducing the World’s First Truly Open Instruction-Tuned LLM


▎Baize Chatbot
基于LLaMa的開源聊天模型
參數:30B
許可類型:GPL-3.0 license
發布日期:2023年4月
論文:Baize — An Open-Source Chat Model with Parameter-Efficient Tuning on Self-Chat Data


▎ColossalChat
由ColossalAI開源發布的一個完整的RLHF流程訓練的模型
參數:N/A
許可類型:Apache 2.0
發布日期:2023年4月
論文:ColossalChat — An Open-Source Solution for Cloning ChatGPT With a Complete RLHF Pipeline


▎Lit LLaMa
來自Lightning AI的LLaMA的開源實現
參數:13B
許可類型:Apache 2.0
發布日期:2023年4月
論文:Why We’re Building Lit-LLaMA


▎Cerebras-GPT
開放的,計算效率高的,大型語言模型
參數:111M-13B
許可類型:Apache 2.0
發布日期:2023年3月
論文:Cerebras-GPT — Open Compute-Optimal Language ModelsTrained on the Cerebras Wafer-Scale Cluster


▎Open Flamingo
Deepmind的Flamingo模型的開源實現
參數:9B
許可類型:MIT License
發布日期:2023年3月
論文:Openflamingo — An Open-source Framework For Training Vision-language Models With In-context Learning


▎Chat GLM
使用開放式雙語(中英文)雙向密集預訓練模型
參數:6B-130B
許可類型:Apache 2.0
發布日期:2023年3月
論文:GLM-130B:An Open Bilingual Pre-trained Model


▎DLite
通過微調Alpaca數據集上最小的GPT-2模型
參數:124M
許可類型:Apache 2.0
發布日期:2023年3月
論文:Introducing DLite, a Lightweight ChatGPT-Like Model Based on Dolly


▎Alpaca 7B
描述:斯坦福大學發布的指令遵循LLaMA模型
參數:7B
許可類型:Apache 2.0
發布日期:2023年3月
論文:Alpaca — A Strong, Replicable Instruction-Following Model


▎Flan UL2
在預訓練的UL2檢查點上訓練Flan 20B模型。
參數:20B
許可類型:MIT License
發布日期:2023年3月
論文:A New Open Source Flan 20B with UL2


▎Flan-T5
T5在各種數據集上的指令微調,提高預訓練語言模型的可用性
參數:60M–11B
許可類型:Apache 2.0
發布日期:2023年2月
論文:Scaling Instruction-Finetuned Language Models


總結

最后再補充2個剛剛發布的模型,一個是llama-2,這個我們文章也在前幾天介紹了微調和使用的方法。另外一個就是昨天剛看到的新聞,stabilityai發布的 FreeWilly2,它是在 Llama2 70B 上微調的結果,目前在open_llm_leaderboard上排第一。開源大型語言模型正在迅速發展,開源社區發布了許多模型。這些模型為開發人員、研究人員和愛好者提供了一個非常大機會,可以在沒有專有系統的情況下試驗尖端的語言技術。隨著越來越多的組織和個人為這些模型的發展做出貢獻,我們可以期待看到更強大、更容易使用和更創新的語言模型,它們將塑造自然語言處理的未來。

作者:Manikanth

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 語言
    +關注

    關注

    1

    文章

    97

    瀏覽量

    24331
  • 開源
    +關注

    關注

    3

    文章

    3472

    瀏覽量

    42947
  • 模型
    +關注

    關注

    1

    文章

    3419

    瀏覽量

    49482
收藏 人收藏

    評論

    相關推薦

    語言模型的解碼策略與關鍵優化總結

    本文系統性地闡述了大型語言模型(LargeLanguageModels,LLMs)中的解碼策略技術原理及其實踐應用。通過深入分析各類解碼算法的工作機制、性能特征和優化方法,為研究者和工程師提供了全面
    的頭像 發表于 02-18 12:00 ?267次閱讀
    大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>的解碼策略與關鍵優化<b class='flag-5'>總結</b>

    Meta重磅發布Llama 3.3 70B:開源AI模型的新里程碑

    新的高度。 一,技術突破:開源智能的新高度 Llama 3.3 70B 模型發布,標志著開源AI模型在智能水平上的一大飛躍。它不僅達到了之
    的頭像 發表于 12-18 16:46 ?328次閱讀
    Meta重磅<b class='flag-5'>發布</b>Llama 3.3 70B:<b class='flag-5'>開源</b>AI<b class='flag-5'>模型</b>的新里程碑

    語言模型開發框架是什么

    語言模型開發框架是指用于訓練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言
    的頭像 發表于 12-06 10:28 ?264次閱讀

    NVIDIA GeForce 256發布25

    適逢 NVIDIA GeForce 256 發布 25 周年之際,我們共同慶祝它在游戲領域的突破,這一突破改變了娛樂方式,并為 AI 驅動的未來奠定了基礎。
    的頭像 發表于 11-19 16:05 ?416次閱讀

    谷歌計劃12月發布Gemini 2.0模型

    近日,有消息稱谷歌計劃在12月發布其下一代人工智能模型——Gemini 2.0。這一消息引發了業界的廣泛關注,因為谷歌在人工智能領域一直保持著領先地位,而Gemini系列模型更是其重要的產品之一。
    的頭像 發表于 10-29 11:02 ?851次閱讀

    搭建開源語言模型服務的方法

    本文我們將總結5種搭建開源語言模型服務的方法,每種都附帶詳細的操作步驟,以及各自的優缺點。
    的頭像 發表于 10-29 09:17 ?440次閱讀

    如何利用大型語言模型驅動的搜索為公司創造價值

    大型語言模型LLMs具有自動化內容創建、提高內容質量及多樣化的潛力,可重塑企業與信息的交互方式。通過利用LLMs,企業能提升工作效率,降低運營成本,并獲得深入洞察。來自EgeGürdeniz
    的頭像 發表于 10-13 08:07 ?266次閱讀
    如何利用<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>驅動的搜索為公司創造價值

    使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct模型

    前面我們分享了《三步完成Llama3在算力魔方的本地量化和部署》。20249月25日,Meta又發布了Llama3.2:一語言
    的頭像 發表于 10-12 09:39 ?958次閱讀
    使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct<b class='flag-5'>模型</b>

    2024 19 種最佳大型語言模型

    大型語言模型2023生成式人工智能熱潮背后的推動力。然而,它們已經存在了一段時間了。LLM是黑盒AI系統,它使用深度學習對超大數據集進行
    的頭像 發表于 08-30 12:56 ?717次閱讀
    2024 <b class='flag-5'>年</b> 19 種最佳<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>

    基于CPU的大型語言模型推理實驗

    隨著計算和數據處理變得越來越分散和復雜,AI 的重點正在從初始訓練轉向更高效的AI 推理。Meta 的 Llama3 是功能強大的公開可用的大型語言模型 (LLM)。本次測試采用開源
    的頭像 發表于 07-18 14:28 ?751次閱讀
    基于CPU的<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>推理實驗

    英偉達開源Nemotron-4 340B系列模型,助力大型語言模型訓練

    近日,英偉達宣布開源了一款名為Nemotron-4 340B的大型模型,這一壯舉為開發者們打開了通往高性能大型語言模型(LLM)訓練的新天地
    的頭像 發表于 06-17 14:53 ?704次閱讀

    智譜AI發布全新多模態開源模型GLM-4-9B

    近日,智譜AI在人工智能領域取得重大突破,成功推出全新開源模型GLM-4-9B。這款模型以其卓越的多模態能力,再次刷新了業界對于大型語言
    的頭像 發表于 06-07 09:17 ?900次閱讀

    了解大型語言模型 (LLM) 領域中的25關鍵術語

    1.LLM(大語言模型大型語言模型(LLMs)是先進的人工智能系統,經過大量文本數據集的訓練,可以理解和生成類似人類的文本。他們使用深度學
    的頭像 發表于 05-10 08:27 ?1388次閱讀
    了解<b class='flag-5'>大型</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b> (LLM) 領域中的<b class='flag-5'>25</b><b class='flag-5'>個</b>關鍵術語

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    就無法修改,因此難以靈活應用于下游文本的挖掘中。 詞嵌入表示:將每個詞映射為一低維稠密的實值向量。不同的是,基于預訓練的詞嵌入表示先在語料庫中利用某種語言模型進行預訓練,然后將其應用到下游任務中,詞
    發表于 05-05 12:17

    NVIDIA加速微軟最新的Phi-3 Mini開源語言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語言模型。TensorRT-LLM 是一開源庫,用于優化從 PC 到云端的
    的頭像 發表于 04-28 10:36 ?715次閱讀
    主站蜘蛛池模板: 国产精品爆乳尤物99精品 | 久久久视频2019午夜福利 | 在线播放无码字幕亚洲 | 成人国产亚洲精品A区天堂蜜臀 | 日本高清免费看 | 嫩B人妻精品一区二区三区 内射一区二区精品视频在线观看 | 三级黄色a| 亚洲乱码日产精品BD在线下载 | 国产亚洲精品久久久999蜜臀 | 中文字幕亚洲第一 | 97色伦图区97色伦综合图区 | 国产精品JK白丝AV网站 | 久久99re7在线视频精品 | 绑着男军人的扒开内裤 | 99久久精品国产一区二区三区 | 小护士大pp| 总攻催眠受的高h巨肉np | 99久视频只有精品2019 | 国产99精品在线观看 | 一本道高清不卡v免费费 | 影音先锋男人资源813. | 99热都是精品| 好硬好湿好大再深一点动态图 | 国产一区私人高清影院 | 国语精彩对白2021 | 国产亚洲精品久久久久久国模美 | 红番阁免费观看 | 亚洲 欧美 国产 在线 日韩 | 亚洲spank男男实践网站 | 色欲av蜜臀av高清 | 处 女 开 破小说 | 伸到同桌奶罩里捏她胸h | 国产精品国产三级国产an | 一品道门在线视频 | 久久伊人久久 | 一个人免费视频在线观看高清频道 | 伦理片在线线手机版韩国免费观看 | 欧美高清video mr.sexo | 亚洲中文字幕乱码熟女在线 | 国产系列在线亚洲视频 | 夜夜澡人人爽人人喊_欧美 夜夜骑夜夜欢 |