據(jù)了解,Mistral AI于近期發(fā)布了名為Mixtral 8x22B的開源模型,該模型擁有1760億個(gè)參數(shù), Context長(zhǎng)度高達(dá)6.5萬(wàn)token,可通過Torrent下載獲取。
作為一家備受矚目的新興AI企業(yè),Mistral AI因其“6人團(tuán)隊(duì),7頁(yè)P(yáng)PT,8億融資”的傳奇故事而聲名遠(yuǎn)揚(yáng)。尤其值得一提的是,該公司曾獲得微軟投資,使之順利駛?cè)敫咚侔l(fā)展軌道。
今日,Mistral AI正式發(fā)布了Mixtral 8x22B模型,并提供了Torrent種子鏈接供用戶下載。該模型文件大小達(dá)到了驚人的281GB,用戶既可通過磁力鏈接直接下載,也可選擇Hugging Face和Perplexity AI Labs等平臺(tái)進(jìn)行下載。
盡管Mixtral 8x22B模型擁有龐大的1760億個(gè)參數(shù)以及6.5萬(wàn)個(gè)token的Context長(zhǎng)度,但為了提高使用靈活性,該模型還支持僅調(diào)用部分模型(440億參數(shù))來完成特定任務(wù)。
-
AI
+關(guān)注
關(guān)注
87文章
31490瀏覽量
269893 -
開源
+關(guān)注
關(guān)注
3文章
3398瀏覽量
42645 -
模型
+關(guān)注
關(guān)注
1文章
3298瀏覽量
49064
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論