Stability AI 對外發布了 Stable Diffusion 的預訓練模型權重,這是一個文本至圖像的 AI 模型。根據文本提示,Stable Diffusion 能夠生成逼真的 512x512 像素的圖像以描述提示中的場景。
在模型權重公開發布之前,它的代碼已經發布,模型權重也有限發布給了研究社區。在最新的版本中,任何用戶都可以在消費者級別的硬件中下載并運行 Stable Diffusion。除了文本至圖像的生成,該模型還支持圖像至圖像的風格轉換以及圖像質量提升。在發布該版本的同時,Stable AI 還發布了 beta 版本的 API 以及模型的 Web UI,名為 DreamStudio。Stable AI 這樣說到:
Stable Diffusion 是一個文本至圖像的模型,它能讓數十億人在幾秒鐘內創建出令人贊嘆的藝術品。在速度和質量方面,它都有所突破,這意味著它能在消費者級別的 GPU 上運行……這能夠讓研究人員和……公眾在各種條件下運行,使圖像生成技術走向大眾。我們期待圍繞該模型和其他模型出現一個開放的生態系統,以探索潛在空間的邊界。
Stable Diffusion 基于名為潛在擴散模型(latent diffusion models,LDMs)的圖像生成技術。與其他的流行的圖像合成方法不同,如生成對抗網絡(generative adversarial networks,GANs)和 DALL-E 使用的自動回歸技術,LDMs 通過在一個潛在表示空間中迭代“去噪”數據來生成圖像,然后將表示結果解碼為完整的圖像。LDM 是由 Ludwig Maximilian University of Munich 的機器視覺與學習(Machine Vision and Learning)研究組開發的,并在最近的 IEEE / CVF 計算機視覺和模式識別會議(Computer Vision and Pattern Recognition Conference)上發表的一篇論文中進行了闡述。在今年早些時候,InfoQ 曾經報道過谷歌的 Imagen 模型,它是另一個基于擴散的圖像生成 AI。
Stable Diffusion 模型支持多種操作。與 DALL-E 類似,它能夠根據所需圖像的文本描述,生成符合匹配該描述的高質量圖像。它還可以根據一個簡單的草圖再加上所需圖像的文本描述,生成一個看起來更逼真的圖像。Meta AI 最近發布了名為 Make-A-Scene 的模型,具有類似的圖像至圖像的功能。
Stable Diffusion 的很多用戶已經公開發布了生成圖像的樣例,Stability AI 的首席開發者 Katherine Crowson 在推特上分享了許多圖像。基于 AI 的圖像合成可能會對藝術家和藝術領域帶來一定的影響,有些評論者對此感到不安。就在 Stable Diffusion 發布的同一周,一幅由 AI 生成的藝術品在科羅拉多州博覽會的藝術比賽中獲得了一等獎。Django 框架的共同創建者 Simon Williamson 認為:
我見過一種說法,認為 AI 藝術沒有資格獲得版權保護,因為“它必須歸功于全人類”——如果基于文本生成的設計尚不足以說服公眾的話,那 [圖像至圖像] 技術可能會打破這種平衡。
Stable AI 的創始人 Emad Mostaque 在推特上回答了一些關于該模型的問題。在回答一位試圖估算訓練模型所需的計算資源和成本的用戶時,Mostaque 說到:
實際上,我們為這個模型使用了 256 個 A100 顯卡,總共 15 萬小時,所以按市場價格計算為 60 萬美元。
Mostaque 給出了 Reddit 上一篇文章的鏈接,其中給出了如何最好地使用該模型來生成圖像的技巧。
Stable Diffusion 的代碼可以在 GitHub 上找到。模型的權重以及 Colab notebook 和示例 Web UI 都可以在 HuggingFace 上找到。
審核編輯 :李倩
-
AI
+關注
關注
87文章
31463瀏覽量
269859 -
模型
+關注
關注
1文章
3296瀏覽量
49042 -
圖像生成
+關注
關注
0文章
22瀏覽量
6902
原文標題:Stability AI 開源圖像生成模型 Stable Diffusion
文章出處:【微信號:AI前線,微信公眾號:AI前線】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論