AI 創作音樂越來越熱門。
剛剛,OpenAI 發布了其 AI 音樂創作的深度神經網絡—MuseNet,可以使用 10 種不同樂器、風格如鄉村樂、莫扎特、披頭士樂隊等,生成出 4 分鐘的音樂。
OpenAI 博客最新發布文章指出,MuseNet 不是依靠人類明確地對音樂進行編程,而是通過學習預測 token 來學習和聲、節奏、風格的模式,他們從許多來源收集 MuseNet 的訓練數據,像是 ClassicalArchives、BitMidi 網站上的文件、MAESTRO 數據集,還有爵士、流行、非洲、印度和阿拉伯風格的音樂,總共利用了數十萬個 MIDI 文件。
OpenAI 也指出,MuseNet 使用與 GPT-2 相同的通用無監督技術,GPT-2 為先前 OpenAI 提出的一個大規模 Transformer 模型,訓練 AI 可預測序列中的下一個 token,包括音頻和文本,用在 MuseNet 上則是給定一組音符后,要求 AI 預測后面會出現的音符。另外,MuseNet 使用 Sparse Transformer 的重新計算和優化核來訓練一個具有 24 個注意力頭(attention head)的 72 層網絡,其全部注意力都放在 4096 個 token 的語境中。
當 MuseNet 知道許多不同的風格之后,就能混合生成新的音樂,舉例來說,提供機器肖邦夜曲(Chopin Nocturne)的前 6 個音符,但是,要求機器生成一段流行樂,并要有鋼琴、鼓、bass 和吉他,而機器生成的音樂就完美融合了肖邦和 Bon Jovi 兩種風格。
圖| MuseNet 音樂生成神經網絡(來源:OpenAI)
之前 OpenAI 提出的 GPT-2,使用近 40 GB 的網頁文字訓練而成,主要具備了生成文本、預測下一個文字的能力,例如只給機器一段文字,就會因應前后文的風格創造內容、編寫故事,但因為它生成的內容有條有理,仿真技術高,反而讓外界擔心助長假新聞、網絡假消息的泛濫,在考量該技術可能遭惡意使用后,OpenAI 決定不放出訓練好的模型,只公開一小部分模型和范例。
現在用在音樂創作上,可能引起的爭議相對小,倒是為 GPT-2 找到了不錯的應用場景。
另外,OpenAI 剛剛還在 Twitch 上舉辦了 MuseNet 實驗音樂會,并預計在 5 月中旬放出該音樂轉換器的工具——MuseNet共同作曲家(MuseNet-powered co-composer),讓一般大眾和音樂家用來創作。
MuseNet 共同作曲家有幾種模式:簡單模式下,用戶會聽到已經預先生成的隨機樣本,然后選擇一個作曲家或風格,就可以開始生成音樂;高級模式,則可讓用戶有更多的選擇,像是選風格、樂器等,打造全新的音樂作品。
圖|MuseNet 在 Twitch 上舉辦一場音樂會(來源:Twitch)
OpenAI 研究人員 Christine Payne 指出,MuseNet 仍有局限性,因為它是通過計算所有可能的音符和樂器的概率來產生每個音符,所以偶爾會做出不和諧的選擇,做出奇怪的配對,例如把肖邦風格配上 bass 和鼓。
今年 3 月,谷歌為慶祝知名音樂家巴赫的生日,在 Google Doodle 放了一個小游戲,用戶在 Doodle 按下音符及節奏,就會以巴赫的風格演奏用戶創作的作品。這是使用人工智能作曲的另一個案例。
不僅谷歌、OpenAI,唱片業、音樂人本身也都在探究 AI 的應用,在 MuseNet 于 Twitch 上舉辦音樂會之前,音樂技術專家 CJ Carr 和 Zack Zukowski 就在 YouTube 頻道上播放重金屬音樂,這些死亡金屬串流音樂就是由他們開發的 AI 樂團 Dadabots 所生成的,而且 24 小時不間斷。他們使用加拿大的死亡金屬樂團 Archspire 的樣本訓練 SampleRNN 神經網絡,進而可自動生成重金屬音樂。
毫無疑問,人工智能將持續融入創意音樂領域。
圖|重金屬音樂不間斷播放,背后其實是一個 AI 樂團(來源:YouTube)
-
轉換器
+關注
關注
27文章
8742瀏覽量
147769 -
神經網絡
+關注
關注
42文章
4779瀏覽量
101052 -
數據集
+關注
關注
4文章
1209瀏覽量
24793
原文標題:OpenAI發布音樂生成神經網絡 MuseNet,可創作4分鐘音樂,剛剛還辦了場音樂會
文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論