6月15日消息,谷歌最近正在將其語音匹配功能運用在更多設備上。
谷歌幾周前增加了“使用語音匹配功能來確認在Assistant中付款”的選項,根據9to5Google的發現,該語音匹配功能或許會有另一種實現方式——在Android TV上“搜索”應用程序的最新更新的代碼中,有幾行代碼暗示該服務將來可能會出現“語音匹配”。
Android TV或將能使用谷歌語音匹配功能
語音匹配助手可以識別用戶的身份,它將會截取用戶的語音片段,以形成唯一的語音模型,該模型僅存儲在用戶的設備上。用戶的語音模型可能會臨時發送給谷歌,以更好地識別語音。如果用戶此后決定不使用“語音匹配”功能,只需將其從“助手設置”中刪除即可。該語音匹配功能在許多情況下可能會有所幫助,例如啟動與特定語音相關聯的Netflix或Stadia賬戶。
不過,幾行代碼并不一定意味著谷歌的語音匹配功能將會在Android TV上出現,但這仍然是一個有力的暗示。該公司顯然正在嘗試統一其平臺上的功能,并且向Android TV添加語音匹配支持只是此過程的一個步驟。
傳統的說話人分類系統依賴于人聲的聲學差異識別出對話中不同的說話人。根據男人和女人的音高,僅僅使用簡單的聲學模型,就可以在一步中相對容易地將他們區分開來。然而,想要區分處音高可能相近的說話者,說話者分類系統就需要使用多步方法了。首先,基于檢測到的人聲特征,使用一個變化檢測算法將對話切分成均勻的片段,我們希望每段僅僅包含一個說話人。接著,使用一個深度學習模型將上述說話人的聲音片段映射到一個嵌入向量上。最后,在聚類階段,會對上述嵌入聚類在不同的簇中,追蹤對話中的同一個說話人。
在真實場景下,說話人分類系統與聲學語音識別(ASR)系統會并行化運行,這兩個系統的輸出將會被結合,從而為識別出的單詞分配標簽。傳統的說話人分類系統在聲學域中進行推斷,然后將說話人標簽覆蓋在由獨立的 ASR 系統生成的單詞上。這種方法存在很多不足,阻礙了該領域的發展。
我們需要將對話切分成僅僅包含以為說話人的語音的片段。否則,根據這些片段生成的嵌入就不能準確地表征說話人的聲學特征。然而,實際上,這里用到的變化檢測算法并不是十全十美的,會導致分割出的片段可能包含多位說話人的語音。聚類階段要求說話人的數量已知,并且這一階段對于輸入的準確性十分敏感。
系統需要在用于估計人聲特征的片段大小和期望的模型準確率之間做出艱難的權衡。片段越長,人聲特征的質量就越高,因為此時模型擁有更多關于說話人的信息。這然而,這就帶來了將較短的插入語分配給錯誤的說話人的風險。這將產生非常嚴重的后果,例如,在處理臨床醫學或金融領域的對話的環境下,我們需要準確地追蹤肯定和否定的陳述。
傳統的說話人分類系統并沒有一套方便的機制,從而利用在許多自然對話中非藏明顯的語言學線索。例如,“你多久服一次藥?”在臨床對話中最有可能是醫護人員說的,而不會是病人說的。類似地,“我們應該什么時候上交作業?”則最有可能是學生說的,而不是老師說的。語言學的線索也標志著說話人有很高的概率發生了改變(例如,在一個問句之后)。
然而,傳統的說話人分類系統也有一些性能較好的例子,在谷歌此前發布的一篇博文中就介紹了其中之一。在此工作中,循環神經網絡(RNN)的隱藏狀態會追蹤說話人,克服了聚類階段的缺點。而本文提出的模型則采用了不容的方法,引入了語言學線索。
我們研發出了一種簡單的新型模型,該模型不僅完美地融合了聲學和語音線索,而且將說話人分類和語音識別任務融合在了同一個系統中。相較于相同環境下僅僅進行語音識別的系統相比,這個集成模型并沒有顯著降低語音識別性能。
我們意識到,很關鍵的一點是:RNN-T 架構非常適用于集成聲學和語言學線索。RNN-T 模型由三個不同的網絡組成:(1)轉錄網絡(或稱編碼器),將聲幀映射到一個潛在表征上。(2)預測網絡,在給定先前的目標標簽的情況下,預測下一個目標標簽。(3)級聯網絡,融合上述兩個網絡的輸出,并在該時間步生成這組輸出標簽的概率分布。
在圖形處理單元(GPU)或張量處理單元(TPU)這樣的加速器上訓練 RNN-T 并不是一件容易的事,這是因為損失函數的計算需要運行“前向推導-反向傳播”算法,該過程涉及到所有可能的輸入和輸出序列的對齊。最近,該問題在一種對 TPU 友好的“前向-后向”算法中得到了解決,它將該問題重新定義為一個矩陣乘法的序列。我們還利用了TensorFlow 平臺中的一個高效的 RNN-T 損失的實現,這使得模型開發可以迅速地進行迭代,從而訓練了一個非常深的網絡。
這個集成模型可以直接像一個語音識別模型一樣訓練。訓練使用的參考譯文包含說話人所說的單詞,以及緊隨其后的指定說話人角色的標簽。例如,“作業的截止日期是什么時候?”《學生》,“我希望你們在明天上課之前上交作業”《老師》。當模型根據音頻和相應的參考譯文樣本訓練好之后,用戶可以輸入對話記錄,然后得到形式相似的輸出結果。我們的分析說明,RNN-T 系統上的改進會影響到所有類型的誤差率(包括較快的說話者轉換,單詞邊界的切分,在存在語音覆蓋的情況下錯誤的說話者對齊,以及較差的音頻質量)。此外,相較于傳統的系統,RNN-T 系統展現出了一致的性能,以每段對話的平均誤差作為評價指標時,方差有明顯的降低。
傳統系統和 RNN-T 系統錯誤率的對比,由人類標注者進行分類。此外,該集成模型還可以預測其它一些標簽,這些標簽對于生成對讀者更加友好的 ASR 譯文是必需的。例如,我們已經可以使用匹配好的訓練數據,通過標點符號和大小寫標志,提升譯文質量。相較于我們之前的模型(單獨訓練,并作為一個 ASR 的后處理步驟),我們的輸出在標點符號和大小寫上的誤差更小。
責任編輯:gt
-
Android
+關注
關注
12文章
3939瀏覽量
127590 -
谷歌
+關注
關注
27文章
6173瀏覽量
105640
發布評論請先 登錄
相關推薦
評論