上周,亞馬遜在美國西雅圖舉行的發布會上一口氣推出了十余款Alexa設備,大部分設備主要由Alexa語音平臺驅動。其中部分設備將增添“耳語模式”功能,使Alexa設備用耳語來回應用戶的低聲說話。日前,亞馬遜Alexa語音系統小組的一位專家Zeynab Raeesy在其博文中揭秘了這一功能的AI基礎。
Raeesy在博文中介紹:“如果你在一個有小孩睡覺的房間,當有人走進來時,你會馬上低聲說話,提醒進來的人你希望房間內能保持安靜,而進來的人意識到這一點之后,很可能也會壓低聲音講話。”
Raeesy指出,Alexa的耳語模式令人難以理解的地方在于它是清音的,也就是說,它不涉及聲帶振動,往往比普通的語音在低頻段具有更少的能量。她與小組的同事研究了兩種能區分正常語音和耳語音的神經網絡。
兩種神經網絡主要在結構上有所區別,一個是MLP(多層感知器),另一個是能進行時間遞歸的LSTM(長短期記憶)網絡,這兩者用來做訓練的數據是一樣的,這些數據包括(1)對數濾波器組能量,或者是用來記錄不同頻率范圍信號能量的語音信號表示;(2)能區別耳語音與正常語音之間信號差異的一組特征。
在測試中,他們發現LSTM的表現結果比MLP更好,具備許多優勢。Raeesy解釋道,Alexa語音識別引擎的其他組件完全依賴對數濾波器組能量,并給不同的組件提供相同的輸入數據,進而使整個系統更加緊湊。
Alexa耳語模式的開發并非一帆風順,至少在最初階段是這樣的。由于Alexa是通過短時間的沉默(一種被稱為“結束指向”的技術)來識別指令的結束或者進行回復,LSTM往往在話語即將結束時降低置信度。為解決這個問題,研究人員將LSTM的輸出校準成整個話語的平均值,最終,降低最后1.25秒的語音數據成為維持“耳語模式”性能的關鍵。
美式英語的耳語模式功能將在今年11月份推出,對耳語模式具體工作原理的介紹將以論文的形式在12月份的IEEE語音技術研討會上發表。
-
AI
+關注
關注
87文章
31490瀏覽量
269911
發布評論請先 登錄
相關推薦
評論