蘋果正在努力讓Siri等語音技術更容易被語言模式不典型的用戶所接受。根據《華爾街日報》的報道,該公司正在研究如何自動檢測某人說話是否有口吃。為此,該公司已經從播客中積累了近2.8萬個人們說話時有口吃的片段。
這一數據發表在本周的一份蘋果研究報告中(PDF鏈接:https://arxiv.org/pdf/2102.12394.pdf)。
雖然蘋果發言人拒絕評論它將如何使用這些數據的發現,但至少該公司計劃至少利用其中的一部分來改進語音識別系統。在此期間,蘋果在2015年推出的Hold to Talk功能允許用戶控制他們希望Siri傾聽多長時間。這有助于防止助手在命令完全說出之前打斷用戶或超時。
雖然文章沒有提到,但Siri也可以在macOS和iOS上使用Type to Siri功能來激活和控制。
針對非典型語音模式的訓練只是Siri改進的一個研究領域。蘋果還在開發系統,可以通過鎖定用戶獨特的語音模式來幫助保護設備的安全?!度A爾街日報》還報道了亞馬遜和谷歌等其他科技公司如何訓練他們的數字助理,以了解更多可能在語音命令方面有問題的用戶。
亞馬遜在去年12月推出了一個新的基金,允許擁有非典型語音模式的用戶訓練算法,以識別他們獨特的聲音。谷歌也在收集非典型語音數據,用于谷歌助手。
責編AJX
-
蘋果
+關注
關注
61文章
24431瀏覽量
199216 -
語音識別
+關注
關注
38文章
1742瀏覽量
112727 -
語音助手
+關注
關注
7文章
236瀏覽量
26820
發布評論請先 登錄
相關推薦
評論