揭秘Siri,蘋果發布論文闡釋語音助手設計想法

鎂客網 發佈 2020-02-04T22:45:35+00:00

最近,蘋果發布了一系列論文來闡釋語音助手的重要工作機理,公開揭秘Siri,向業界貢獻了自己在設計上的不同想法。

就多任務處理、多語言識別等問題,蘋果在論文中給出了自己不同的想法。

最近,蘋果發布了一系列論文來闡釋語音助手的重要工作機理,公開揭秘Siri,向業界貢獻了自己在設計上的不同想法。

在第一篇論文中,蘋果就語音助手中的多任務處理問題進行了闡釋,它指出在Siri中,喚醒處理通常需要兩個步驟:AI首先必須確定輸入音頻中的語音內容是否與觸發短語的語音內容匹配(語音觸發檢測),然後必須確定說話者的語音是否與一個或多個註冊用戶的語音相匹配(說話者驗證)。一般方法是將兩項任務分別來處理,蘋果則認為可以用一個神經網絡模型同時解決兩項任務,同時它表示,經過驗證,該方法各方面性能可以達到預期。

在該論文中,研究人員給出了模型示例。他們在包含16000小時帶注釋樣本的數據集中訓練了基於兩種思路下設計的模型,其中5000小時的音頻帶有語音標籤,其餘均只有揚聲器標籤。相比於一般訓練模型去獲取多個標籤的思路,蘋果通過將不同任務的訓練數據進行級聯來訓練多個相關任務的模型。結果發現,在性能表現相同的情況下,蘋果新提出的模型反而更適合應用,它能夠在兩個任務之間共享計算,大大節省了設備上的內存空間,同時計算時間或等待時間以及所消耗的電量/電池數量都將降低。

在另一篇論文中,蘋果還介紹了多語言演講場景的演講者識別系統設計——知識圖譜輔助聽寫系統決策。以聲學子模型為例,它可以基於語音信號傳輸痕跡來進行預測,並且其上下文感知的預測組件考慮了各種交互上下文信號,其中上下文信號包含有關發出命令的條件信息、已安裝的命令語言環境、當前選擇的命令語言環境以及用戶在發出請求之前是否切換命令語言環境的信息。

結果顯示,這一設計的優勢在於,它們可以在語音信號太短而無法通過聲學模型產生可靠預測的情況下提供幫助。

此外,蘋果還提出了一項補充研究,緩解錯誤觸發問題,即忽略不適合語音助手(Siri)的語音。基於圖結構設計AI模型的思路,研究人員提出了一種圖神經網絡(GNN),其中每個節點都與標籤相連。結果顯示,該模型減少了87%的錯誤觸發。

更多優質內容,請持續關注鎂客網~

關鍵字: