引用:
作者JeiJei
說到底就是語音分析啊... 把多一點參數 (position, time, app [包括其設定], contact... etc)導入並沒有讓這個系統的基本設定變得更聰明. 系統還是在你說的話裡面找keyword然後試著進行動作.
你所謂的開放API, 我估計就是開放Siri的參數是吧?那語音分析的基本還是不變, 變得只是說參數以及設定變多了而已啊.
我並不是說蘋果這次整合的不好. 我只是說這些技術都是一樣的. 唯一變得只是設定的多少而已. 假如有人認為這是多創新的技術... 只能說該多看看產業雜誌/journal studies...
Siri前身本來就是word analysis... 基本架構也就是分析語音然後找keywords... 而keywords本身也有另外關連字集...
這跟Watson上面那種聯想-推理式系統還差的太遠
|
Watson 也是找keyword.....
簡言之,自然語言處理都是把字句拆成詞,並分門別類,名詞、動詞......等等,但分析類別比平常人類使用的分法更多。大類之中還有小類。例如地名詞可以分成:國家名詞、城市名詞、地方名詞....等等。
接著再去分析關鍵字,例如我問:第二次世界大戰美國在日本哪裡投下原子彈?
其中可以分析出,這是一個問「地名」的問句,關鍵字則有二戰、美國、投、日本、原子彈等。
可想而知,要理解一個句意,關鍵字分析很重要。分析如果不夠精確,接下來就會出錯。
再換一個例子:Siri 告訴我,哪裡的貴族世家最近?
Siri 就要正確分析出:這是一個問地點的問句。關鍵字有:貴族世家、距離、最近。
分析好之後,就要從資料庫找答案,這個步驟也很重要,當然也很複雜。
最後才給出答案。
基本上 Siri 和 Watson 本質上並沒有差異,只有技術上和實作上的差別而已。