引用:
|
作者慕凡
我認真回答你好了.
就我目前所了解的是這樣.
它這玩意兒會依照不同的語系有所區別.
也就是就算你是講英文的, 英系腔調與美系腔調也有所分別. 它會讓你選. 選正確的語系腔調它的辨識率就會"正常". 我說正常的意思就是在目前"beta"合理的範圍內去辨識你下了什麼指令. 然後由這個指令去判斷你這個指令的語意是什麼意思.
如果哪天出了中文的, "可能"也會分語系. 也就是大陸腔與不是大陸腔. 這我純粹猜測.
它這玩意兒驚人的地方是它某個程度上是交由遠端的伺服器去做運算, 與學習. 每天有多少人用這個東西它就累積越多各方面的資訊. 然後當然是由工程師再下去做"人類才能辦到的"分析與優化. 現在"表面"上看起來可能沒什麼, 但是如果它在這方面有踏出第一步先下去做, 之後要追它的並不是那麼容易. 就跟它很多產品是一樣的道理.
現在看起來好...
|
我想這種語意辨識,在沒有一個讓大家將語音資料上傳集中分析整理的技術,還有相對的商業模式出來之前,是無法實現的(其實在現在看來就所謂的雲端運算)
因為人類語言太複雜,你又無法天天去蒐集每個人講的話,然後做成比對的資料庫
你要做一個堪用的online系統,讓大家自動願意去講話,還上傳到那個系統「教」電腦講話(在現在看來就像是Siri做的事)
久了我們就可以把這種語音分析技術簡單化,變成client端就能處理,讓每一台電腦都能安裝,單機就能夠分析的語句,就不需要上傳,只有聽不懂的句子才上傳繼續學習
如果這種東西變成晶片,就可以賣給其他需要語音控制的廠商,而且因為人類語言會變化,這種晶片你定期要更新,然後你就可以靠這個賺錢
不過如同你所說的,現在應該只是一個開端,電腦總是回一些奇怪的話,現在我們可以當成笑話,但是如果幾年後電腦回的話你分不清楚是真人還是電腦
這時候我想會有很多社會議題產生