谷歌表示,它的人工智能技術(shù)讓智能手機能夠解讀和“朗讀”手語。
這家科技巨頭還沒有開發(fā)出自己的應用程序,但已經(jīng)發(fā)布了算法,它希望開發(fā)者可以利用這些算法開發(fā)出自己的應用程序。
在此之前,這類軟件只能在個人電腦上使用。
來自聽力受損社區(qū)的活動人士對該舉表示歡迎,但他們表示,這項技術(shù)可能會難以完全掌握部分對話內(nèi)容。
在人工智能博客上,谷歌的兩位研究工程師瓦倫丁·巴扎列夫斯基(Valentin Bazarevsky)和Fan Zhang稱,這項免費公開的技術(shù)旨在成為“理解手語的基礎(chǔ)”。它是與圖像軟件公司MediaPipe合作打造而成的。
“我們很期待開發(fā)者會產(chǎn)生什么樣的點子。就我們而言,我們將繼續(xù)展開我們的研究,以使得這一技術(shù)變得更加強大,進一步穩(wěn)定對手語手勢的跟蹤,增加我們可以可靠地檢測到的手勢的數(shù)量。”谷歌的發(fā)言人向媒體表示。
谷歌坦言這是第一步?;顒尤耸恐赋觯瑑H僅依靠手勢生成語音的應用程序,可能會忽略掉任何的面部表情或做手勢的速度,而這些因素可能會影響對實際手語意思的理解。
此外,該技術(shù)不會將任何存在于局部地區(qū)的地域性因素納入考慮。
該算法可以跟蹤兩只手
聽力損失行動(Action on Hearing Loss)的技術(shù)經(jīng)理杰塞爾·維什努拉姆(Jesal Vishnuram)說道,這項計劃在聽到耳聾者的“聲音”上是一個良好的開端,但還需要配套其它的一些功能。
他說,“站在耳聾者的角度來看,開發(fā)一種軟件將文本或音頻自動翻譯成手語,以幫助他們的日常溝通,減少其在聽覺世界中的孤獨感,會更加有益。”
被遮擋的手指
過往,當這類技術(shù)試圖在視頻中追蹤手部動作的時候,手指的彎曲和手腕的擺動會遮蓋住手其他的部分,因此無法全面進行追蹤。這是這類軟件的早期版本的一個痛點。
而谷歌的技術(shù)則能夠在手指、手掌和手背上的21個3D點位上繪制出一個圖形,這樣當手和手臂彎曲或兩根手指接觸時,就能更容易理解手勢。
美國其他的大型軟件供應商也開發(fā)了一些技術(shù),來嘗試在個人電腦上解讀手語。去年,微軟與美國國家聾人工學院展開合作,為教室配置臺式電腦,然后通過實時翻譯員幫助有聽力障礙的學生。
在一篇博客中,學生們描述了他們之前錯過了一些教授說過的話,因為他們在上課時無法同時查看人工手語翻譯和教授在黑板上寫的東西,得在二者之間來回轉(zhuǎn)移注意力。
但是通過讓電腦桌面顯示所有要查看的信息,這一問題便得到解決。
在世界的其他地方,創(chuàng)新者們也已經(jīng)創(chuàng)造了他們自己的本土技術(shù)。
肯尼亞的一名25歲的開發(fā)人員研制出了一副觸覺手套,它可以給一款Android應用程序翻譯手語,然后該應用程序會將對應的文本朗讀出來。該款手套是羅伊·阿萊拉(Roy Allela)專門為他聽力受損的侄女打造的,他的這一發(fā)明最近獲得了美國機械工程師協(xié)會的獎項。(樂邦)