金磊 发自 凹非寺
量子位 | 公众号 QbitAI
这,或许是现在跟Siri交流最潮的方式了——
只需要动动嘴皮子,就能让它under你的control。
没错,就是不需要出任何声音的那种。
这就是来自康奈尔华人团队的最新研究成果SpeeChin,无声语音识别。
像这样:
在没有声音的情况下,你能猜出来他在说什么吗?
但在SpeeChin的加持下,现在的Siri、Alexa等就已经可以识别,而且还支持普通话和英文!
是有种“此时无声胜似有声”的感觉了。
不说话,怎么控制语音助手?
康奈尔团队研发的SpeeChin,其实是一条神奇的项链。
戴上这条项链,就能开启无声语音控制的大门了。
例如对着电脑默念一句“Next”,音乐就会自动切换成下一首歌:
或许你会说一个单词过于简单了,别急,现在就来加大难度:
“Switch to Taylor Swift.”
可见,SpeeChin即便是面对一句完整的话术,也可以做到精准识别。
而这条“无声识别”项链的关键,就在于安装在项链下方的红外摄像机。
它可以捕捉到人物颈部和面部皮肤的变形图像,从而进行分析识别工作,确定从“嘴皮子”传达的是什么命令。
而且这条项链不仅能无声识别英文,连中文 也能够hold住。
在最初的实验中,有20人参与到了测试中,其中10人讲英文,另外10人说普通话。
研究人员让测试者分别用英文和中文发出数十条指令,包括数字、互动指令、语音辅助指令、标点指令和导航指令。
最后的实验结果,“无声识别”的准确率分别达到了90.5%和91.6%。
来自康奈尔大学的华人团队
这项研究来自康奈尔大学,一作是Ruidong Zhang。
其中,Cheng Zhang是这项研究的通讯作者。
他是康奈尔大学信息科学系的助理教授,他的研究聚焦在如何获取人体及其周围的信息,以应对各种应用领域中的现实世界挑战,如交互、健康感知和活动识别。
研究的一作Ruidong Zhang,他是Cheng Zhang教授的一名博士生,本科毕业于清华大学。
他的研究兴趣在于人机交互和普适计算,特别是建立新型的可穿戴设备,用来促进互动体验并加深我们对人类行为的理解。
至于为什么他们要做SpeeChin这项工作,据Ruidong Zhang解释:
主要是考虑到在某些特定场合中,人们可能不适合发出声音;还考虑到一些不能说话的人群。
最后,来揭晓一下开头GIF的答案:
你猜对了吗?
参考链接:
[1]https://techxplore.com/news/2022-02-smart-necklace-silent-english-mandarin.html
[2]https://www.youtube.com/watch?v=pDf86dSPYYI
[3]https://infosci.cornell.edu/content/zhang-0
[4]https://infosci.cornell.edu/content/zhang-1
本文首发于微信公众号:量子位。文章内容属作者个人观点,不代表易科立场。投资者据此操作,风险请自担。