让声音“看得见”!深圳“智”造AR眼镜亮相残特奥会
发布时间:2025-12-10 16:45 浏览量:1
深圳商报·读创客户端记者 任建新 文/图
一副看似普通的AR眼镜,正让听障人士与健听人之间的无障碍沟通成为现实——在正在举办的全国第十二届残疾人运动会暨第九届特殊奥林匹克运动会上,一款名为“知音”的智能AR眼镜引起关注。这款由深圳智音无碍科技有限公司研发的眼镜,能够实时将语音转化为文字显示在镜片上,让声音“看得见”。
这款产品的诞生,源于创始人凌志鹏作为听障人士的切身体验。他因意外导致右耳几近失聪,深知沟通障碍的痛苦。“让听障人士看见声音,说出手语”成为他创业的初心。
2015年,他在华中科技大学创业基地组建“译音团队”,瞄准当时尚处空白的语音转文字领域。“10年前语音转文字技术还很初级,我们做了个小程序,让听障朋友通过iPad看实时字幕聊天,这在当时已是突破。”
随着技术进步,团队发现字幕若能直接呈现在眼前,将大幅提升沟通效率——2019年起,他们转向光波导技术,4年后与头部硬件厂商合作推出首款智能字幕眼镜——知音AR眼镜。
这款被命名为“知音”字幕眼镜的产品,核心功能是将健听人的语音实时转为文字,显示在眼镜屏幕上,续航可达两天。区别于早期笨重的原型机,新一代产品仅重普通眼镜水平,“跑步、日常佩戴都不会压鼻梁,且全天使用不发烫。”
“单一的文字显示只是基础,真正的目标是让听障人士‘既听得见,也能表达’。”凌志鹏介绍,团队正与知名硬件厂商合作开发第二代产品,重点突破手语识别与双向交互:通过内置摄像头捕捉手语动作,结合自研大模型与微软/ChatGPT的语境分析能力,将手语实时转化为语音输出;同时,系统还能识别环境声(如猫叫、风声)、判断说话人方位及性别年龄,让听障人士“感知”更立体的世界。
技术层面,团队采用“软硬件协同”模式:硬件依托成熟厂商的光波导方案,软件则自主研发语音转文字、手语识别等核心算法,并针对不同场景调用华为(国内语音)、微软(海外语音)及自研大模型。“例如手语识别需结合前后语境,例如,当用户打出‘我想喝水’等模糊手势时,大模型能推测完整语义,避免误判。”凌志鹏表示,目前这款新一代产品已初具雏形,支持中英文精准互译,但为避免混杂口音降低准确率,暂未开放中英夹杂模式。
作为2022年底成立的科技型企业,智音无碍的成长离不开深圳市无障碍孵化空间的支撑。“这里提供市中心全免费办公场地,极大减轻了助残科创企业的成本压力。”凌志鹏表示,助残事业商业回报周期长,政府的场地与政策支持让团队得以与常规企业站在同一起跑线,“更重要的是,我们能快速对接产业政策、接触各地调研领导,及时把握助残科技发展方向。”