AirCaps为推出手机端AI+眼镜端AR显示的解决方案,助力听力受损者
发布时间:2024-11-15 14:48 浏览量:1
对于听力受损的人来说,身处嘈杂环境,如多人同时交谈的场合,可能会带来极大的困扰。即使有助听器的帮助,他们也难以清晰地听到对方的话语。为了解决这一问题,康奈尔大学计算机科学专业的学生尼尔拜·纳朗(Nirbhay Narang)创立了 AIrCaps 公司,并开发了一种创新的解决方案:结合智能眼镜和智能手机的技术。
AirCaps 的工作原理是,通过智能手机的麦克风捕捉对话内容,利用手机内置的 AI 技术实时将对话内容转录成文字,然后将这些文字信息发送到智能眼镜上显示出来。这样一来,听力受损的用户就能够清晰地看到对话内容,从而避免受到背景噪音的干扰。
纳朗表示,他对人机交互领域充满热情,并认为自己更偏向于设计师的角色。然而,他也有朋友在智能眼镜领域有工作经验,这为他开发 AirCaps 提供了有力的支持。目前,AirCaps 已经开始接受预订,并计划为更多听力受损的人提供便利。
在美国,大约有 3000 万人患有残疾性听力损失。纳朗指出,助听器对于很多人来说并不完美,而且价格昂贵,还无法有效过滤掉背景噪音。因此,AirCaps 的出现为这些人提供了一个新的选择。
康奈尔理工大学信息科学系的副教授塔潘·帕里克(Tapan Parikh)对 AirCaps 的技术给予了高度评价,认为这是一项真正的创新技术,具有广泛的应用前景。纳朗在 2023 年找到了帕里克,并与他一起完成了多个与人工智能和大型语言模型相关的独立研究项目。帕里克对纳朗的工作态度和效率表示赞赏,认为他工作努力且速度非常快。
除了为听力受损的人提供字幕服务外,纳朗还认为 AirCaps 的智能眼镜具有其他一系列潜在的应用,比如支持注意力缺陷人群或帮助学习第二语言的人。