人工智能如何帮助我们更好地听力

聪明,快听起来

关键的外卖

  • 一系列新的助听器在上周的消费电子产品展示声称使用人工智能改善声音。
  • WIDEX MOMENT使用人工智能来了解用户喜欢听到周围环境的声音,并将其与存储在云端的数百万个设置进行比较。
  • 该公司称,Oticon More可以接收1200万种声音,因此它更像人类大脑一样在噪音中处理语音。
Widex Moment助听器。
宽阔

新的助听器使用人工智能来产生更现实的声音,制造商声称。

最近发布的WIDEX时刻使用AI了解用户如何更喜欢听到周围环境并将其与数百万存储在云中的设置进行比较,以帮助个性化聆听体验。它是使用新技术的越来越多的听力设备之一。

“WIDEX MOMENT与PureSound解决了助听器用户尚未解决的巨大挑战之一:无论声音多么动听,听起来还是很假,就像你在听自己声音的录音,而不是你听力受损之前的声音,”Widex营销副总裁凯里·考夫林(Kerrie Coughlin)在接受电子邮件采访时说。

“换句话说,不管技术能力如何,助听器听起来总是像助听器。”

我们听不到你的声音

MOMENT和其他高科技助听器解决了许多美国人面临的问题。在美国65-74岁的人群中,大约三分之一的人有听力损失,75岁以上的人群中有近一半有听力障碍,根据国家耳聋和其他沟通障碍研究所。

传统的助听器可能会变得更加变化,但它们有它们的极限。用户听到的声音被改变,因为当它在助听器中处理时,它比直接穿过耳朵自身行驶的声音稍后稍晚地到达耳膜。当这两个“超声”信号混合时,结果是人工声音。

为了防止这个问题,MOMENT使用并行处理路径来减少延迟。该公司称,这款助听器处理声音的速度是其他设备的10倍,将处理延迟减少到0.5毫秒。

“换句话说,不管技术能力如何,助听器听起来总是像助听器。”

“许多助听器会产生大脑不熟悉的信号,迫使你重新学习如何听,”Coughlin说。“这在很大程度上是由于声音处理过程中的延迟。带有PureSound的WIDEX MOMENT能够以最小的延迟提供更真实的信号,所以你的大脑能够识别信号,你也能够识别声音。”

考夫林说,人工智能还能提高MOMENT的表现。该软件分析用户的偏好,并通过分析设置来了解用户喜欢听周围的声音。人工智能还会搜索存储在云中的数百万用户设置,以帮助个性化聆听体验。

制造商跳上AI

这一刻不是唯一用ai的助听器。上周在消费电子表演中,Oticon使用船上的深神经网络(DNN)推出Iticon更多助听器。该公司索赔,Iticon更多网络培训1200万声音,因此它更像人类大脑的噪音。

“随着时间的推移,Oticon More的DNN学会了大脑自然学习的方式,”Oticon听力学副总裁唐纳德·舒姆(Donald Schum)在一份报告中说新闻发布

“通过助听器通过助听器的每种声音都与学习阶段中发现的结果进行了比较。这使得Iticon更多地提供更自然,完整,精确的平衡的声音场景,使大脑更容易进行最佳地执行。”

还有一个奥卡一这款助听器声称使用人工智能来减少背景噪音。该公司表示,ORKA One在助听器的外壳中使用了一个芯片上的人工智能神经网络。

佩戴助听器的人。
miodrag ignjatovic / getty图像

网络识别和切断可以分散注意力的背景声音,并增强人类的声音。“AI Denoise技术助听器可以区分背景噪声并使用户能够清楚地听到低频声音,”公司在其网站上说.“因此,用户有更好的听力,你可以在嘈杂的地区毫不费力地与你的家人和朋友交谈。”

人工智能正在迅速改变各种技术,包括医疗设备。如果这些设备能够改善用户体验,那么对那些听力受损的人来说,它们将是一个巨大的福音。

想要更多?点击这里查看我们对2021年消费电子展的所有报道

此页面有用吗?