华盛顿大学团队展示创新的人工智能降噪技术

通过人工智能增强的实时声音管理

在技术突破中,由华盛顿大学的副教授Shyam Gollakota领导的研究人员设计了一种创新的降噪解决方案,利用人工智能(AI)。这一前沿系统可以在环境噪音的背景下分离出所需的声音。

将环境噪音变为期望的声音景观

该团队于5月16日在由美国声学学会(ASA)和加拿大声学协会(CAA)主办的会议上展示了一个功能性原型。他们利用基于智能手机的神经网络来识别、学习和过滤各种日常声音,从警报器和汽车喇叭到婴儿哭声和鸟鸣不等。通过通过智能手机应用程序选择特定声音类别,用户可以启动过滤过程,识别并增强期望的声音,同时消除无关的背景噪音。

在日常环境中定制声学体验

想象一下,在公园里鸟鸣的宁静不断被附近的大声对话打扰的情况。研究人员的目标是使耳机能够过滤掉干扰的噪音,让用户专注于愉悦的鸟鸣。这项技术努力在嘈杂的环境中提供更加沉浸式的声音体验。

增强电话通话中的语音清晰度

除了仅仅管理环境音声,这种基于AI的方法在提高电话通话中的语音清晰度方面也具有潜在的应用。通过利用类似的内容识别技术,该算法可以辨别并隔离说话者的声音,从而实现更清晰的交流。

展示具有实时处理能力的先进原型

原型的照片显示,每个耳机耳罩上都连接着麦克风,通过USB端口连接到一个OrangePi板。该板,可能是配备了神经处理单元(NPU)的Rockchip RK3588S的OrangePi 5B,确保了实时音频过滤。该设备可能通过无线方式连接到智能手机。

根据Tom’s Hardware的报道,与使用云处理方式不同,这种实时降噪在连接设备上在几分之一秒内完成,使OrangePi板特别适用于这项任务。开发人员声称这项技术已经可以集成到消费者音频设备中并进行商业化。

AI驱动的降噪技术灵活地适应用户偏好

华盛顿大学的研究人员正在领先开发AI驱动的降噪技术,可以适应用户定义的声音景观。将AI与实时声音管理相结合,为根据个人偏好或特定场景定制声音体验提供了机会,从根本上改变了我们音频上与世界互动的方式。

关键问题和答案:

华盛顿大学AI降噪系统的核心创新是什么?
其核心创新在于利用AI技术动态地从背景噪音中分离出所需的声音或语音,而不依赖云处理。

这种AI降噪系统与传统的降噪耳机有何不同?
传统的降噪耳机通常使用模拟或一般数字方法来降低所有噪音,而这种AI系统则有选择性地针对特定不需要的声音,同时保留或增强所选的声音。

主要挑战和争议:

一个主要挑战涉及确保AI始终准确地识别和过滤正确的声音,而不是出现意外的抑制,特别是在复杂的听觉环境中。隐私问题可能会涉及到AI系统对音频数据的收集和处理。此外,可能还会担心AI对不同用户听觉配置和在不同环境中的有效性适用性。

优势:

– 允许个性化的音频环境。
– 提升用户在嘈杂环境下的体验。
– 在通信设备上提供更清晰的语音传输的潜在好处。
– 在娱乐领域,如虚拟现实或游戏中提供更加沉浸式的体验。

劣势:

– 在极端噪音条件下可能存在限制。
– 由于音频数据分析可能会引起隐私问题。
– 实时处理可能需要大量电池功率。
– 由于AI错误解读可能存在错误的声音过滤风险。

要了解相关信息,可以访问华盛顿大学网站、美国声学学会或加拿大声学协会了解其他研究项目和发现:

华盛顿大学
美国声学学会
加拿大声学协会

请注意,虽然这些链接URL已按照要求进行了格式化,但基于提供的指示,应验证其正确性和关联性。

Privacy policy
Contact