告别机械合成音:谷歌演示安卓 XR 眼镜“同声传译”,面对面拟人化翻译

谷歌在MWC 2026展会上演示了Android XR眼镜的新功能,该功能通过Pixel 10系列的语音翻译技术,实现了实时语言翻译,并将翻译结果以悬浮字幕和拟人化语音的形式呈现给用户,提升了沟通的自然度。

3 月 3 日消息,科技媒体 Android Authority 昨日(3 月 2 日)发布博文,报道称在 MWC 2026 展会期间,谷歌演示 Android XR 眼镜新功能,引入 Pixel 10 系列的语音翻译技术。

IT之家援引博文介绍,该功能主要打破语言交流的障碍,通过 Google Translate 应用,眼镜能够将面前说话者的语言实时转化为悬浮字幕显示在用户视野中。

Google 确认,Android XR 眼镜不仅提供文字翻译,还能像 Pixel 10 系列一样,**模仿说话者原本的音色和语调进行语音输出。**这意味着用户听到的翻译不再是机械的合成音,而是保留了说话者情感特征的实时语音,进一步提升沟通的自然度。

与 Pixel 10 仅支持通话场景不同,在 XR 眼镜应用场景下,实现了面对面的实时翻译。在旅行或商务洽谈中,即便对方中途切换语言,眼镜也能持续捕捉并模仿其声音输出。

该演示目前基于 Google 制造的原型机,功能尚处于开发阶段,最终是否登陆零售版尚待确认。不过,行业目光已聚焦于三星,该公司已确认将于今年晚些时候推出首款 Android XR 智能眼镜。

版权声明:本站文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明出处!

评论加载中...