苹果、微软、Google、亚马逊及 Meta 日前与美国伊利诺大学进行合作,将推动名为「语言无障碍计划」(Speech Accessibility Project)的发展项目,预计改善语音识别技术,让有不同发声障碍、语言障碍的人士也能顺利透过声音与各类设备交互。
实际上,包含苹果、Google 在内业者,先前就已经针对不同发声情况
,并且针对不同口音、发声方式进行调整,使其借由声音交互的数字助理服务可以顺利识别用户提问内容。但由于各家业者投入研究方式不同,实际创建训练模型多少也有差异,因此可能发生在不同服务、设备使用语音识别功能时,会有体验落差的情况。
而此次多科技业者家与伊利诺大学合作「语言无障碍计划」,则是希望能进一步让所有提供声音识别技术业者共同参与创建相同识别模型,让更多听障、受疾病影响发音等情况人士都能顺利透过语音识别技术与各类设备交互,避免在不同服务、设备使用过程会有体验上的落差。
基于语音识别技术已经逐渐成为众人与设备交互模式,同时许多身障、受疾病影响的人更仰赖语音识别方式操作手机等设备,因此也让各家业者越来越重视语音识别技术应用发展。
此次推行的「语言无障碍计划」,将从不同发声范本提供者搜集数据,并且创建用于人工智能训练的学习模型,但初期仅先以英语语系设计为主,但预期日后也会加入支持更多语言类别。
原创文章,作者:刺猬也有伤,禁止任何形式转载:https://www.10bests.com/3Ckuaixun-37235/