您的位置:首页 > 新闻频道 > 国际新闻 > 环球博览>正文

第二届“东方多语言语种识别竞赛(OLR 2017)”结果揭晓

时间:2017-12-18 15:54:02    来源:中华网    浏览次数:    我来说两句() 字号:TT

  继2016年成功举办第一届东方语种识别竞赛(OLR Challenge-Oriental Language Recognition Challenge)后,由“清华大学”和“海天瑞声”联合举办的第二届OLR Challenge,于12月14日在吉隆坡举办的2017亚太信息与信号处理峰会(APSIPA ASC 2017)上宣布了比赛结果,并在当天的晚宴上举行了颁奖仪式。

  东方民族一直以来给人的印象都是文化丰富多彩、复杂多元,其语言也是非常多样且复杂的,包含了以Austroasiatic languages(如柬埔寨语、越南语等)、TaiKadai languages(如泰语、老挝语等)、Hmong-Mien languages (如中国南部的方言)、Altaic languages(如韩语、日语等)、Indo-European languages (如俄语)等多种多样的语系。经过历史上长期的民族交流和融合,东方语系形成了丰富多变的声学和语言学现象,吸引了语音和语言研究者的高度关注,近年来,有大量的研究围绕着东方语种展开。但是,由于东方语言数据资源很少,加大了这个领域的研究难度和挑战性。也正因为如此,在人工智能、智能语音技术快速发展的大背景下,对东方语种的研究,就更吸引了来自全世界众多的研究者的目光和兴趣。

  “东方语种识别竞赛(OLR Challenge-Oriental Language Recognition Challenge)”是海天瑞声和清华大学联合举办的,面向全世界致力于东方语言研究的,,提供一个竞技和角逐的舞台。从2016年成功举办第一届之后,今年的OLR Challenge2017,吸引了来自全球19个国家和地区的30多个队伍报名,从参赛队伍的数量和,终提交结果数量,都比第一届大大提高。

  和OLR 2016相比,OLR 2017需要识别的语言从7种增加到10种,包括汉语普通话、粤语、日语、韩语、俄语、越南语、印尼语、藏语、维吾尔语、哈萨克语。数据总量从去年的70小时增加到116小时,包括697名发音人,约10万条语音。数据集中的7种语言由海天瑞声公司提供,分别是汉语普通话、粤语、日语、韩语、俄语、越南语、印尼语等。其他3种语言由清华大学、西北民族大学、新疆大学共同承接的国家自然科学基金,课题“多语言少数民族语音识别”项目(M2ASR)提供。

  OLR 2017的竞赛设置更加合理,包含1秒识别、3秒识别和整句识别三项识别任务。在短语音识别任务里,系统需仅凭短至1秒的语音,就要能准备识别出其对应的语种,这使得竞赛难度大大增加,但也更符合实际应用场景。清华大学提供了基线系统的构造脚本,使得参赛者可以轻松复现i-vector和深度神经网络两种标准语种识别系统。参赛队伍按综合识别结果和短语音识别结果两个标准进行排名。综合识别结果评价参赛队伍在语种识别上的总体科研实力;短语音识别结果反映参赛队伍在1秒语音这种极度困难任务上的科研攻关能力。

  清华大学的王东老师、汤志远博士和海天瑞声的市场总监陈清,在12月14日上午的“Multilingual Speech and Language Processing”特殊主题会场上共同宣布了比赛结果,并为获奖队伍颁发了奖状。

  本次OLR比赛的参赛队伍共有31支,,终提交结果并参与排名的有19支,分别来自中国大陆(11支)、新加坡(1支)、澳大利亚(1支)、中国台湾(1支)、中国香港(2支)、印度(3支)。

  ,终,,佳综合识别结果奖由新加坡国立大学(NUS)、新加坡科技研究局通信研究所(I2R)和新加坡南洋理工大学(NTU)联合团队获得;,佳短语音识别结果奖由澳大利亚新南威尔士大学(University of New South Wales)获得。

  作为本次竞赛组织者之一的北京海天瑞声科技股份有限公司,是全球,的人工智能基础数据资源和数据服务提供商,拥有覆盖全球70多个国家和地区的110种语言资源的数据储备,并向全球所有的主流语音技术开发商提供语音数据库和语音数据服务。除此之外,海天瑞声还为计算机视觉的核心技术研发提供大规模算法训练数据库,并提供图片及视频的人工标注服务,广泛应用在人脸识别、自动驾驶、智能监控等人工智能核心技术领域。

  (NUS、I2R和NTU获奖团队上台领奖)

  (新南威尔士大学获奖团队上台领奖)


注:本文观点仅代表作者本人观点,与本网站无关,本网站亦不对其真实性负责。■

请选择您浏览此新闻时的心情

相关新闻
网友评论
本文共有人参与评论
用户名:
密码:
验证码:  
匿名发表