中国青年网

地方

首页 >> 地方资讯 >> 正文

中科院计算所获奖后 第二个华人科学家团队再夺金

发稿时间:2021-08-09 20:37:00 来源: 中国青年网

  北京时间8月5日,人工智能领域的“奥运会”ACL 2021正式颁发"最佳论文"奖项。字节跳动的机器翻译技术论文在3350篇论文投稿中一举夺冠,当选今年度"最佳论文"。这是ACL成立59年以来,华人科学家团队第二次赢得最高奖项,此前由中科院计算所主导的研究项目曾在2019年获评"最佳长论文"。

  自然语言处理被誉为"人工智能皇冠上的明珠",在机器翻译、搜索、信息流、输入法等领域有着广泛的应用。ACL大会由国际计算语言学协会主办,是自然语言处理与计算语言学领域最高级别的学术会议,每年都会吸引全球顶尖高校和科技公司的关注与参与。

  本届ACL参与角逐的机构包括斯坦福大学、卡耐基梅隆大学、亚马逊、微软、谷歌等,论文录取率仅为21.2%,创近三年来新低。

  学术成就进步显著 人工智能顶会秀出中国力量

  近年来,华人团队在自然语言处理领域研究取得了举世瞩目的成绩,过去数年间曾获得"最佳长论文"、"最佳学生论文"和"杰出论文"奖项。

  官方数据显示,ACL2021来自中国的论文投稿数量已经大幅超越美国,并领先其他国家与地区:共有 1239 篇论文投稿来自中国大陆,其中 251 篇被接收,接收率 20.3%。

  今年除了字节跳动赢得最高荣誉,大会还评出了六篇"杰出论文",香港中文大学与腾讯人工智能 Lab的合作论文成功入选。

  图:ACL 2021公布“最佳论文”评选结果

  纵观近十年人工智能领域各类顶级学术会议的统计数据,华人科学家取得的学术成绩可以用“十年磨一剑”来形容。此前,各类人工智能顶会一直由美国的科技企业“霸屏”,其中,谷歌的论文录取数量遥遥领先,微软位居第二。

  由于起步相对较晚,中国团队早期在人工智能顶会的声量寥寥,论文也主要来自学术机构。据官方数据统计,清华大学和北京大学,是中国进入全球各机构论文发表排行榜前十当中仅有的两所高校,中国科学院、中国科学院大学、南京大学的投稿数量排名紧随其后。

  近年来,随着国家将人工智能技术上升为战略性的“硬科技”,越来越多的企业正加大研发力度,逐渐在从“辅助角色”进化为中坚力量。腾讯、阿里巴巴、华为分别成立了科研性的实验室,发表了大量的科研论文。此次,字节跳动的最佳论文也被评审者评论为“想法非常创新,且工作极为细致透彻。这是以往中国大陆学者所很少能够做到的程度。”

  产学界的共同努力之下,华人科学家不仅在顶级学术会议上发出更大的声量,也掌握了更多话语权。在ACL2021上,中科院自动化所研究员宗成庆担任了主席,华盛顿大学的夏飞教授(Fei Xia)和香港理工大学的李文捷(Wenjie Li)教授位列程序主席。

  宗成庆表示,国内论文数量的增长是人工智能领域近年来火热,以及新技术应用前景所推动的结果。随着自然语言处理技术的发展,未来我们或许能看到更多投身这一领域的学者。

  节能减排 字节跳动最佳论文研究项目已开源

  字节跳动的获奖论文提出一种新的词表学习方案VOLT,该方案不仅在多种翻译任务上取得出色的效果,在降低碳排放、节能环保方面也有着显著优势。实验数据显示,使用VOLT方案可节省92%的算力,有效降低能耗。VOLT研究项目现已向全球开发者开源。

  具体来说,词表是所有自然语言处理任务都会使用的基础组件,其作用就像人类查字典的索引。研究人员创新地把经济学和数学的知识运用到词表中:首先用“边际收益”定义了词表质量的评价指标,然后以“最优运输”的数学方法解决最优词表的生成问题,从而高质高效地完成多种翻译任务。

  ACL官方评审认为,"字节跳动的VOLT方案对机器翻译中一个重要问题提出了有效且新颖的解决方案,能显著减少词表的学习和搜索时间,相信其不仅会在研究界产生重要影响,在工业应用方面也有着巨大潜力"。

  自2017年工信部发布《促进新一代人工智能产业发展三年行动计划(2018-2020年)》,自然语言处理就被列为我国人工智能应用的重要方向。我国“十四五”规划纲要也提出,将通过一批具有前瞻性、战略性的国家重大科技项目,带动产业界逐步突破前沿基础理论和算法,研发专用芯片,构建深度学习框架等开源算法平台,并在学习推理决策、图像图形、语音视频、自然语言识别处理等领域创新与迭代应用。

  据悉,最佳论文研究成果将在字节跳动的火山翻译业务中逐步落地,为飞书、今日头条等产品和火山引擎的企业级客户提供机器翻译支持。2021年以来,火山翻译实现多项重要技术突破,研发出支持150个语种互译的大规模翻译模型mRASP2,并对外开源了当前业界最快的推理和训练引擎LightSeq2.0,以及端到端语音翻译工具包NeurST,获得开源社区的广泛好评。

责任编辑:张亦弛
加载更多新闻