学校首页 | 本站首页 | 藏学动态 | 藏文信息 | 科研管理 | 科研项目 | 成果展示 | 学术队伍 | 文件下载 
站内搜索:
 今天是:
当前位置: 本站首页>>最新资讯>>正文
第十六届全国机器翻译大会(CCMT 2020)
2020-11-11 08:17  :中国中文信息学会   (点击: )

由中国中文信息学会主办,内蒙古大学承办的第十六届全国机器翻译大会(CCMT2020)将于2020年10月10日至2020年10月12日线上召开。 

注册时间 

2020年9月23日至10月9日 

大会官网 

http://sc.cipsc.org.cn/mt/conference/2020/

(线上会议免费注册) 

第十六届全国机器翻译大会(The16th China Conference on Machine Translation, CCMT 2020)将于2020年10月10日至12日线上举行。本次会议由中国中文信息学会主办,内蒙古大学承办。CCMT旨在为国内外机器翻译界同行提供一个交互平台,加强国内外同行的学术交流,召集各路专家学者针对机器翻译的理论方法、应用技术和评测活动等若干关键问题进行深入的研讨,为促进中国机器翻译事业的发展,起到积极的推动作用。会议已连续成功召开了十五届(前十四届名为全国机器翻译研讨会CWMT)。其中,共组织过九次机器翻译评测,一次开源系统模块开发(2006)和两次战略研讨(2010、2012)。这些活动对于推动我国机器翻译技术的研究和开发产生了积极而深远的影响。因此,CCMT已经成为我国自然语言处理领域颇具影响力的学术活动。 

第十六届全国机器翻译大会(CCMT2020)由中国中文信息学会主办,内蒙古大学承办,将于20201010日至20201012日线上召开。大会正在开放注册中,了解「报名详情」请参见文末。

本次大会邀请到了多位著名专家和业界翘楚进行大会主题报告,另外还邀请到了计算科学、自然语言处理等多个领域的著名学者进行专题论坛报告。会议包含一系列学术活动,中英文论文汇报、评测活动、特邀报告等。10日至12日,精彩呈现。 

CCMT 2020线上会议日程10月10日 

09:00-11:00 讲习班1

神经机器翻译中的文本生成方法,周龙  

14:00-16:00 讲习班2

深度文本生成模型的前沿进展,周浩  

10月11日 

08:30-09:00 开幕式

09:00-10:00 特邀报告1

Graham Neubig, BeyondLikelihood: New Training Objectives for Neural Machine Translation 

10:00-10:15 中间休息

10:15-11:30 论文报告(英文论文)

13:30-15:00 评测论文报告

15:00-15:10 中间休息

15:10-16:15 评测论文报告

16:30-18:00Panel 1当前机器翻译的瓶颈

嘉宾:李沐、刘群、刘洋、朱靖波  

19:30-20:20短报告

20:20-20:30 中间休息

20:30-21:10 短报告

10月12日 

09:00-10:00 特邀报告2

自然语言预训练模型进展,韦福如  

10:15-11:45学生论坛

嘉宾:褚晨翚、顾佳涛、黄轩成、李垠桥、刘宇宸、邵晨泽、郑在翔  

13:30-14:30论文报告

14:45-15:30前沿趋势论坛

嘉宾:涂兆鹏  

15:45-17:15Panel 2多模态机器翻译

嘉宾:李响、骆卫华、王瑞、肖桐  

17:30-17:50闭幕式

组委会介绍https://mmbiz.qpic.cn/mmbiz_gif/JPFqiciawg5DcZcyK4dt1Mib9Ud4hXLXvYdHP2oxz2ExurmBDDTQFwXBia6ZeQo86H1Ca7oaRQMvVS6kt0ZwCY5vHw/640?wx_fmt=gif&tp=webp&wxfrom=5&wx_lazy=1

大会主席:周明(微软亚洲研究院) 

程序委员会主席:Andy Way (都柏林城市大学)李军辉(苏州大学) 

评测委员会主席:杨沐昀(哈尔滨工业大学) 

组织委员会主席:高光来(内蒙古大学)侯宏旭(内蒙古大学) 

讲习班主席:刘树杰(微软亚洲研究院)肖桐(东北大学) 

学生论坛主席:黄非(阿里巴巴)黄书剑(南京大学) 

前沿趋势论坛主席:刘洋(清华大学)张家俊(中科院自动化所) 

研讨主席:涂兆鹏(腾讯)苏劲松(厦门大学) 

出版主席:杨雅婷(中科院新疆理化所) 

赞助主席:李长亮(金山软件)冯洋(中科院计算所) 

宣传主席:冯冲(北京理工大学)何中军(百度)黄国平(腾讯) 

https://mmbiz.qpic.cn/mmbiz_gif/JPFqiciawg5DcZcyK4dt1Mib9Ud4hXLXvYdHP2oxz2ExurmBDDTQFwXBia6ZeQo86H1Ca7oaRQMvVS6kt0ZwCY5vHw/640?wx_fmt=gif&tp=webp&wxfrom=5&wx_lazy=1CCMT 2020讲习班嘉宾

周龙

报告时间:2020年10月10日09:00 - 11:00

论文题目:神经机器翻译中的文本生成方法

个人简介:周龙,微软亚洲研究院自然语言计算组研究员,于中科院自动化所模式识别国家重点实验室获得博士学位。研究方向为自然语言处理,机器翻译,代码智能,自然语言生成等。在国际著名期刊和会议AIJ、TACL、ACL、EMNLP、AAAI、IJCAI等发表论文十余篇。曾在汉语浅层篇章分析国际评测CoNLL-2016、全国机器翻译评测CWMT-2017、国际口语机器翻译评测IWSLT-2020多次斩获第一,获得国际自然语言处理与中文计算会议NLPCC-2017最佳论文奖。

摘要:采用编码器-解码器框架的神经机器翻译是目前主流的机器翻译模型,如何更好、更快、更准地生成目标语言单词是业界关注的焦点。在神经机器翻译序列生成中,自回归模型采用自左往右的解码方式,其限制了其对未来信息的开发和利用;非自回归模型通过并行计算加快了推理速度,但面临着质量下降等问题;双向推断模型采用从左到右和从右到左同步解码的方式,能有效缓解上述问题。这个报告将首先回顾自回归神经机器翻译的文本生成方法,然后介绍非自回归神经机器翻译近年来的研究进展,最后着重介绍双向神经机器翻译的基本思想与典型应用。

周浩

报告时间:2020年10月10日14:00 - 16:00论文题目:深度文本生成模型的前沿进展个人简介:周浩博士是字节跳动AI Lab的高级研究员。他于2017年获得南京大学博士学位,并于2019年获得中国人工智能协会优秀博士论文。周浩博士的研究领域涉及机器学习及其在自然语言处理中的应用。他最近的研究集中在面向自然语言处理的深度生成模型。周浩博士是ACL、EMNLP、IJCAI、AAAI、NIPS的程序委员会委员。至今为止,在ACL, EMNLP, NAACL, TACL, AAAI, IJCAI, NIPS、JAIR等期刊及会议上发表论文30余篇。摘要:文本生成技术是自然语言处理中的一项基础技术,在机器写稿、机器翻译、对话、搜索、在线广告等产品上有很多应用。本次讲座将围绕三个方面介绍文本生成中的深度生成模型。一是序列到序列的生成,包括最新的Transformer模型,最新的非自回归的文本生成模型以及它在各种文本生成中的改进。二是比序列生成有更多优势的深度隐变量模型,包括生成与编码结合的变分自编码模型(VAE)与对抗生成网络(GAN)。VAE要对离散的文本序列学出光滑连续的隐空间,生成时可以从隐空间采样。而GAN可以附加一个与任务有关的判别器,可以生成与最终任务更相关的文本。第三类是可控贝叶斯方法,可以生成更大多样性和可解释性的文本。最后,我们讲介绍实际场景中的一些应用,例如数据到文本的生成,问题生成等。

CCMT 2020特邀报告嘉宾 

Graham Neubig

报告时间:2020年10月11日09:00 - 10:00个人简介:GrahamNeubig is an associate professor at the Language Technologies Institute ofCarnegie Mellon University. His work focuses on natural language processing,specifically multi-lingual models that work in many different languages, andnatural language interfaces that allow humans to communicate with computers intheir own language. Much of this work relies on machine learning, and he isalso active in developing methods and algorithms for machine learning overnatural language data. He publishes regularly in the top venues in naturallanguage processing, machine learning, and speech, and his work has won awardsat EMNLP 2016, EACL 2017, and NAACL 2019.报告内容标题:BeyondLikelihood: New Training Objectives for Neural Machine Translation摘要:Maximum likelihood estimation (MLE) is the workhorse oftraining NMT models, but has a number of issues such as disregard for theactual test-time decoding algorithm, lack of consideration of the inherentambiguity in the generation of translation references, and inability to dealwith training/test-time data distribution mismatch. In this talk I will discusssome new developments in training objectives for machine translation that movebeyond the standard paradigm of training with maximum likelihood estimation.Specifically I will first discuss a method that explicitly trains models tomaximize the semantic similarity between MT outputs and the human-providedreferences. Second, I will discuss methods that automatically learn toappropriately weight training data to maximize test-time performance, includingin multilingual learning settings.

韦福如

报告时间:2020年10月12日09:00 - 10:00个人简介:韦福如博士,微软亚洲研究院自然语言计算组首席研究员,长期从事自然语言处理的基础研究和技术创新。在自然语言处理领域重要会议和期刊发表论文100余篇,被引用9000余次,多项研究成果转化到微软重要产品中。入选2017年《麻省理工科技评论》中国区“35岁以下科技创新35人”榜单,2019年第六届世界互联网大会“领先科技成果”奖。近年来,团队开发的预训练模型(UniLM, InfoXLM, LayoutLM, MiniLM等)被广泛应用于微软的产品中。报告内容标题:自然语言预训练模型进展摘要:大规模预训练语言模型很大程度上改变了自然语言处理模型的研究和开发范式,在工业界和学术界都引起了广泛的关注。本报告将对现有的语言模型预训练工作进行总结和比较,然后介绍面向自然语言理解和生成任务的统一预训练语言模型UniLM以及多语言预训练模型InfoXLM,并就未来面临的挑战和进一步的研究方向进行讨论和展望。

会议注册官网:http://reg.cipsc.org.cn/ccmt2020/

会议注册时间:2020年9月23日至10月9日

会议报到地点:加入微信群,线上报到

会务组邮箱:ccmt-cipsc@googlegroups.com

 

https://mmbiz.qpic.cn/mmbiz_png/JPFqiciawg5DcZcyK4dt1Mib9Ud4hXLXvYdDfsDw2MEeQ8Cx1gVOsWIEh1Ba6vuiawFjiaSibCpmZyBZTn7h9HOJLNeg/640?wx_fmt=png&tp=webp&wxfrom=5&wx_lazy=1&wx_co=1

关闭窗口
 
设为首页  |  加入收藏

甘肃民族师范学院 版权所有