ACL 是计算机语言学领域的顶级学术会议,ACL 2018 于 7 月 15 日-7 月 20 日在墨尔本召开。雷锋网整理了多家国内企业的录用论文。
2018 年,百度有多篇论文被 ACL 2018 大会录用。在论文《Multi-Passage Machine Reading Comprehension with Cross-Passage Answer Verification》中,百度提出了一种新的多文档校验的深度神经网络建模方法 V-NET,通过注意力机制使不同文档产生的答案之间能够产生交换信息互相印证,从而预测出更好的答案。在论文《Joint Training of Candidate Extraction and Answer Selection in Reading Comprehension》中,百度利用强化学习的方法对串行的多文档阅读理解模块进行联合训练。
更多论文解读可参考《百度四篇论文被 ACL 2018 录用,阅读理解新进展一览》
此外,针对多文档阅读理解任务,百度自然语言处理团队发布了面向真实搜索应用的最大中文开放领域阅读理解数据集 DuReader(包含 30 万问题、150 万文档和 72 万答案),并基于此数据集举办了 2018 中文阅读理解技术评测(http://mrc2018.cipsc.org.cn/),评测共有 1062 个队伍报名,累计提交结果 1489 次。该评测推动了机器阅读理解技术,尤其是中文阅读理解技术的发展。DuReader 数据集以及评测方法的论文也均被 ACL 2018 阅读理解研讨会(Workshop on Machine Reading for Question Answering)所录用。
腾讯 AI Lab 今年共有 5 篇论文入选,涉及到神经机器翻译、情感分类和自动评论等研究方向。
详细解读可访问《ACL 2018 | 腾讯 AI Lab 五篇入选论文》了解。
京东AI研究院易津峰录用论文《Attacking Visual Language Grounding with Adversarial Examples: A Case Study on Netural Image Captioning》。
京东硅谷研发中心 Shengqi Yang 录用论文《A Multi-lingual Multi-task Architecture for Low Resource Sequence Labeling》。
《Modeling Past and Future for Neural Machine Translation》
摘要:现有的神经机器翻译系统并没有显示地对已翻译和未翻译的内容做建模。本文提出了一种全新的机制在解码过程中动态地将源端信息分成两个部分:已经翻译的内容(Past)和未翻译的内容(Future),并且设计了两个不同的循环神经网络层对这两部分进行建模。已翻译和未翻译的信息被动态地输入到注意力模型和解码器状态中,以便使得整个神经翻译模型更好地在当前状态下区分已翻和未翻的内容。实验结果表明,本文提出的模型在中英,德英和英法三个标准数据集上可以显著地提高基线系统的性能,并且相比于覆盖率模型获得更好的翻译质量和对齐质量。
以上事件在雷锋网旗下学术频道AI科技评论数据库产品「AI 影响因子」中有相应加分。