雷锋网 AI 科技评论按:如题,虽然 NLP 研究领域已经在深度学习的帮助下取得了长足的发展,许多技术也已经商业化落地,但我们也需要知道,这个领域还有几个开放性问题等待解决 —— 如果它们也能比较好地解决,也许我们能迎来 NLP 科研成果与商业落地的一个新的高潮。
下面列举的 5 个开放性问题来自自学 NLP 的机电一体化本科生 Deepak Garasangi 在 Reddit 上的发帖讨论内容总结,并且参考了 Sebastian Ruder 曾经总结的 4 个开放性问题。按重要性从轻到重排序:
这个问题在领域内不算很大的瓶颈,但是经常有研究人员觉得有必要重新讨论这个问题,因为现行惯例里往往不问原因就沿用某些固定的架构、数据集和评价指标。有人这样总结:「随着我们探索越来越高级的认知任务,弄明白为什么某些方法、某些架构在某些时候能起到好的效果,这对我们非常有帮助。」
另外一种担忧是对于评价指标自身的,这些评价技巧、这些生成的数字到底能在多大程度上对应人类语言的多样性和表达能力?对这个问题的回答也可以帮助我们构建出更有趣的自然语言推理数据集。
拓展阅读:EMNLP 2017 论文《Why We Need New Evaluation Metrics for NLG》(https://www.aclweb.org/anthology/D17-1238)
NLP 领域遇到的另一个棘手问题是为这几个问题设计解决方案:
低阶模型用于下游任务时的终生适配
迁移学习的应用
视觉、文本、音频等等语言相关模态的无缝整合
低资源情境中高效的跨任务迁移
拓展阅读:Sebastian Ruder 近期写了一篇文章,总结了 NLP 领域迁移学习的现状,雷锋网 AI 科技评论也做了编辑,可以点击阅读
从 ACL 学会出版的论文集来看,近一两年的 ACL 会议、EMNLP 会议中研究面向目标的对话系统的论文都有大幅增加。这就是又一个开放性问题:如何设计具备常识、能在真实世界语境中与人类进行较长的、面向目标的交谈的机器对话系统。目前的研究思路包括:带有状态追踪的任务驱动的对话系统,使用强化学习的对话系统,以及很多别的新点子。
拓展阅读:在 NLP 中应用强化学习 https://www.csie.ntu.edu.tw/~yvchen/doc/KAIST19_Tutorial.pdf
这可以算是最紧迫的问题。目前全世界大约有 7000 种语言,但这些语言中只有很小的一部分,大概 20 种左右,可以算是资源丰富的语言。这个问题除了很实际之外,在其中找到灵感、取得进展也相对比较容易。专家们认为可行的方向包括:
为低资源语言设计收集数据、用较小数据训练语言模型的方法
可以有效用于低资源语言的跨任务迁移方法
拓展阅读:详细的说明文章参见 http://www.cs.cmu.edu/~ytsvetko/jsalt-part1.pdf
没错,这就是那个最开放的问题,它和 NLP 领域中的许多具体问题也都息息相关。想要解决这个高阶的认知问题,可能需要我们从强化学习、领域适应、小样本/零样本学习等等领域中借鉴很多思想和方法,也还需要 NLP 研究人员们做出更多创新。
现阶段的研究落脚点包括:
共指消歧(Coreference resolution)、多义词解析(Polysemy)、文本/文档总结(Text/Document Summarization)
论证与推理,讽刺与幽默
高效地表征大文本
环境中的语言学习(Grounded language learning),比如联合学习一个世界模型和语言模型,并且学习如何在语言模型中使用世界模型。
Yoshua Bengio 曾说:「要有野心。不要(因为做 NLP 就)仅仅读 NLP 论文。要读很多机器学习、深度学习、强化学习的论文。」我们也希望各位研究者们可以打开眼界,多多参考以前和现在的包括别的领域的有用经验,才能解决更难的问题、做出更大的成果。
via deeps.site/blog/2019/09/09/nlp-problems/,雷锋网 AI 科技评论编译