加入星计划,您可以享受以下权益:

  • 创作内容快速变现
  • 行业影响力扩散
  • 作品版权保护
  • 300W+ 专业用户
  • 1.5W+ 优质创作者
  • 5000+ 长期合作伙伴
立即加入
  • 正文
  • 推荐器件
  • 相关推荐
  • 电子产业图谱
申请入驻 产业图谱

人工智能时代兴起,NLP 何时才能成熟?

2019/09/20
66
阅读需 19 分钟
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

与非网 9 月 20 日讯,NLP 是计算机科学,人工智能和语言学的交叉领域。目标是让计算机处理或“理解”自然语言,以执行语言翻译和问题回答等任务。

随着语音接口和聊天机器人的兴起,NLP 正在成为信息时代最重要的技术之一,同时它也是人工智能的关键部分。充分理解和表达语言的含义是一个非常困难的目标。

大部分 NLP 技术都是由深度学习提供技术支持。在深度学习中,表示学习试图自动学习来自原始输入的良好特征或表示。而在机器学习中手动设计的特征通常过多且不完整,需要花费很长时间进行设计和验证。而且深度学习提供了一个非常灵活、通用且可学习的框架,用于呈现视觉和语言信息的世界。最初,它在语音识别和计算机视觉等领域取得突破。最近,深度学习方法在许多不同的 NLP 任务中表现出了非常高的性能。这些模型通常可以通过单一的端到端模型进行训练,并且不需要传统的,特定于任务的特征工程。

虽然 NLP 研究领域已经在深度学习的帮助下取得了长足的发展,许多技术也已经商业化落地,但我们也需要知道,这个领域还有几个开放性问题等待解决 —— 如果它们也能比较好地解决,也许我们能迎来 NLP 科研成果与商业落地的一个新的高潮。

下面列举的 5 个开放性问题来自自学 NLP 的机电一体化本科生 Deepak Garasangi 在 Reddit 上的发帖讨论内容总结,并且参考了 Sebastian Ruder 曾经总结的 4 个开放性问题。按重要性从轻到重排序:

5. 评价指标

这个问题在领域内不算很大的瓶颈,但是经常有研究人员觉得有必要重新讨论这个问题,因为现行惯例里往往不问原因就沿用某些固定的架构、数据集和评价指标。有人这样总结:「随着我们探索越来越高级的认知任务,弄明白为什么某些方法、某些架构在某些时候能起到好的效果,这对我们非常有帮助。」

另外一种担忧是对于评价指标自身的,这些评价技巧、这些生成的数字到底能在多大程度上对应人类语言的多样性和表达能力?对这个问题的回答也可以帮助我们构建出更有趣的自然语言推理数据集。

拓展阅读:EMNLP 2017 论文《Why We Need New Evaluation Metrics for NLG》(https://www.aclweb.org/anthology/D17-1238)

4. 终生学习(Life long learning)

NLP 领域遇到的另一个棘手问题是为这几个问题设计解决方案:

低阶模型用于下游任务时的终生适配

迁移学习的应用

视觉、文本、音频等等语言相关模态的无缝整合

低资源情境中高效的跨任务迁移

拓展阅读:Sebastian Ruder 近期写了一篇文章,总结了 NLP 领域迁移学习的现状,AI 科技评论也做了编辑,可以点击阅读

3. 面向目标的对话系统

面向目标的对话系统(Goal oriented dialogue systems)

从 ACL 学会出版的论文集来看,近一两年的 ACL 会议、EMNLP 会议中研究面向目标的对话系统的论文都有大幅增加。这就是又一个开放性问题:如何设计具备常识、能在真实世界语境中与人类进行较长的、面向目标的交谈的机器对话系统。目前的研究思路包括:带有状态追踪的任务驱动的对话系统,使用强化学习的对话系统,以及很多别的新点子。

拓展阅读:在 NLP 中应用强化学习
https://www.csie.ntu.edu.tw/~yvchen/doc/KAIST19_Tutorial.pdf

2. 低资源语言

这可以算是最紧迫的问题。目前全世界大约有 7000 种语言,但这些语言中只有很小的一部分,大概 20 种左右,可以算是资源丰富的语言。这个问题除了很实际之外,在其中找到灵感、取得进展也相对比较容易。专家们认为可行的方向包括:

为低资源语言设计收集数据、用较小数据训练语言模型的方法

可以有效用于低资源语言的跨任务迁移方法

拓展阅读:详细的说明文章参见 http://www.cs.cmu.edu/~ytsvetko/jsalt-part1.pdf

1. 自然语言理解

没错,这就是那个最开放的问题,它和 NLP 领域中的许多具体问题也都息息相关。想要解决这个高阶的认知问题,可能需要我们从强化学习、领域适应、小样本 / 零样本学习等等领域中借鉴很多思想和方法,也还需要 NLP 研究人员们做出更多创新。

现阶段的研究落脚点包括:
共指消歧(Coreference resolution)、多义词解析(Polysemy)、文本 / 文档总结(Text/Document Summarization)

论证与推理,讽刺与幽默

高效地表征大文本

环境中的语言学习(Grounded language learning),比如联合学习一个世界模型和语言模型,并且学习如何在语言模型中使用世界模型。

Yoshua Bengio 曾说:「要有野心。不要(因为做 NLP 就)仅仅读 NLP 论文。要读很多机器学习、深度学习、强化学习的论文。」我们也希望各位研究者们可以打开眼界,多多参考以前和现在的包括别的领域的有用经验,才能解决更难的问题、做出更大的成果。

与非网整理自网络!

推荐器件

更多器件
器件型号 数量 器件厂商 器件描述 数据手册 ECAD模型 风险等级 参考价格 更多信息
NC7SZ125P5X 1 onsemi TinyLogic UHS Buffer with 3-STATE Output, 3000-REEL

ECAD模型

下载ECAD模型
$0.18 查看
MM74HC541WMX 1 onsemi Octal 3-STATE Buffers, 1000-REEL

ECAD模型

下载ECAD模型
$1.03 查看
SN74CB3T3245DGVR 1 Texas Instruments 3.3-V, 1:1 (SPST), 8-channel FET bus switch with level shifter 20-TVSOP -40 to 85

ECAD模型

下载ECAD模型
$2.91 查看

相关推荐

电子产业图谱