中国骄傲!出身清华,斯坦福博士毕业,她的毕业论文让美国疯狂!( 二 )

陈丹琦获得的荣誉和参与的研究还有很多 。 2010 年 , 她获得了 ACM ICPC 国际大学生程序设计竞赛全球总决赛银牌 。 在斯坦福期间 , 她在 2014 年发表的论文《A Fast and Accurate Dependency Parser using Neural Networks》堪称深度学习依存分析方法的「开山之作」 , 她和曼宁教授提出的方法在保持精度的前提下 , 将解析速度提高了 60 倍 。

热门的博士毕业论文

这篇毕业论文名为《Neural Reading Comprehension and Beyond》 , 描述了她在博士期间的三个重要研究 , 以解决「人工智能中最难以捉摸和长期存在的挑战之一」:如何让机器学会理解人类语言 。 让我们看看她的毕业论文究竟说了什么 。

论文链接:https://stacks.stanford.edu/file/druid:gd576xb1833/thesis-augmented.pdf

摘要

教机器学会理解人类语言文本是人工智能领域最困难的长期挑战之一 。 本论文致力于解决阅读理解问题 , 即如何构建一个计算机系统来阅读一段文本并回答理解问题 。 一方面 , 我们认为阅读理解是衡量计算机系统理解人类语言程度的重要任务 。 另一方面 , 如果我们可以构建高性能的阅读理解系统 , 那么这些系统就会成为问答、对话系统等应用的关键技术 。

本论文聚焦于神经阅读理解 , 这是一类构建在深度神经网络之上的阅读理解模型 。 与基于特征的手工传统模型相比 , 这些端到端的神经模型已被证明在学习丰富的语言现象方面更加有效 , 在所有现有阅读理解基准测试中都有大幅度的提高 。

本论文包含两个部分 。 第一部分旨在概括神经阅读理解的本质并展示我们在构建高效神经阅读理解模型方面所做的工作 。 更重要的是了解神经阅读理解模型实际上学习了什么 , 以及解决当前任务需要怎样的语言理解深度 。 我们还总结了该领域的当前进展并讨论了未来的发展方向以及一些待解决的问题 。


推荐阅读