▲陈丹琦参与指导的ACL 2022优秀论文
论文链接:https://arxiv.org/abs/2112.08812
这篇论文提出应当重新审视评估标准,强调在对话问答场景中,单一“标准答案”不足以衡量模型真实的理解与对话能力。研究提供了更合理的评估方法,反映模型在多样性、语境理解与对话适应性方面的表现。
在斯坦福大学期间,陈丹琦在句法解析、知识库构建、问答和对话系统等领域做出了贡献。
她2014年发表的论文“A Fast and Accurate Dependency Parser Using Neural Networks(《一种快速且准确的基于神经网络的依存句法分析》)”是第一个成功的神经网络依存句法分析模型,用于分析句子的语法结构。该工作为谷歌NLP团队后续解析器的研究奠定了基础。
陈丹琦2017年发表的论文“Reading Wikipedia to Answer Open-Domain Questions(《通过阅读维基百科回答开放域问题》)” 开启了将信息检索与神经阅读理解方法结合起来,进行开放域问答研究的方向。
2018年,陈丹琦完成了题为“Neural Reading Comprehension and Beyond(《神经阅读理解及其拓展》)”的博士论文,长达156页。
该论文重点研究阅读理解和问答任务,在斯坦福大学正式公开后,迅速成为近十年来最受欢迎的博士论文之一。后来,它被中国的NLP研究者翻译成中文,是该领域许多人必读的著作。