一篇在 ArXiv 上引起广泛关注的文章《自然语言对抗生成》引发了 Yann LeCun 和 Yoav Goldberg 之间的激烈讨论。Yoav Goldberg 在推特上直言不讳地表示:“请不要再将语言问题视为已解决,深度学习界还有很多工作要做!” Yann LeCun 则表示惊讶,因为他知道 Yoav 自己也从事深度学习应用于自然语言处理的研究。
这场讨论不仅涉及论文本身,还触及了 ArXiv 平台的模式和所谓的“占坑现象”。同时,它也揭示了自然语言处理领域中语言学家和计算机科学家之间长期存在的分歧。
6 月 2 日,一篇关于《自然语言对抗生成》的文章引起了广泛关注。该论文由著名书籍《深度学习》的作者 Aaron Courville 等人撰写,利用生成对抗网络(GAN)在自然语言处理领域取得了显著成果,尤其是在中国诗词数据集上的表现。
然而,这篇论文却引发了 Yann LeCun 和 Yoav Goldberg 的激烈争执。Yoav Goldberg 在推特上发表了尖锐的观点,随后撰写了一篇详细阐述其立场的文章。他认为,深度学习界不应过度自信地宣称已经解决了语言问题。
对此,Yann LeCun 表示不满,并在 Facebook 上撰文反驳。他指出,尽管 ArXiv 上存在一些质量参差不齐的论文,但这种快速发布的模式有助于促进学术交流。他还认为,Yoav 的批评更多是对整个深度学习领域的不满,而不仅仅是这篇论文本身。
Yann LeCun 强调,论文发表过程应注重实际贡献而非单纯的技术水平。他提到,深度学习领域的发展需要时间和合作,而不是简单的排斥。
Yoav Goldberg 在后续文章中进一步澄清了他的观点。他认为,论文作者应提供更具说服力的实验结果,以证明新方法的有效性。此外,他并不反对使用简单的模拟任务(toy task),也不认为论文的增量性质有何不当。
这场争论的核心在于如何平衡学术严谨性和创新速度。双方都在强调各自立场的同时,也认识到跨学科合作的重要性。
《自然语言对抗生成》这篇论文旨在利用 GAN 技术生成自然语言,通过引入基准测试解决了离散输出空间问题,并在多项任务上取得了优异成绩。作者们认为,GAN 方法相比基于似然的方法更具潜力。
这场争论不仅反映了自然语言处理领域内部的分歧,也展示了学术界在面对新技术时的态度变化。尽管存在争议,但各方都认同合作与交流的重要性。