新智元报道编辑:peter东 乔杨
【新智元导读】近期,Nature子刊发布了一项关于学术写作中大模型使用的研究。研究发现,了解LLM及其相关技术的受访者往往发表更多的文章。虽然大模型在学术研究中的文献回顾、摘要筛选和稿件撰写等方面被广泛应用,但具体的使用情况和人数仍缺乏定量研究。因此,研究人员开展了一项调查,以了解受访者在学术研究和发表过程中使用大模型的情况。
该调查共收集了来自59个国家、65个专业领域的226名医学研究者的反馈,他们均参加了哈佛医学院全球临床学者研究培训证书计划。调查显示,198名受访者中有87.6%表示知道大模型,其中33.3%的人对其有一定了解,而30.8%的人则有较深的理解。值得注意的是,了解大模型的受访者比不了解的大模型的受访者发表了更多的论文,这与之前的多项研究结果相符。
在了解大模型的受访者中,只有18.7%的人曾实际使用过大模型。他们主要使用大模型来纠正语法和格式错误(64.9%),其次是写作(45.9%)和修订编辑(45.9%)。然而,81.3%的受访者表示从未在研究项目或论文中使用过大模型,这与一些早期研究的结论有所不同。
除了当前的使用情况,该调查还探讨了受访者对未来大模型在各个研究阶段的影响的看法。大多数受访者(52%)认为大模型将对学术研究产生重大影响。具体而言,66.3%的受访者认为大模型将在纠正语法错误和格式方面产生重大影响,其次是修订编辑(57.2%)和写作(57.2%)。这些结果表明,大模型有望显著提高学术研究的效率和质量。
然而,也有部分阶段被认为不会受到大模型的重大影响,包括方法论(74.3%)、期刊选择(73.3%)和研究观点(71.1%)。这反映出人们在AI在批判性评估、研究设计和期刊选择方面的担忧。
大多数受访者(50.8%)认为大模型将带来积极影响,但也有一部分人表示不确定(32.6%)。尽管多数受访者认为期刊应允许使用AI工具(58.1%),但绝大多数(78.3%)认为需要制定相应规定,确保AI工具在科研中的有序使用。
调查还揭示了受访者在学术研究中使用大模型时的担忧和挑战。14%的受访者表示对大模型存在不确定感或缺乏经验,8%的人存在道德担忧,包括潜在的歧视、隐私泄露和剽窃问题。这表明,尽管大多数受访者支持使用AI工具,但他们也强调了加强监管措施的重要性。
有趣的是,不同经验水平的研究人员对AI工具的态度也存在差异。拥有10年以上研究经验的参与者更倾向于支持在监管条件下使用AI工具。尽管这项调查主要集中在医学研究领域,但其发现仍值得关注。随着大模型技术的发展,其应用将不仅限于语法修改和文献总结,还将逐渐影响更具批判性和创造性的研究阶段。
该研究表明,大模型在学术写作中有着广泛的应用前景,但同时也面临一些挑战和不确定性。随着技术的进步,如何平衡大模型带来的便利与潜在风险,将是未来研究的重要课题。