近年来,一项关于学术写作中大型语言模型(LLM)使用的调研成果发表在Nature子刊上。研究显示,熟悉LLM及相关技术的人通常会发表更多论文。尽管这类模型已在文献综述、摘要筛选和文稿撰写等领域得到广泛应用,但具体的应用范围和用户数量仍缺乏量化分析。为了填补这一空白,研究团队展开了一项针对医学研究者的问卷调查,以深入了解他们在学术研究和发表过程中的实际使用情况。
此次调查覆盖了来自59个国家、65个学科领域的226位哈佛医学院全球临床学者研究培训项目的参与者。数据显示,198名受访者中超过八成表示知晓LLM,其中三分之一具备一定认识,约三成对此有较深刻的理解。值得注意的是,熟悉LLM的受访者发表论文的数量明显多于不熟悉的同行,这一现象与先前多项研究的结果一致。
在这些熟悉LLM的受访者里,仅有不到五分之一的实际操作过此类工具。他们大多用它来修正语法和排版问题(占比六成以上),其次是在撰写(接近一半)和修改润色(同样接近一半)时有所应用。不过,仍有八成以上的受访者从未在自己的研究项目或论文中引入LLM,这一点与某些早期研究的结论有所出入。
展望未来,这项调查还考察了受访者对LLM在未来各研究环节可能产生的影响的看法。大多数受访者(超过半数)认为LLM会对学术研究造成重要影响。具体来说,超过六成相信LLM会在语法校正和格式优化方面发挥关键作用,其次是修订编辑(接近六成)和内容创作(同样接近六成)。这些结果表明,LLM有潜力大幅提升学术研究的效率和质量。
不过,在某些环节,LLM的影响力被认为较为有限。例如,七成以上的受访者认为方法论、期刊选择以及研究观点的设计不太可能因LLM而发生根本变化,这反映了人们对AI工具在这些领域的局限性存在一定顾虑。
对于LLM的总体影响,多数受访者持乐观态度(超过半数),但也有近三分之一的人感到难以判断。尽管大多数受访者认可期刊应当允许使用AI工具(接近六成),但绝大多数人(超过七成)主张必须建立明确规则,保障AI工具在科研中的合理运用。
此外,调查还揭示了受访者在使用LLM时的一些疑虑和难题。大约一成的受访者表示对LLM缺乏信心或经验不足,另有不到一成担心其可能导致歧视、隐私泄露或抄袭等问题。这说明,即便大部分受访者支持AI工具的应用,但加强监管仍是不可或缺的一环。
值得一提的是,不同资历的研究人员对AI工具的态度存在一定差异。拥有十年以上研究经验的参与者更倾向于支持在严格监管下使用AI工具。尽管本次研究聚焦于医学领域,但其发现具有一定的普遍意义。随着LLM技术不断进步,其应用场景将不再局限于简单的语法检查和文献整理,而是逐步渗透到更加复杂且富有创新性的研究工作中。
总而言之,这项研究表明,LLM在学术写作中展现出广阔的应用前景,但同时也伴随着一些挑战和不确定性。未来,如何妥善应对LLM带来的便利与潜在风险,将成为学界持续关注的核心议题。