/ ai资讯

张希院士探讨AI在科学研究中的应用与思考

发布时间:2025-02-14 11:47:25

吉林大学校长、中国科学院院士、期刊主编张希教授曾为中国化学会刊物CCS Chemistry 2024年第9期撰写了一篇关于人工智能(AI)在科学研究中应用的社论,现节选相关部分,希望与青年教师和学生分享,供大家学习和交流。

原文(节选)如下:

“ 面对人工智能,我们必须秉持批判性态度。深入思考其输出内容的内涵,探究分析所基于的数据集,以及评估输出结果的质量。” 2016年诺贝尔化学奖得主Ben L. Feringa 的这番话,如警钟长鸣,时刻提醒着我们在科技浪潮中保持理性。

在当今时代,生成式人工智能(AI)和大语言模型(LLM)已如潮水般涌入我们生活的每一个角落。从日常接触的图像生成、医疗诊断辅助,到天气预报的精准预测;从职场中的绩效评估,到交通出行的智能调度,乃至处于前沿的科学研究领域,人工智能的身影无处不在,展现出无可比拟的巨大影响力。

以化学领域为例,人工智能的介入带来了变革。在有机合成中,它能够快速且精准地优化合成路线,大大提高了实验效率;计算化学里,借助人工智能强大的运算能力,计算变得更加迅速、结果也更加精确;材料科学方面,人工智能可以从海量数据中筛选并生成潜在的候选材料;催化领域,它为先进催化剂的合理制备提供了全新的思路和方法。然而,尽管部分研究人员已经将人工智能融入日常工作,但仍有许多人在摸索如何更高效、更有建设性地运用这一技术,使其更好地服务于科研和学术交流。

大语言模型作为人工智能的重要分支,属于典型的 “黑箱” 系统。它通过对海量语音和文本数据的深度学习,实现对语言的理解与处理。经过复杂的数据处理、组织、重构和分析流程,大语言模型能够生成新的文本内容。但不容忽视的是,像ChatGPT(OpenAI开发)、文心一言(百度开发)这类广为人知的大语言模型,其输出质量在很大程度上受制于训练数据的类型、质量和覆盖范围。这就导致在实际应用中,尤其是涉及科学领域时,模型的分析结果往往受到训练过程中语言和逻辑输入的局限。在日常通信场景下,大语言模型或许能凭借丰富的数据储备给出较为合理的回应,但一旦面对科学研究中那些复杂、微妙的概念、成果解读,其数据的局限性便会暴露无遗,不仅相关信息匮乏,甚至可能因关键信息缺失而产生误导性结论和错误输出。正如ChatGPT自己所承认的:“人工智能系统的性能优劣,完全取决于其训练数据的质量。”

基于上述情况,虽然人工智能和大语言模型在日常生活和诸多领域展现出巨大的应用潜力,但在科学手稿的全面评审工作中,依赖它们是极不明智的选择。作为编辑,我们在工作中曾收到过内容空洞、缺乏深度的手稿评审意见,种种迹象表明,这些意见很可能是由大语言模型生成的。在此,我们郑重呼吁广大读者和科研工作者,当受邀参与并同意对手稿进行同行评审时,务必坚守专业底线,切勿依赖大语言模型完成评审工作。

事实上,包括中国化学会(CCS)在内的众多学术出版机构,都明确禁止使用人工智能进行手稿评审。其中最关键的原因在于,将未发表的手稿内容上传至大语言模型,严重违反了学术保密原则。一旦手稿信息被上传,大语言模型便有可能将这些尚未公开的内容泄露给公众。这意味着原本应由评审人严格保密的手稿内容,被第三方获取,从而极大地损害了手稿作者的权益,破坏了学术研究的严谨性和保密性。单从这一原则层面来看,利用大语言模型撰写评审意见无疑是对学术规范的公然践踏。

即便上述理由还不足以让您对使用大语言模型加速手稿(或提案)评审的行为保持高度警惕,那么大语言模型自身存在的局限性也应当引起您的足够重视。ChatGPT曾明确指出:“虽然人工智能在处理和分析大量数据方面具有显著优势,但在科学研究论文的评审工作中完全依赖它,会带来一系列风险。人工智能缺乏人类评审员所具备的对科学背景、研究方法以及创新理念的深刻理解和敏锐洞察力,难以准确评估研究的原创性和理论贡献,常常会忽略那些对论文质量和学术价值起着关键作用的微妙之处。此外,人工智能系统受限于训练数据的范围和质量,可能会不自觉地延续数据中的偏差,甚至对那些不符合传统模式的创新研究方法视而不见。而人类评审员凭借丰富的经验和批判性思维,能够从技术和理论等多个层面,对研究进行全面、深入、严格的评估,这对于维护科学知识的准确性、完整性以及推动科学进步至关重要。因此,人工智能在科学研究领域,尤其是同行评审过程中,只能作为辅助工具,绝不能取代人类的专业判断。”

显而易见,至少在目前阶段,ChatGPT等大语言模型还远远无法达到科学同行评审所要求的专业标准。科研工作者们彼此是学术道路上的同行伙伴,我们应当以尊重和严谨的态度对待每一份来自同事的手稿。严格遵守保密原则,投入足够的时间和精力进行评审,给予他人的研究成果以我们期望自己作品能得到的认真对待。此外,作为评审人,我们凭借长期积累的丰富经验所形成的独特视角,能够为所评审的手稿提供极具价值的见解和建议。这些建设性的意见不仅有助于提升手稿的质量,更能从整体上推动科学研究事业的发展。

虽然大语言模型不适合直接用于手稿评审,但对于那些在英语表达上存在困难的科研人员来说,它却可以在翻译和语言润色方面发挥积极作用。如今,利用大语言模型进行翻译、语法检查、拼写纠正以及表达优化,已经成为一种常见的应用方式。对于那些在英语写作中感到吃力的科研工作者而言,大语言模型为他们打开了一扇与国际学术界更顺畅交流的大门。若您撰写评审意见时想借助大语言模型检查英语表达,建议先上传自己的内容(无论多不完善),但务必排除能明确作者身份的信息,如姓名、所属机构等,同时也要避免过多透露手稿中的关键科学细节。在大语言模型生成润色结果后,一定要仔细核对,确保输出内容与您的原始意图一致。此外,还需特别注意的是,您应当向编辑明确说明在评审过程中使用了大语言模型进行翻译或润色,并注明所使用的具体模型名称。一般而言,无论是评审人还是作者,只要在写作或英语润色过程中使用了大语言模型,都有责任和义务清晰地披露使用的时间、场景以及具体的模型,因为这些生成的文本并非出自本人之手,而是大语言模型的产物。

毋庸置疑,人工智能正在深刻地改变着科学研究的方式以及科研成果的传播途径。在运用人工智能技术,无论是用于预测化学结构,还是进行语言润色时,我们都应时刻牢记本·费林加教授的提醒,始终保持“批判性态度”。科研工作者不能仅仅满足于输入数据,便盲目期待正确的输出结果,而是要切实承担起仔细评估人工智能(包括大语言模型)生成信息质量和有效性的责任,这一点对于科研工作的准确性和可靠性至关重要。与此同时,科研工作者还应养成在文本、图像以及整个研究过程中,明确说明使用人工智能情况的良好习惯,因为这些成果中融入了大语言模型的“智慧”,只有清晰标注,才能保证学术的严谨性和规范性。

随着秋季的临近,世界各地许多大学即将迎来新学年。我们在此向所有帮助下一代化学家探索化学领域和研究空间的教授、教师和导师们致以诚挚的感谢。化学及化学科学领域正经历着诸多变革,尤其是近年来人工智能的迅速崛起,这使得学生们扎实掌握化学过程的基础知识变得愈发重要。只有凭借这样的知识储备,以及在学习实践中培养出良好的科学直觉,他们才能更好地有效利用新兴的基于人工智能的工具。正如有人所说:“大学科学家的首要任务是培养学生具备批判性思维。”考虑到科研成果交流的重要性,我们也希望教授、专业人员和学生们在准备和评审稿件时,都能花时间去了解并牢记在论文发表和评审过程中何时使用人工智能。

原文链接 https://doi.org/10.31635/ccschem.024.202400827ed1

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com