CANGARU指南:生成式AI在学术研究中的负责任使用框架与实践
1. 项目概述当生成式AI成为学术研究的“新常态”最近和几位高校的朋友聊天发现一个挺有意思的现象大家的研究室里ChatGPT、Claude、Gemini这些生成式AI工具已经从最初的新奇玩具变成了和Word、Excel、LaTeX并列的“生产力标配”。学生用它来润色论文初稿、梳理文献综述研究员用它来生成代码片段、设计实验方案甚至辅助进行数据分析和结果解读。这股浪潮来得太快快到我们还没来得及为它划清边界、制定规则。“CANGARU指南”这个项目正是在这个背景下应运而生。它不是一个冰冷的、高高在上的伦理宣言而是一套旨在帮助每一位身处研究一线的学者、学生和科研管理者如何在日常工作中负责任地、透明地、且高效地使用生成式AI的实操框架。CANGARU这个名字本身就蕴含了其核心精神它倡导一种批判性Critical、负责任Accountable、透明Transparent、有指导Guided的AI使用方式并强调研究者Researcher的主体性与最终责任Ultimate responsibility。简单来说这个项目要解决的核心痛点就是当AI生成的文本、代码、思路甚至图表已经深度嵌入我们的研究流程时我们该如何报告如何署名如何确保学术诚信的基石不被侵蚀它试图回答的不是“能不能用”的问题——这已是既成事实——而是“怎么用才对”的问题。无论你是刚刚接触科研的硕士生还是领导大型课题组的教授或是期刊编辑、基金评审人这套框架都试图为你提供清晰的行动参照。2. CANGARU框架的核心原则拆解CANGARU并非凭空创造它是对现有学术规范在AI时代的一次系统性升级和具体化。其五个字母所代表的原则共同构成了一个环环相扣的伦理使用闭环。2.1 批判性使用AI是副驾驶不是自动驾驶这是所有原则的起点。生成式AI的本质是“生成”而非“创造”或“发现”。它基于海量数据模式进行概率预测产出具有高度迷惑性的流畅文本但其内容可能包含事实性错误“幻觉”、逻辑漏洞或过时信息。核心操作要点永远保持质疑对待AI生成的任何内容——从一句文献总结到一个数学公式——都必须像对待一位可能出错的助手一样进行事实核查与逻辑验证。例如AI生成的参考文献必须逐一核对是否存在、作者与年份是否准确。明确能力边界清楚认知当前AI的局限。它在需要严格演绎推理、创新性理论构建、涉及高度专业领域最新进展或未公开数据的任务上可靠性存疑。它擅长的是模式重组和信息整合而非真正的知识创新。过程记录在科研笔记中不仅记录你向AI提出的问题提示词更要记录你对其回答的验证过程。例如“使用GPT-4梳理了近五年关于‘X理论’的三大争议点随后在Web of Science中通过关键词检索验证了这三点确实为高频被引综述文章所讨论并补充了GPT未提及的第四点争议源于2023年Y等人的最新实证研究。”注意最危险的使用方式是将AI的输出不加批判地直接作为自己思考的终点。这相当于放弃了研究者最核心的批判性思维职能。2.2 问责制研究者是最终的责任主体无论AI工具提供了多少协助研究工作的设计、执行、解读以及成果的发布其学术责任和法律责任最终且完全由研究者本人或团队承担。AI不能成为错误、剽窃或学术不端的“替罪羊”。核心操作要点署名权界定AI工具不能被列为论文作者。作者身份意味着对工作的智力贡献、对内容的全面理解以及对结果的担保AI不具备这些资格。它的贡献应在“致谢”或“方法”部分以明确、可追溯的方式说明。内容所有权与审查研究者必须对论文中每一句话、每一张图、每一组数据的准确性和完整性负责。即使某段文字由AI辅助润色其表达的观点和引述的事实也必须经过研究者的最终确认和背书。流程内嵌审核在课题组或实验室内部应建立AI辅助成果的审核流程。例如规定所有由AI生成的代码必须在提交前由另一位成员进行人工复审和测试AI辅助撰写的部分需要在组会中进行专门讨论。2.3 透明度让AI的“足迹”清晰可见这是实现问责制的基础也是当前学术出版界最迫切的需求。透明度要求研究者清晰披露在研究中何处、如何、以及为何使用了生成式AI。核心操作要点披露位置标准化建议在论文的“方法”部分开辟独立小节如“生成式AI使用声明”或在“致谢”部分之后增加专门段落。避免仅在投稿信或补充材料中含糊提及。披露内容具体化披露不应只是一句“本文使用了ChatGPT”。应尽可能包括工具名称与版本如 ChatGPT-4 (OpenAI, 2023年5月版本)。使用目的如“用于初步的文献综述思路构建”、“用于英文稿件的语法润色与语言抛光”、“用于生成Python数据可视化代码的初稿”。使用阶段如在研究设计、文献调研、代码编写、稿件撰写、语言润色等具体环节。提示词示例提供1-2个关键性的、能体现交互过程的提示词示例注意去除敏感数据。人工干预程度定性或定量说明研究者对AI输出进行了多大程度的修改、验证和整合。例如“AI生成的文献综述大纲经研究者重组并扩充了约60%的内容所有引用均经手动核实并补充了原始文献。”数据与隐私必须声明在交互过程中是否输入了未公开的原始数据、机密信息或个人隐私数据并说明相关数据是否被用于AI模型的进一步训练根据工具的用户协议。2.4 有指导的使用将AI纳入科研管理体系机构大学、研究所、实验室不应仅仅发布一纸禁令或空洞的鼓励而应提供具体的指导、培训和资源将AI工具合规、高效地整合到科研工作流中。核心操作要点制定机构级指南学校或院系应基于CANGARU等框架制定更贴合自身学科特点如医学实验、人文社科理论构建、工程设计的AI使用实施细则。提供技能培训开设关于“科研场景下的高效提示词工程”、“利用AI进行文献管理与综述”、“AI辅助编程的调试与验证”等实操工作坊提升研究人员的AI素养。建设基础设施考虑采购或搭建合规的企业级AI工具确保数据在交互过程中不外流并提供稳定的计算支持。同时可以建立内部的“AI辅助研究最佳实践”案例库供成员参考学习。导师的职责研究生导师需要与学生明确讨论AI在课题中的使用边界将其作为科研训练的一部分。例如规定开题报告、理论推导核心部分必须由学生独立完成而AI可用于后续的表述优化或辅助绘制示意图。2.5 研究者主体责任捍卫学术的核心价值这一原则是CANGARU的落脚点它强调所有技术工具都服务于一个终极目的拓展人类知识的边界。研究者的原创性思考、对问题的深刻洞察、对证据的严谨评估才是学术工作的灵魂。核心操作要点界定“智力贡献”核心区研究者必须明确哪些是研究工作不可委托的核心智力环节。通常包括提出原创性研究问题、设计关键实验方案、进行核心的数据分析与解读、形成最终的结论与理论贡献。这些环节应以研究者为主导AI仅能作为辅助信息检索或表达优化的工具。反思使用动机时刻自省使用AI是为了提升研究效率和质量还是为了替代本应自己完成的学习和思考过程后者将导致研究者核心能力的退化。成果的“人性化”审视在论文最终定稿前通篇审视这篇文章是否真实反映了我们的思考和发现AI的辅助是否让我们更清晰地表达了这些思想还是模糊甚至扭曲了它们3. 构建可操作的AI使用与报告工作流基于CANGARU原则我们可以为一项典型的研究项目设计一个从启动到投稿的全流程AI使用与报告清单。这套工作流不是束缚而是为了更安心、更高效地利用新技术。3.1 研究准备与设计阶段此阶段AI可作为强大的“头脑风暴”伙伴和知识助理但决策权必须牢牢掌握在研究者手中。课题构思与问题提炼使用场景向AI描述你感兴趣的大领域和观察到的现象让它帮你生成一系列可能的研究问题或假设。例如“我观察到在社交媒体上关于气候变化的讨论存在两极分化。请从传播学或社会心理学角度提出5个可供实证检验的具体研究问题。”操作与验证将AI生成的问题列表作为灵感来源而非最终选择。你需要结合文献阅读批判性地评估每个问题的创新性、可行性和学术价值。最终确定的研究问题应源于你对文献空白的独立判断。记录要点记录AI辅助生成的问题列表并简要注明你选择或摒弃其中某个问题的理由。文献综述与理论框架搭建使用场景利用AI快速梳理某一领域的核心概念、关键学者、经典理论及发展脉络。让它为你生成一个初步的文献综述大纲或理论框架图。操作与验证这是幻觉高发区AI可能编造出不存在的学者、理论或论文。你必须以AI提供的关键词和线索为起点返回权威数据库如Google Scholar, Web of Science进行系统检索逐一核实并阅读核心文献。AI生成的大纲只是一个结构草稿你需要用真实阅读获得的见解去填充、修正和深化它。记录要点保存最初的AI生成大纲并与你最终完成的综述结构进行对比这本身就是透明度的一个体现。3.2 研究执行与数据分析阶段在此阶段AI主要扮演“高效执行者”的角色尤其在编程和数据处理方面但其输出必须经过严格测试。实验方案与材料设计使用场景在心理学、教育学等领域可以请AI帮助起草实验指导语、设计问卷题目初稿或为实验材料如文本刺激生成多个平行版本。操作与验证对AI生成的所有材料必须进行人工审核确保其符合学术伦理如无诱导性、无歧义并经过小范围的预实验测试。AI无法理解某些文化背景下的细微差别。记录要点在方法部分注明“实验指导语由研究者设计并经由ChatGPT-4进行语言流畅性优化优化后的文本经10名预实验参与者测试确认无理解障碍。”编程与数据分析使用场景这是AI如GitHub Copilot, ChatGPT Code Interpreter大放异彩的领域。可以让你用自然语言描述分析需求生成数据清洗、统计检验、可视化绘图的代码。操作与验证绝对禁止“黑箱”操作你必须理解AI生成的每一段关键代码的逻辑。对于统计分析要手动检查输入数据的格式、确认所选检验方法的假设条件是否满足、核对输出结果如p值、效应量是否合理。可视化图表生成后要检查坐标轴标签、图例、刻度是否准确。记录要点在论文的“数据分析”小节或补充材料的代码仓库中可以注明“XXX分析采用了基于Python的pandas和scikit-learn库部分数据预处理代码在ChatGPT-4的辅助下生成并经过手动调试。” 更好的做法是在代码注释中直接标明AI辅助生成的函数块。3.3 论文撰写与发表阶段这是AI使用最广泛也最敏感的环节涉及学术成果的最终呈现和诚信。初稿撰写与段落展开使用场景在面对“写作障碍”时可以向AI描述你想表达的核心观点让它帮你生成一段展开论述的文字。或者让它将你的要点列表转化为连贯的段落。操作与验证AI生成的文字往往流于表面、缺乏深度和批判性。你必须将其作为“初稿的初稿”注入你自己的专业见解、批判性分析和文献支撑。彻底重写其表达方式确保其与全文的学术风格和论点深度一致。记录要点如果某一部分大量借鉴了AI生成的文本结构应在透明度声明中具体说明。语言润色与语法修正使用场景对于非英语母语研究者这是AI如Grammarly, ChatGPT的核心价值。它可以高效地修正语法错误、改善句式结构、使表达更符合学术英语习惯。操作与验证注意AI可能会将你原本正确的专业术语“修正”为错误词汇或改变你刻意强调的细微含义。润色后必须逐句精读确保技术准确性未被破坏。对于关键术语和表述应反向查证其在本领域的常用说法。记录要点这是最需要声明的情况之一。标准表述可以是“本文的英文稿件在撰写后使用了ChatGPT-4进行语言润色和语法检查所有科学内容和技术细节均由作者在润色后最终确认。”回复审稿意见使用场景审稿意见有时冗长复杂。可以让AI帮你总结审稿人的核心关切点或为某些需要补充实验的回复建议起草初步的辩解或修改计划。操作与验证AI的总结可能遗漏细微但重要的批评。你必须亲自阅读并理解每一条意见。AI起草的回复可能语气不当过于防御或过于谦卑。回复信必须体现你对审稿人专业意见的尊重和严肃思考语气需由研究者本人把控。记录要点通常无需在最终论文中披露此阶段对AI的使用但在实验室或团队的知识管理中可以记录这一有效实践。4. 撰写“生成式AI使用声明”的模板与示例一份好的声明应像“材料与方法”部分一样清晰、具体、可重复。以下提供不同详细程度的模板。4.1 基础声明模板最低要求适用于AI辅助程度较低的研究如仅用于语言润色。生成式AI使用声明在本研究及/或稿件撰写过程中作者使用了[AI工具名称如ChatGPT-4]用于[具体用途如英语语言润色和语法检查]。作者对所有科学内容、数据分析和结论承担全部责任并在使用后仔细审阅和修改了AI辅助生成的内容。4.2 详细声明模板推荐适用于AI在多个环节提供实质性辅助的研究。生成式AI使用声明工具与版本本研究在部分环节使用了OpenAI开发的ChatGPT-42024年1月版本。使用目的与阶段文献调研阶段用于生成关于“[具体理论/技术]”研究脉络的初步大纲和关键词建议。代码开发阶段辅助编写了数据清洗和[如“随机森林模型”]训练的Python代码片段。稿件撰写阶段用于对“讨论”部分初稿进行英语语言流畅性优化。研究者干预所有由AI生成的内容包括大纲、代码和文本均经过了研究者的严格验证、修改和整合。文献综述部分在AI大纲基础上经手动检索并阅读了超过80篇相关文献后重写所有代码均在独立环境中运行调试AI润色的文本均经作者逐句核对确保技术准确性。数据与隐私本研究未向AI工具输入任何未公开的原始实验数据或受试者个人信息。责任声明作者对本文的全部内容包括其学术诚信和准确性负有最终和完全的责任。ChatGPT-4仅作为辅助工具未被列为作者。4.3 针对特定场景的声明要点AI生成图表/示意图如果使用Midjourney、DALL-E等生成论文中的概念图或示意图必须声明“图X中的概念示意图由[DALL-E 3]生成提示词为‘[描述性提示词]’并由研究者使用[如Adobe Illustrator]软件进行了后期修改和标注。”AI辅助理论推导/公式在数学或理论物理等领域如果使用AI如Wolfram Alpha, ChatGPT插件辅助进行符号运算或推导验证必须声明“公式X的推导过程使用了[工具名]进行符号计算辅助但整个推导逻辑和最终形式均由研究者验证并确认。”5. 常见困境、争议与实操建议在实际操作中即使遵循框架仍会面临诸多灰色地带和争议。以下是一些典型问题及我的个人建议。5.1 争议场景分析与应对“AI帮我写了方法部分的一段描述这算抄袭吗”分析这取决于“写”的程度。如果AI从零生成了一段对标准实验方法的描述而你未经实质修改直接使用这存在抄袭风险抄袭了AI训练数据中海量文献的表述。如果AI是基于你的草稿如要点列表、混乱的句子进行重组和优化你随后进行了深度编辑和事实核对则风险较低。建议永远从自己的草稿开始。哪怕只是几个关键词或 bullet points这确保了思想的原创性。将AI视为一个强大的编辑和改写工具而非作者。“我的研究大量使用了AI生成的数据/代码创新性该如何界定”分析研究的创新性应体现在科学问题、研究设计、对结果的解读和理论贡献上。使用AI生成数据如合成数据训练模型或代码其创新性在于你如何设计生成流程、如何验证生成结果的有效性、以及如何将其用于解决一个新颖的问题。工具的新颖性不等于研究的新颖性。建议在论文中突出强调你设计的生成流程、设置的约束条件、以及验证生成物质量的方法。你的智力贡献在于“驾驭AI完成特定科研任务”的独特方法论。“期刊/会议没有明确的AI政策我该怎么声明”分析越来越多的出版机构正在制定政策但进程不一。在政策空窗期主动、透明地声明是最佳策略这体现了你的学术严谨性和前瞻性。建议即使投稿指南未要求也强烈建议在稿件中附上一份详细的“AI使用声明”如4.2模板。这可以在“致谢”之后或作为“方法”的一部分。在投稿信中亦可简要提及。这通常会被编辑和审稿人视为负责任的表现。5.2 实验室与团队管理建议对于课题负责人PI或实验室管理者需要将CANGARU原则制度化。制定实验室AI使用公约在组内公开讨论并形成书面约定明确哪些任务鼓励使用AI哪些禁止如直接撰写基金申请书的核心部分、生成用于投稿的图表数据等。规定统一的披露格式。建立内部审核机制对于即将投稿的论文增加一个“AI使用审查”环节由另一位成员或导师检查AI声明是否准确、充分AI辅助生成的内容是否经过妥善验证。分享与培训定期在组会上分享使用AI提升研究效率的正向案例如一个巧妙的提示词解决了复杂的代码调试同时分析误用或过度依赖的教训。将AI素养培训纳入新生入门教育。5.3 给青年研究者的个人心法最后分享几点在AI时代做研究的个人体会。技术的洪流无法阻挡但学术的灯塔不应熄灭。第一保持“手工艺人”的底气。AI再强大也无法替代你通过亲手做实验、逐行写代码、逐篇读文献所积累的“手感”和“直觉”。这种深度的、有时是笨拙的参与过程是形成真正学术判断力的土壤。不要让自己退化为一个只会写提示词的“项目经理”。第二将透明度视为新的学术美德。过去我们通过详尽的“方法”部分来体现可重复性。现在我们还需要通过清晰的“AI使用声明”来体现可追溯性。主动披露不是示弱而是自信和严谨的体现它让你的研究在数字时代更具可信度。第三重新定义“思考”的价值。当信息整合和文字表达的门槛被AI大幅降低研究者最核心的竞争力将更加聚焦于提出真问题的能力、设计精巧实验的能力、在复杂数据中洞察模式的能力、以及进行深刻理论思辨的能力。这些恰恰是AI目前最不擅长的。你的目标不是成为最好的AI使用者而是成为那个最不可或缺的思考者。技术的工具属性从未改变。CANGARU框架的意义在于帮助我们驯服这头强大的“袋鼠”让它载着我们在学术探索的道路上跳得更远、更稳而不是被它带离既定的轨道甚至迷失方向。最终一切工具的价值仍由使用工具的人及其所秉持的诚信与智慧来定义。