home / skills / bahayonghang / my-claude-code-settings / paper-check

This skill helps you perform comprehensive academic paper quality checks across all sections, offering actionable edits, evidence tracing, and submission-ready

npx playbooks add skill bahayonghang/my-claude-code-settings --skill paper-check

Review the files below or copy the command above to add this skill to your agents.

Files (2)
SKILL.md
14.4 KB
---
name: paper-check
description: 学术论文全流程质检工具,支持全局检查和7个部分的专项审查(标题/摘要/引言/方法/结果/讨论/结论),适用于Gemini和Codex CLI
license: MIT
category: academic-writing
tags: [paper, quality-check, academic, validation, review]
---

# 学术论文检查 Skill

专业的学术论文质检工具,提供系统化的论文审查流程,帮助提升论文质量和发表成功率。

## 适用场景

- 论文投稿前的全面质检
- 审稿意见返修指导
- 论文写作过程中的阶段性检查
- 学术写作规范培训

## 核心特性

- **全局检查**: 逻辑流、术语一致性、时态、人称四大维度
- **分部检查**: 标题、摘要、引言、方法、结果、讨论、结论七个部分
- **可执行建议**: 每条问题都提供具体修改方案和示例改写
- **证据定位**: 所有判断都引用原文句子,可追溯验证

## 使用方式

### 基础用法

```bash
# 全局检查
codex e -m gemini-2.0-flash-exp "使用 paper-check skill 对我的论文进行全局检查" --attach paper.pdf

# 特定部分检查
codex e -m gemini-2.0-flash-exp "使用 paper-check skill 检查我的摘要部分" --attach paper.pdf
```

### 推荐工作流

1. **初稿完成后**: 先做全局检查,定位结构性问题
2. **修改后**: 逐部分精修(按优先级:摘要 → 引言 → 方法 → 结果 → 讨论 → 结论 → 标题)
3. **投稿前**: 再做一轮全局检查,确保一致性

## 检查模块

### 0. 全局检查 (Global Review)

在进入逐部分精修前,先进行全局检查,聚焦于逻辑、术语、时态和人称四大维度。

**核心检查点**:
- **逻辑**: 段落间过渡、论证链条连贯性
- **术语**: 关键术语与缩写前后一致性
- **时态**: 方法/结果用过去时,引言/讨论用现在时
- **人称**: 人称使用是否符合期刊规范

**输出格式**:
1. 全局诊断摘要(Top 5 问题 + 修改路线图)
2. 四维度问题清单(逻辑流/术语/时态/人称)
3. 术语表 Glossary
4. 每条问题包含:位置/类型/描述/证据/修改建议/示例改写

### 1. 标题校对 (Title Optimization)

标题应同时满足准确性、简洁性与吸引力。

**检查维度**:
- **准确性**: 是否覆盖核心内容(Task + Method 或 Task + Setting)
- **简洁性**: 是否存在冗余词、重复结构、无信息量形容词
- **吸引力**: 是否包含2-4个高价值检索关键词

**输出格式**:
1. Fact Sheet(从论文中抽取的事实要点)
2. Title Scorecard(当前标题三维度评分 + 诊断)
3. Actionable Edits(可执行修改建议清单)
4. 3 Candidate Titles(含策略标签/关键词/风险提示)
5. Recommended Title(首选标题 + 理由 + 期刊适配说明)

### 2. 摘要校对 (Abstract QA)

摘要应是独立、完整的浓缩文字,包含背景、方法、结果、结论四要素。

**检查维度**:
- **结构完整性**: Background/Methods/Results/Conclusion 四要素齐全
- **数据支持**: 关键结果有具体数值/指标/对比
- **一致性**: 摘要与正文的研究目的、方法、结果、结论一致
- **独立性**: 不看正文能否读懂(术语定义、背景、基线等)

**输出格式**:
1. 句级标注表(每句标注 B/M/R/C)
2. 数据支持清单(提取数值/指标,标出空泛表述)
3. 一致性核对(摘要 vs 正文逐条对比)
4. 独立性检查(未定义术语/缺少背景等)
5. 可执行改写建议 + 改进后摘要示例

### 3. 引言校对 (Introduction Structure Audit)

引言应呈现清晰的"漏斗型"逻辑结构:从宏观背景逐步聚焦到具体研究问题。

**检查维度**:
- **漏斗结构**: 宏观背景 → 子领域 → 具体问题 → 本文问题
- **研究空白**: 明确指出前人不足/未解决问题
- **研究问题/假设**: 明确 RQ 或可检验假设
- **路线图**: 说明论文结构安排

**输出格式**:
1. 句子编号与切分(S1, S2, S3...)
2. 四项检查结果(每项包含:结论/证据句/问题诊断/修复建议)
3. 问题清单 Top 5(按严重程度排序)
4. 最低改动修复方案
5. 结构重写方案(建议段落顺序)

### 4. 方法校对 (Methods Auditing)

方法部分的核心标准是"可复现性"。

**检查维度**:
- **可复现性**: 数据来源、样本量、预处理、模型结构、训练细节、评价指标等
- **理由阐述**: 每个关键选择是否说明"为什么选它"
- **伦理声明**: 人类受试/动物实验的伦理批准信息
- **时态一致性**: 英文用过去时,中文叙述统一

**输出格式**:
1. 结论概览(最严重的3个问题 + 后果)
2. 问题清单表(类别/严重程度/位置/问题描述/修改建议/推荐改写)
3. 四项专项检查(可复现性/理由阐述/伦理声明/时态一致性)

### 5. 结果校对 (Results QA)

结果部分应客观呈现事实,避免解释或意义推断。

**检查维度**:
- **纯粹性**: 不包含解释/因果/意义推断/价值判断
- **图表引用覆盖**: 所有图表在正文被完整引用
- **数据描述质量**: 提炼趋势而非逐数复述

**输出格式**:
1. 纯粹性问题清单(标签/原句/问题类型/建议处理)
2. 图表引用核对(被引用清单 + 遗漏项 + 格式问题)
3. 数据描述改进(原句/问题/建议改写)

### 6. 讨论校对 (Discussion Depth Review)

讨论部分需深入阐释结果的含义:解释原因、与前人对比、承认局限性、阐明价值。

**检查维度**:
- **解释与对比深度**: 每条结果是否解释原因、与前人对比
- **局限性**: 是否充分讨论方法学、数据、测量、外推性等局限
- **价值与贡献**: 理论价值和实践价值是否清晰

**输出格式**:
1. 主要结果提取(3-8条,含原文定位)
2. 解释与对比深度审查表(每条结果的机制解释/对比关系/引用证据)
3. 局限性审查(段落定位 + 应补的局限性清单 + 句式模板)
4. 价值与贡献审查(理论价值/实践价值证据定位 + 具体化改写)
5. 量化评分(解释深度/对比质量/局限性/价值清晰度,满分10)
6. 最小修改清单 Top 5

### 7. 结论校对 (Conclusion Review)

结论应直接回应引言提出的研究问题,用自己的话概括主要发现。

**检查维度**:
- **回应问题**: 是否回答引言中的 RQ1/RQ2/...
- **总结方式**: 是否避免照抄摘要
- **新信息检查**: 是否引入前文未出现的新信息
- **未来展望**: 是否基于局限性提出具体可执行的未来方向

**输出格式**:
1. 总体结论(A/B/C 评级 + 3条最关键问题)
2. 逐项检查(回应问题/总结方式/新信息/未来展望)
3. 优化后的结论收尾段示例(100-180字)

## 输出规范

### 问题定位格式

所有问题必须包含以下字段:

```markdown
**位置**: 章节-段落编号 或 段落首句
**问题类型**: 逻辑/术语/时态/人称/可复现性/...
**问题描述**: 一句话说明问题
**证据**: 引用原句(可截取关键片段)
**修改建议**: 具体怎么改
**示例改写**: 给出1个更优表达(可选但优先提供)
```

### 严重程度分级

- **Critical**: 影响论文可接受性(伦理缺失、不可复现、逻辑断裂)
- **Major**: 影响论文质量(术语混乱、时态错误、缺少关键信息)
- **Minor**: 影响阅读体验(表述不清、格式不统一)

### 表格输出格式

使用 Markdown 表格呈现结构化信息:

```markdown
| # | 位置 | 问题类型 | 严重程度 | 问题描述 | 修改建议 |
|---|------|----------|----------|----------|----------|
| 1 | 引言-S3 | 逻辑跳跃 | Major | 从宏观背景直接跳到方法 | 补充子领域现状与具体问题 |
```

## 约束与原则

### 硬约束

1. **不编造事实**: 所有判断必须基于用户提供的论文内容
2. **证据可追溯**: 每条问题都引用原文句子
3. **建议可执行**: 修改建议具体到"补充哪些字段/参数/步骤"
4. **不改变研究事实**: 只优化表达与补齐信息,不改动研究结论

### 默认假设

当用户未提供以下信息时,使用默认假设:

- **论文语言**: 根据输入自动判断(中文/英文)
- **目标期刊**: 按英文科技写作常见规范,以"一致性优先"
- **研究类型**: 从文本中推断;无法判断则标记 "Needs Verification"
- **写作偏好**: 默认允许第一人称 "we",偏主动语态

### 信息不足处理

当信息不足以做出判断时:

1. 明确标注 "Needs Verification"
2. 列出需要用户补充的最小信息清单
3. 基于默认假设继续完成检查(并在开头说明假设)

## 最佳实践

### 检查顺序建议

1. **初稿阶段**: 全局检查 → 引言 → 方法 → 结果
2. **精修阶段**: 摘要 → 讨论 → 结论 → 标题
3. **投稿前**: 全局检查(确保一致性)

### 与 AI 协作技巧

**1. 提供充分上下文(Context is King)**

明确的上下文能显著提升检查质量。包含以下信息:
- 目标期刊/会议名称
- 研究类型(实验/理论/综述)
- 特殊要求(字数限制、格式规范)

```bash
# ✅ 好的做法
codex e -m gemini-2.0-flash-exp \
  "使用 paper-check skill 检查我的方法部分。
   目标期刊: Nature Communications
   研究类型: 人类受试实验
   已获伦理批准: IRB-2024-001
   字数限制: 方法部分不超过1500字" \
  --attach paper.pdf

# ❌ 不够好的做法
codex e -m gemini-2.0-flash-exp "检查方法" --attach paper.pdf
```

**2. 分批处理长论文(Chunking Strategy)**

长论文(>10页)建议按章节分批检查,避免上下文窗口溢出:

```bash
# 按章节逐个精修
codex e -m gemini-2.0-flash-exp \
  "使用 paper-check skill 检查引言部分(第1-3页)" \
  --attach paper.pdf

# 或使用 rg 定位特定章节后再检查
codex e -m gemini-2.0-flash-exp \
  "检查 Methods 章节,重点关注可复现性" \
  --attach paper.pdf
```

**3. 迭代修改工作流(Iterative Refinement)**

采用"发现问题 → 修改 → 验证"的闭环流程:

```bash
# 第一轮:全局诊断
codex e -m gemini-2.0-flash-exp \
  "使用 paper-check skill 进行全局检查,输出 Top 5 问题清单" \
  --attach paper_v1.pdf

# 修改后第二轮:针对性验证
codex e -m gemini-2.0-flash-exp \
  "重点检查术语一致性和时态问题,对比 v1 版本" \
  --attach paper_v2.pdf

# 投稿前最终检查
codex e -m gemini-2.0-flash-exp \
  "最终全局检查,确认所有 Critical 问题已解决" \
  --attach paper_final.pdf
```

**4. 利用 Web Search 查询期刊规范**

对于不熟悉的期刊,可启用网络搜索获取最新投稿指南:

```bash
codex e -m gemini-2.0-flash-exp \
  --enable web_search_request \
  "查询 IEEE Transactions on Pattern Analysis 的摘要字数要求,
   然后检查我的摘要是否符合规范" \
  --attach paper.pdf
```

**5. 使用 Plan-First 模式处理复杂修改**

对于需要大量修改的论文,先让 AI 生成修改计划:

```bash
# 第一步:生成修改计划
codex e -m gemini-2.0-flash-exp \
  "使用 paper-check skill 检查全文,生成分步修改计划(5-7步)" \
  --attach paper.pdf

# 第二步:逐步执行修改
codex e -m gemini-2.0-flash-exp \
  "执行修改计划的第1步:修复引言部分的逻辑跳跃问题" \
  --attach paper.pdf
```

**6. 保存检查结果以便追踪**

将检查报告保存为 Markdown 文件,便于版本对比:

```bash
codex e -m gemini-2.0-flash-exp \
  "使用 paper-check skill 全局检查,将报告保存为 review_report_v1.md" \
  --attach paper.pdf
```

**7. 团队协作:统一检查标准**

在项目 CODEX.md 中定义团队共识的检查标准:

```markdown
## 论文检查标准
- 摘要必须包含具体数值(不接受"显著提升"等空泛表述)
- 方法部分必须包含超参数表格
- 讨论部分必须至少包含3条局限性
- 所有图表必须在正文中被引用
```

**8. 避免常见陷阱**

- ❌ 不要一次性检查所有维度(容易遗漏细节)
- ❌ 不要忽略 AI 标注的 "Needs Verification"(这些通常是关键缺失信息)
- ❌ 不要盲目接受所有建议(AI 可能对领域特定术语产生误判)
- ✅ 优先修复 Critical 级别问题
- ✅ 对 AI 建议的改写进行人工审核
- ✅ 保留原始版本以便回滚

## 常见问题

### Q: 检查结果太多,如何优先处理?

A: 按以下优先级:
1. Critical 问题(伦理、可复现性、逻辑断裂)
2. 结构性问题(引言漏斗、摘要四要素、讨论深度)
3. 一致性问题(术语、时态、人称)
4. 表述优化(标题、数据描述)

### Q: 如何处理"Paper did not specify"的情况?

A: 检查工具会标注"Needs Verification",并建议:
- 补充信息的最小集合
- 常见的默认值(如 Dropout=0.1)
- 参考同领域论文的做法

### Q: 中英文论文检查有何不同?

A: 主要差异:
- **时态检查**: 英文严格区分过去/现在时;中文检查时间指向一致性
- **人称检查**: 英文检查 we/our;中文检查"作者/本文/本研究"混用
- **术语检查**: 中文额外检查中英文术语对应关系

### Q: 如何验证修改效果?

A: 建议流程:
1. 根据检查报告修改论文
2. 使用相同模块再次检查
3. 对比两次检查结果,确认问题已解决
4. 最后做一轮全局检查,确保修改未引入新问题

## 技术细节

### 支持的输入格式

- PDF(推荐,支持图表识别)
- Word/DOCX
- Markdown
- 纯文本

### 推荐模型

- **Gemini 2.0 Flash Exp**: 速度快,适合初稿检查
- **Gemini 2.0 Pro**: 深度分析,适合精修阶段
- **GPT-4 Turbo**: 备选方案(需配置 Codex)

### 性能优化

- 长论文(>10页)建议分批检查
- 使用 `--enable web_search_request` 可查询期刊投稿规范
- 使用 `--dangerously-bypass-approvals-and-sandbox` 加速执行(仅限本地)

## 参考资源

- [学术写作规范](https://www.nature.com/nature-research/editorial-policies)
- [SCI 论文写作指南](https://www.elsevier.com/authors/journal-authors/submit-your-paper)
- [论文复现 Skill](../paper-replication/SKILL.md)
- [技术文档 Skill](../tech-design-doc/SKILL.md)

## 许可证

MIT License - 自由使用、修改和分发

## 贡献

欢迎提交 Issue 和 Pull Request 改进此 Skill!

---

**注意**: 此 Skill 提供写作建议,不替代人工审稿。投稿前请务必仔细阅读目标期刊的投稿指南。

Overview

This skill is a professional academic paper quality-check tool that performs a full-process review and targeted audits for seven manuscript sections (Title, Abstract, Introduction, Methods, Results, Discussion, Conclusion). It produces evidence-linked findings, concrete rewrite suggestions, and actionable edits to improve clarity, reproducibility, and publishability. Designed to work with Gemini and Codex CLI, it supports PDF/DOCX/Markdown inputs and iterative review workflows.

How this skill works

The skill runs a global review across four dimensions (logic flow, terminology consistency, tense, and person) and offers specialized audits for each section. Every issue includes location, evidence (quoted sentence), a severity level, a clear modification suggestion, and an example rewrite. It can operate per-file or per-section, supports chunking for long manuscripts, and can generate prioritized remediation plans.

When to use it

  • Before journal submission for a comprehensive pre-submission quality check
  • After receiving reviewer comments to guide focused revisions
  • During drafting to validate structure, reproducibility, and evidence support
  • When preparing a condensed abstract or reframing conclusions for a target journal
  • For training teams on consistent academic-writing standards and review checklists

Best practices

  • Run a global review first, then iterate with section-specific audits (Abstract → Introduction → Methods → Results → Discussion → Conclusion → Title)
  • Provide target journal, study type, and any ethics IDs to improve checks and context
  • Chunk long papers by chapter to avoid context-window limits and get detailed results
  • Prioritize fixes by severity: Critical → Major → Minor, and verify Changes with a re-run
  • Keep original versions and save reports to track changes across iterations

Example use cases

  • Perform a full global diagnosis to get Top 5 issues and a stepwise revision roadmap
  • Request a Methods audit to ensure reproducibility: data sources, hyperparameters, and processing steps
  • Ask for Abstract QA to check for complete background/methods/results/conclusion and numeric support
  • Run a Discussion Depth Review to extract claims, compare with prior work, and list limitations
  • Generate 3 candidate titles and a recommended title tailored to a target journal

FAQ

How does the skill avoid fabricating claims?

All findings must be traceable to text you provide: each issue cites the original sentence. The skill flags unknowns as "Needs Verification" and lists minimal info required from the author.

What input formats are supported?

PDF (recommended for figures), Word/DOCX, Markdown, and plain text are supported. For long PDFs, use chapter-level attachments or the chunking workflow.

How should I prioritize the report?

Fix Critical items first (ethics, reproducibility, major logic gaps), then structural issues (introduction funnel, abstract completeness), then consistency (terminology, tense), and finally stylistic optimizations.