AutoResearchClaw

2周前发布 220 00

AutoResearchClaw 是一款革命性的开源科研自动化框架,基于 OpenClaw 构建。它彻底改变了传统科研流程,让用户只需输入一个研究灵感(如“研究 X”),即可全自动完成从文献调研、假设生成、代码实验、数据分析到论文撰写的全过程,最终交付一篇符合 NeurIPS/ICML/ICLR 等顶会标准的完整学术论文。

所在地:
中国
收录时间:
2026-03-20
AutoResearchClawAutoResearchClaw

AutoResearchClaw 是一款革命性的开源科研自动化框架,基于 OpenClaw 构建。它彻底改变了传统科研流程,让用户只需输入一个研究灵感(如“研究 X”),即可全自动完成从文献调研、假设生成、代码实验、数据分析到论文撰写的全过程,最终交付一篇符合 NeurIPS/ICML/ICLR 等顶会标准的完整学术论文。

AutoResearchClaw

只需与 OpenClaw 对话:“研究 X”,剩下的交给系统

pip install -e . && researchclaw setup && researchclaw init && \
researchclaw run --topic "Your research idea here" --auto-approve

这是什么?

你提供一个灵感,AutoResearchClaw 将其转化为完整的学术成果。

输入一个研究主题,系统将自动输出一篇结构严谨的学术论文。它不仅仅是文本生成,更是一个具备真实文献检索硬件感知沙箱实验统计分析多 Agent 同行评审以及顶会级 LaTeX 排版能力的完整科研智能体。

  • 无需时刻盯着屏幕
  • 无需手动复制粘贴数据
  • 杜绝幻觉引用与伪造数据

交付物清单

运行结束后,你将在 deliverables/ 文件夹中获得所有可立即使用的成果:

文件/目录内容描述
📄 paper_draft.md完整学术论文草稿(含引言、相关工作、方法、实验、结果、结论)
📐 paper.tex适配顶会模板的 LaTeX 源码(支持 NeurIPS / ICLR / ICML)
📚 references.bib来自 OpenAlex、Semantic Scholar 和 arXiv 的真实 BibTeX 引用,自动精简至与正文一致
🔍 verification_report.json四层引用完整性核查报告(arXiv ID + CrossRef/DataCite DOI + 标题匹配 + LLM 相关性评分)
🧪 experiment_runs/生成的实验代码、沙箱运行日志及结构化 JSON 指标
📊 charts/自动生成的对比图表(含误差线与置信区间)
📝 reviews.md多 Agent 同行评审报告(包含方法论与证据一致性检查)
🧬 evolution/从本次运行中提取的自学习教训,用于优化未来任务
📦 deliverables/最终产出汇总,可直接上传 Overleaf 编译或提交期刊

全流程端到端自动化: 实验失败自动修复,假设不成立自主转向,发现引用造假自动剔除。

快速开始

1. 克隆与安装

git clone https://github.com/aiming-lab/AutoResearchClaw.git  
cd AutoResearchClaw
python3 -m venv .venv && source .venv/bin/activate
pip install -e .

2. 初始化环境

交互式安装 OpenCode Beast Mode,自动检查 Docker 与 LaTeX 环境依赖。

researchclaw setup

3. 配置项目

交互式选择 LLM 提供商并生成配置文件,或手动复制示例配置。

researchclaw init          
# 或手动:cp config.researchclaw.example.yaml config.arc.yaml

4. 启动研究

export OPENAI_API_KEY="sk-..."
researchclaw run --config config.arc.yaml --topic "Your research idea" --auto-approve

输出路径: artifacts/rc-YYYYMMDD-HHMMSS-<hash>/deliverables/
此处包含所有可编译的 LaTeX 文件、BibTeX 库、实验代码及图表。

⚙️ 最小必要配置 (config.arc.yaml)

project:
  name: "my-research"

research:
  topic: "Your research topic here"

llm:
  base_url: "https://api.openai.com/v1"
  api_key_env: "OPENAI_API_KEY"
  primary_model: "gpt-4o"
  fallback_models: ["gpt-4o-mini"]

experiment:
  mode: "sandbox"
  sandbox:
    python_path: ".venv/bin/python"

核心差异化能力

AutoResearchClaw 并非简单的文本生成器,它内置了复杂的科研逻辑引擎:

能力模块工作原理与价值
🔄 PIVOT / REFINE 循环在第 15 阶段具备自主决策权:根据实验结果选择 PROCEED (继续)、REFINE (调参优化) 或 PIVOT (转换方向)。所有产物自动版本化,确保可追溯。
🤖 多 Agent 辩论机制在假设生成、结果分析及同行评审阶段,引入结构化多视角辩论,避免单一模型偏见,提升结论可靠性。
🧬 自学习进化系统每次运行自动提取教训(决策理由、运行时警告、指标异常),采用 30 天时间衰减机制。后续运行将从历史错误中学习,避免重蹈覆辙。
📚 结构化知识库自动构建涵盖决策、实验、发现、文献、问题、评审六大类别的结构化知识库,沉淀科研资产。
🛡️ Sentinel 看门狗后台实时质量监控:检测 NaN/Inf 异常、校验论文与证据的一致性、评估引用相关性、部署反数据捏造守卫。

深度集成 OpenClaw

AutoResearchClaw 是 OpenClaw 兼容服务。既可作为独立 CLI 工具运行,也可无缝嵌入 OpenClaw 生态,实现“一句话科研”。

🚀 推荐用法:通过 OpenClaw 调用

如果你已在使用 OpenClaw 作为 AI 助手:

  1. 将 GitHub 仓库地址分享给 OpenClaw。
  2. OpenClaw 自动读取 RESEARCHCLAW_AGENTS.md,理解流水线编排逻辑。
  3. 直接指令:“帮我研究 [你的主题]”。
  4. 完成 — OpenClaw 自动执行克隆、安装、配置、运行,并返回最终论文。

底层流程透明化:

  • OpenClaw 解析 Agent 角色与流水线结构。
  • 自动复制并配置 config.yaml
  • 调用 LLM API(支持环境变量或交互式输入)。
  • 执行 pip install 与 researchclaw run
  • 交付论文、LaTeX 源码及实验数据。

🔌 OpenClaw Bridge 高级扩展

内置 Bridge 适配器系统,通过配置文件即可激活 6 种集成能力,无需修改代码:

# config.arc.yaml
openclaw_bridge:
  use_cron: true              # ⏰ 定时研究任务
  use_message: true           # 💬 进度通知 (Discord/Slack/Telegram)
  use_memory: true            # 🧠 跨会话知识持久化
  use_sessions_spawn: true    # 🔀 为并行阶段派生子会话
  use_web_fetch: true         # 🌐 文献检索中的实时网络搜索
  use_browser: false          # 🖥️ 基于浏览器的深度论文采集

每个标志激活一个类型化适配器协议。当 OpenClaw 提供对应能力时,适配器自动消费,实现功能无缝扩展。

🔌 灵活的后端支持:ACP (Agent Client Protocol)

AutoResearchClaw 支持使用任何 ACP 兼容的编码 Agent 作为 LLM 后端,无需配置 API Key。Agent 通过 acpx 通信,在全部 23 个流水线阶段中维持单个持久会话。

Agent命令提供商
Claude CodeclaudeAnthropic
Codex CLIcodexOpenAI
Copilot CLIghGitHub
Gemini CLIgeminiGoogle
OpenCodeopencodeSST
Kimi CLIkimiMoonshot

配置示例:

# config.yaml
llm:
  provider: "acp"
  acp:
    agent: "claude"   # 任意 ACP 兼容命令
    cwd: "."          # 工作目录
  # 无需 base_url 或 api_key,Agent 自行处理认证

运行方式多样化:

  • 独立 CLI: researchclaw run --topic "..." --auto-approve
  • Python API: from researchclaw.pipeline import Runner; Runner(config).run()
  • Claude Code/Copilot: 读取上下文文件后直接自然语言交互。
  • 任意 AI CLI: 提供 RESEARCHCLAW_AGENTS.md 作为上下文,自动引导执行。

🔬 23 阶段科研流水线详解

整个流程被拆解为 8 个阶段组,共 23 个精细步骤,确保科研严谨性。

流程全景图

  • 阶段组 A:研究定义
    • 1. TOPIC_INIT: 主题初始化
    • 2. PROBLEM_DECOMPOSE: 问题树分解
    • (+) 硬件检测: 自动识别 GPU (NVIDIA CUDA / Apple MPS) 或 CPU,动态调整代码策略。
  • 阶段组 B:文献发现
    • 3. SEARCH_STRATEGY: 搜索策略制定
    • 4. LITERATURE_COLLECT真实 API 多源采集 (OpenAlex → Semantic Scholar → arXiv)
    • 5. LITERATURE_SCREEN[门控] 相关性筛选
    • 6. KNOWLEDGE_EXTRACT: 知识卡片提取
  • 阶段组 C:知识综合
    • 7. SYNTHESIS: 研究发现聚类
    • 8. HYPOTHESIS_GEN多 Agent 辩论 生成可验证假设
  • 阶段组 D:实验设计
    • 9. EXPERIMENT_DESIGN[门控] 方案设计
    • 10. CODE_GENERATION: 硬件感知代码生成
    • 11. RESOURCE_PLANNING: 资源需求估算
  • 阶段组 E:实验执行
    • 12. EXPERIMENT_RUN: 沙箱执行
    • 13. ITERATIVE_REFINE自修复 循环 (检测 NaN/Inf,定向修复)
  • 阶段组 F:分析与决策
    • 14. RESULT_ANALYSIS多 Agent 结果分析
    • 15. RESEARCH_DECISIONPIVOT/REFINE 自主决策点
  • 阶段组 G:论文撰写
    • 16. PAPER_OUTLINE: 大纲构建
    • 17. PAPER_DRAFT: 分段撰写 (5,000-6,500 词)
    • 18. PEER_REVIEW证据审查 同行评审
    • 19. PAPER_REVISION: 带长度保障的修订
  • 阶段组 H:终稿发布
    • 20. QUALITY_GATE[门控] 最终质量验收
    • 21. KNOWLEDGE_ARCHIVE: 知识归档
    • 22. EXPORT_PUBLISHLaTeX 导出 (顶会模板)
    • 23. CITATION_VERIFY相关性审查 与幻觉清洗

注: 门控阶段(5、9、20)默认暂停等待人工审批,可通过 --auto-approve 跳过。若审批拒绝,流水线自动回滚。
决策循环: 第 15 阶段可根据结果触发 REFINE (返回第 13 阶段) 或 PIVOT (返回第 8 阶段),并自动版本化旧产物。

✨ 关键功能亮点

  • 📚 多源真实文献: 集成 OpenAlex、Semantic Scholar 和 arXiv API,具备查询扩展、去重及三态熔断器机制,优雅降级,确保文献真实性。
  • 🔍 四层引用核查: arXiv ID → CrossRef/DataCite DOI → Semantic Scholar 标题 → LLM 相关性评分。发现幻觉引用自动删除,确保学术诚信。
  • 🖥️ 硬件感知执行: 自动检测本地算力(NVIDIA/Apple/CPU),据此动态调整依赖包、Import 语句及实验规模,最大化资源利用率。
  • 🦾 OpenCode Beast Mode: 复杂实验自动路由至 OpenCode,生成包含自定义架构、训练循环和消融实验的多文件项目。
  • 🧪 沙箱实验环境: 基于 AST 的代码验证、不可变 Harness、NaN/Inf 快速失败机制、自修复循环(最多 10 轮)及部分结果捕获。
  • 📝 顶会级写作标准: 原生支持 NeurIPS/ICML/ICLR 模板,分段撰写长文,内置反数据捏造守卫与修订长度保障。
  • 📐 模板灵活切换: 支持 neurips_2025iclr_2026icml_2026 等模板,完美处理数学公式、表格、图片交叉引用及 \cite{}
  • 🚦 严格质量门控: 设置 3 个人工审批节点,支持全流程回滚,确保关键决策可控。

🧠 MetaClaw 集成:让系统越用越聪明

AutoResearchClaw + MetaClaw = 具备记忆与进化能力的科研流水线。

启用 MetaClaw 后,系统能将每次运行的失败与警告转化为可复用的“技能”,并在后续任务中自动注入,实现跨运行的知识迁移。

工作原理

  1. 运行 N 执行 → 捕获失败/警告为 Lessons
  2. 转化 → MetaClaw 将 Lesson 转换为 Skill
  3. 存储 → arc-* 技能文件存入 ~/.metaclaw/skills/
  4. 运行 N+1 → build_overlay() 将技能注入每个 LLM 提示。
  5. 结果 → LLM 规避已知陷阱,重试率降低,产出质量提升。

快速配置

# config.arc.yaml
metaclaw_bridge:
  enabled: true
  proxy_url: "http://localhost:30000"        # MetaClaw 代理 (可选)
  skills_dir: "~/.metaclaw/skills"          # 技能存储位置
  lesson_to_skill:
    enabled: true
    min_severity: "warning"                 # 转换 warning 及以上级别
    max_skills_per_run: 3

📊 实测效果 (A/B 测试)

在相同主题、模型与配置下的对照实验显示:

指标基线启用 MetaClaw改善幅度
阶段重试率10.5%7.9%-24.8%
Refine 循环次数2.01.2-40.0%
流水线完成率18/1919/19+5.3%
综合鲁棒性得分0.7140.845+18.3%

> 综合鲁棒性得分由阶段完成率 (40%)、重试减少 (30%) 和 Refine 效率 (30%) 加权计算。

向后兼容性保证:

  • 默认关闭: 若未配置 metaclaw_bridge,行为与旧版本完全一致。
  • 无新依赖: MetaClaw 为可选组件,核心流水线独立运行不受影响。
  • 测试通过: 所有 1,634 项现有测试(含集成代码)均通过验证。

数据统计

相关导航

暂无评论

none
暂无评论...