SD百科导航
  • 首页
  • 快讯
  • 早报
  • 模型
  • ComfyUI
  • 新技术
  • 百科
    • 教程
    • 硬件
    • 科普
  • 百科工具
    • 工具
  • 排行榜
  • 网址提交
    • 首页
    • 快讯
    • 早报
    • 模型
    • ComfyUI
    • 新技术
    • 百科
      • 教程
      • 硬件
      • 科普
    • 百科工具
      • 工具
    • 排行榜
    • 网址提交

    强化学习

    共 9 篇文章
    排序
    发布更新浏览点赞
    让语言模型“集体进化”:Gensyn推出去中心化强化学习新算法 SAPO

    让语言模型“集体进化”:Gensyn推出去中心化强化学习新算法 SAPO

    在提升语言模型推理能力的道路上,传统方法往往依赖大量人工标注数据进行监督微调(SFT),或集中式强化学习系统完成后训练。然而,这类方式成本高昂、扩展困难,且对硬件资源要求严苛。 最近,AI初创公司 G...
    大语言模型# SAPO# 强化学习
    6个月前
    01090
    清华、上交大等团队提出 SSRL:无需外部搜索的强化学习新范式

    清华、上交大等团队提出 SSRL:无需外部搜索的强化学习新范式

    在当前主流的“代理式搜索”(Agentic Search)系统中,大型语言模型(LLM)通常通过调用外部搜索引擎(如 Google、Bing 或专用 API)来获取实时信息,以回答复杂问题。这一模式虽...
    大语言模型# SSRL# 强化学习
    7个月前
    01940
    INTELLECT-2 发布:首个通过全球分布式强化学习训练的 32B 参数模型

    INTELLECT-2 发布:首个通过全球分布式强化学习训练的 32B 参数模型

    Prime Intellect发布 INTELLECT-2,这是首个通过全球分布式强化学习训练的 32B 参数模型。与传统的集中式训练不同,INTELLECT-2 使用完全异步的强化学习(RL),在一...
    大语言模型# INTELLECT-2# 强化学习
    10个月前
    02750
    Flow-GRPO:将在线强化学习与流匹配模型相结合,用于提升文生图模型生成任务的性能

    Flow-GRPO:将在线强化学习与流匹配模型相结合,用于提升文生图模型生成任务的性能

    香港中文大学MM实验室、清华大学、快手科技、南京大学和上海人工智能实验室推出新方法Flow-GRPO,它将在线强化学习(Reinforcement Learning, RL)与流匹配(Flow Mat...
    新技术# Flow-GRPO# 强化学习# 流匹配
    10个月前
    04560
    OpenAI宣布第三方开发者现在可通过强化学习微调o4-mini模型,打造企业专属AI助手

    OpenAI宣布第三方开发者现在可通过强化学习微调o4-mini模型,打造企业专属AI助手

    OpenAI今天宣布,第三方开发者现在可以通过强化学习(RFT)对o4-mini语言推理模型进行微调。这一功能的推出,使企业能够根据自身需求定制专属的私有版本,从而更好地服务于内部沟通、知识管理、任务...
    早报# o4-mini# OpenAI# 强化学习
    10个月前
    01870
    阿里通义实验室开源R1-Omni:用强化学习解锁全模态大模型的新潜力

    阿里通义实验室开源R1-Omni:用强化学习解锁全模态大模型的新潜力

    随着DeepSeek R1的发布,强化学习在大模型领域的潜力得到了进一步挖掘。Reinforcement Learning with Verifiable Reward(RLVR)方法为多模态任务提供...
    多模态模型# R1-Omni# 全模态大模型# 强化学习
    1年前
    02240
    阿里Qwen团队推出强化学习增强的推理模型QwQ-32B

    阿里Qwen团队推出强化学习增强的推理模型QwQ-32B

    阿里云的Qwen团队最近宣布了一项重要进展,他们通过整合大规模强化学习(RL)技术来提升大语言模型的智能水平,并推出了新的推理模型QwQ-32B。这款拥有320亿参数的模型,在性能上能够与具有6710...
    大语言模型# Qwen# QwQ-32B# 强化学习
    1年前
    03290
    2024 年图灵奖授予强化学习领域的先驱:安德鲁·G·巴托和理查德·S·萨顿

    2024 年图灵奖授予强化学习领域的先驱:安德鲁·G·巴托和理查德·S·萨顿

    在计算机科学领域,两位杰出的科学家因其在强化学习领域的贡献而荣获2024年的图灵奖。这项技术让机器能够通过基于奖励的试错方法进行学习,从而适应各种受限或动态环境。 强化学习的奠基者 安德鲁·G·巴托...
    早报# 图灵奖# 安德鲁·G·巴托# 强化学习
    1年前
    02170
    强化学习新范式OREAL:基于结果奖励的强化学习(RL)提升大语言模型在数学推理任务中的表现

    强化学习新范式OREAL:基于结果奖励的强化学习(RL)提升大语言模型在数学推理任务中的表现

    上海AI实验室、上海交通大学、香港中文大学和InnoHK的研究人员提出基于结果奖励的强化学习新范式OREAL,通过基于结果奖励的强化学习(RL)提升大语言模型(LLMs)在数学推理任务中的表现。该框架...
    新技术# OREAL# 大语言模型# 强化学习
    1年前
    04340
    没有了
    SD百科导航
    SD百科导航是专注于AI创作领域的专业导航网站。我们全面涵盖Stable Diffusion、Flux、AI绘画、AI视频、AI音乐以及大语言模型等前沿内容。

    关于我们网址提交友链申请广告合作

    扫码关注微信公众号SD百科导航
    扫码关注微信公众号
    Copyright © 2026 SD百科导航 皖ICP备18025588号-5  皖公网安备34040002000401 
    网址
    网址文章软件模型

    网址

    日榜周榜月榜
    S.H.I.T

    S.H.I.T

    在主流学术界为顶刊版面、高影响因子和“非升即走”的考核指标疯狂内卷之时,一场名为“学术垃圾”的反叛运动正在角落里悄然兴起。一群“想开了”的硕博研究生和青年学者(青椒),不再试图迎合传统的学术评价体系,而是隆重推出了一系列名字惊世骇俗的“旗舰”期刊——《SHIT》、《Notrue》、《Silence》、《Crazy》。
    QClaw

    新QClaw

    腾讯推出QClaw ,这是基于 OpenClaw 进行深度产品化封装的“官方一键安装包”。它的目标非常明确:让强大的 AI Agent 能力,像安装普通软件一样简单,并直接融入中国人的国民级应用——微信和 QQ。
    CoPaw

    CoPaw

    阿里云旗下阿里桌面 Agent 工具 CoPaw 正式开源,CoPaw 原生支持钉钉、飞书、QQ、Discord、iMessage 等聊天软件和平台,内置了多种 Skills,用户可一键本地部署也可通过阿里云计算巢和魔搭社区创空间实现一键云端部署,并调用千问系列等主流模型,是业界部署门槛最低的 Agent 工具之一。
    WorkBuddy

    新WorkBuddy

    WorkBuddy 是 AI 原生的桌面智能体工作台,以自然语言驱动办公自动化,一句指令即可完成数据处理、内容创作与深度分析,直接验收可交付结果,重塑职场效率标准。
    AutoClaw

    新AutoClaw

    智谱 AI 正式推出 AutoClaw —— 一款基于 OpenClaw深度定制的本地版 AI 智能体平台。它不仅内置了智谱最新内测模型 Pony-Alpha-2,更集成了强大的 AutoGLM Browser-Use 能力,实现了从“对话”到“复杂任务执行”的无缝闭环。
    ArkClaw

    新ArkClaw

    字节旗下火山引擎正式上线 ArkClaw, 开箱即用的云上 SaaS 版 OpenClaw。无需任何复杂配置,打开网页即可使用 7×24 小时在线的 AI 助手。
    查看完整榜单