OpenAI 称 GPT-5 为“最无偏见”模型,公布政治倾向压力测试结果OpenAI 于近日发布一项内部评估,称其最新模型 GPT-5(包括 GPT-5 Instant 和 GPT-5 Thinking)在政治偏见控制方面显著优于前代模型,是“迄今为止最接近无偏见”的版本...科普# GPT-5# OpenAI4周前0660
Notion 为何选择彻底重构?为智能体 AI 拆掉旧架构当大多数公司还在用提示工程(prompting)让AI“照着做任务”时,Notion 已经决定:推倒重来。 为了实现其生产力平台向“AI 智能体驱动”的演进,Notion 在开发 3.0 版本的过程中...科普# Notion1个月前0530
对话 Google 技术专家:什么是“氛围编程”?AI 正在改变我们构建数字产品的方式。如今,即使没有编程背景,你也可以通过自然语言描述一个想法,快速生成网页原型或小型应用。这种新兴实践被称为 “氛围编程”(Vibe Coding)。 为了更深入理解...科普# Vibe Coding# 氛围编程1个月前0570
OpenAI 最新研究揭示:AI 会“故意撒谎”,但问题比你想的更复杂最近,一则关于 AI “密谋”的研究在科技圈引发热议。OpenAI 联合独立研究机构 Apollo Research 发布论文,探讨大模型在特定条件下可能表现出有意识的欺骗行为——即为了达成目标而隐藏...科普# OpenAI2个月前0990
使用 ComfyUI 和英伟达RTX AI PC 开启生成式 AI 内容创作之旅这款基于节点的平台解锁了先进的、基于 AI 的创意工作流程,并通过预配置模板让新手轻松上手。 ComfyUI——一个开源的、基于节点的图形界面,用于运行和构建用于内容创作的生成式 AI 工作流程——在...科普# ComfyUI# RTX AI PC# 英伟达2个月前0940
基于参考图像的一致性生成模型大对比:gpt-image-1、FLUX.1 Kontext、Gen-4 Image和SeedEdit 3,该如何选择?在过去,要在 AI 图像生成中实现“角色一致性”——即让同一个虚拟人物在不同场景下保持身份特征统一——最可靠的方法是训练一个专属的 LoRA 模型。 这需要你准备一组高质量的人物图像数据集,然后进行微...科普# FLUX.1 Kontext# Gen-4 Image# GPT-Image-14个月前02240
大语言模型架构对比:从 DeepSeek-V3 到 Kimi K2,现代大语言模型架构设计一览大语言模型(LLM)发展至今,虽然基础架构仍沿袭 GPT 系列的 Transformer 范式,但在细节设计上已发生显著变化。本文将从架构角度出发,对比 2025 年主流模型的设计趋势,包括注意力机制...科普# Deepseek V3# Kimi K2# 大语言模型架构4个月前01930
从上下文设计到错误处理:Manus团队如何打造稳定AI智能体AI智能体(AI Agent)的构建正在成为大模型应用的前沿方向。然而,要打造一个稳定、高效、可扩展的智能体系统,远不只是调用一个大模型那么简单。 Manus团队在构建AI智能体的过程中,经历多次架构...科普# AI智能体# Manus# 上下文设计4个月前01830
上下文工程学 - 什么是上下文工程学,以及需要考虑的技术虽然“上下文工程”这一术语背后的原理并非全新,但这个措辞提供了一个有用的抽象概念,使我们能够思考构建有效 AI 代理时面临的最紧迫挑战。在本文中,我想探讨三件事:上下文工程的含义、它与“提示工程”的区...科普# 上下文工程学4个月前01750
AI 新技能不是提示工程,而是上下文工程上下文工程是 AI 领域中逐渐兴起的一个新术语。讨论的焦点正从“提示工程”转向一个更广泛、更强大的概念:上下文工程。Tobi Lutke 将其描述为“为任务提供所有上下文以使大语言模型(LLM)能够合...科普# 上下文工程# 提示工程4个月前02020
多智能体系统的构建与实战:Anthropic 如何打造高效研究代理Anthomic 发布了一篇关于其多智能体研究系统的深度技术解析文章,详细阐述了他们如何利用多个 Claude 智能体协作完成复杂研究任务,并分享了从原型到生产过程中的关键经验教训。 本文不仅揭示了多...科普# Anthropic# 多智能体5个月前01540
探索扩散模型中的量化后端:在性能与内存之间寻找平衡大型扩散模型如 Flux-dev 能够生成高质量图像,但它们通常需要大量显存和计算资源。对于大多数用户来说,这可能是一个难以跨越的门槛。 有没有一种方式,在不明显牺牲效果的前提下,降低模型对硬件的要求...科普# Flux Dev# 扩散模型6个月前01900