SciArenaSciArena是一个开放且协作的平台,直接吸引科学界参与评估科学文献任务中的基础模型。这种基于众包的、面对面的语言模型评估方法已在通用领域由类似 Chatbot Arena 的平台成功开创。
LoCoDiffLoCoDiff 不只是一个性能榜单,更是对当前长上下文模型能力边界的诚实检验。它揭示了一个事实:即使模型宣称支持百万 token 上下文,也不意味着能在实际任务中有效利用这些信息。尤其是在需要持续状态跟踪的场景中,记忆衰减、注意力分散等问题依然严峻。
WildScoreWildScore 的发布,标志着 AI 音乐理解评估进入“真实世界”阶段。它不再满足于“识别音符”,而是要求模型真正理解乐谱背后的音乐逻辑。测试结果也清晰揭示了当前 MLLM 的局限:视觉符号解析仍是瓶颈,模态对齐尚未成熟。
YuppYupp正式推出人类评估系统 ,邀请使用者协助评估全球逾 500 个大语言模型,包括 ChatGPT、Claude、Gemini、DeepSeek、Grok 及 Llama 等,也涵盖了必须付费订阅的各种 Pro 与 Max 模型,并根据使用者的回馈制定 Yupp AI VIBE排行榜。
MCPMarkMCPMark是一个全面的压力测试MCP基准,包含一系列多样化、可验证的任务,旨在评估模型和智能体在现实世界MCP使用中的能力。MCPMark将持续更新新兴的MCP服务器,以跟上充满活力的生态系统步伐!
AITradeGameAITradeGame 是一个开源的 AI 交易模拟平台,支持 本地自托管 与 在线竞技 双模式,旨在为开发者、量化爱好者和 AI 研究者提供一个隐私优先、灵活可扩展的 AI 交易实验环境。
VideoGameBenchVideoGameBench是一个强大的工具,为评估视觉-语言模型在视频游戏中的多模态理解与推理能力提供了一个标准化的平台。通过支持多种游戏平台和类型,它为研究人员和开发者提供了一个灵活且多样化的测试环境。