
Code Arena
LMArena正式推出 Code Arena,一个面向 AI 编程模型的新型评估平台。与传统仅测试代码正确性或通过单元测试的基准不同,Code Arena 聚焦于完整软件开发周期,记录模型从需求理解到部署的全过程行为。
LMArena(原Chatbot Arena)是一个开放平台,专注于通过人类偏好评估大语言模型(LLMs)和AI绘画模型的性能。该平台由加州大学伯克利分校的SkyLab和LMSYS研究团队开发,为LLMs提供一个公正、透明的评估环境。

用户可以通过以下步骤使用LMArena:

Chatbot Arena表示热情邀请大家体验LMArena的全新Beta版。数月来,团队深入研究社区反馈,致力于改进网站——修复错误/漏洞、优化UI布局等。Beta版从头重建,具体改进包括:








