unslothUnsloth是一个专注于优化大语言模型(LLMs)微调的开源框架,专为优化大型语言模型(LLMs)的微调而设计。它声称比其他方法提供显著的速度和内存改进,使更多用户能够在各种硬件上使用 LLMs。
大模型显存与性能计算器LLM 显存与性能计算器 是一款实用工具,能够帮助用户快速评估不同大语言模型的显存需求和推理性能。无论你是研究人员还是开发者,都可以利用这一工具优化模型部署方案,确保在有限硬件资源下实现最佳性能。
nanochatnanochat 是一个全栈、端到端、极简可黑客的开源项目,让你用约 100 美元在单台 8×H100 GPU 服务器上,从零训练并部署一个类 ChatGPT 的小型语言模型(LLM)。
NoCode-benchNoCode-bench 的结果或许让人失望,但也正是这种“真实感”使其成为推动技术发展的关键一步。当 AI 能稳定地将一句“增加导出功能”转化为正确、可测、可部署的代码时,那才是无代码开发真正成熟的时刻。在此之前,我们仍需脚踏实地,用像 NoCode-bench 这样的基准,一步步丈量差距,逼近目标。
Kagi NewsKagi推出的AI新闻聚合站Kagi News,此站点基于一个简单原则:理解世界需要倾听世界的声音。每天,我们的系统阅读数千个社区精选的 RSS 源,这些源来自不同观点和视角的出版物。然后,我们使用 AI 将海量信息提炼成一份全面的每日简报,同时清楚地引用来源。