NEXA AI

3个月前发布 96 00

NEXA AI 是一家专注于设备端AI的初创公司,使模型能够在手机、PC、汽车和IoT硬件等设备上本地运行,以提升隐私、安全性和效率。其Octopus系列和OmniNeural-4B模型似乎在NPU上的多模态处理(文本、图像、音频)方面表现出色,提供低延迟而无需依赖云端,但实际性能可能因硬件而异。

所在地:
美国
收录时间:
2025-08-28

在AI模型大多依赖云端服务器的当下,一家成立于2023年的初创公司NEXA AI正试图改变这一格局。总部位于美国加利福尼亚州库比蒂诺,NEXA AI专注于设备端AI技术研发,其核心产品Octopus系列和OmniNeural-4B模型,通过NPU(神经处理单元)优化,实现了文本、图像、音频的多模态本地处理,在保护隐私的同时大幅降低延迟,目前已在手机、PC、汽车和IoT设备上落地应用。

NEXA AI

公司背景:从库比蒂诺出发,用设备端AI解决核心痛点

NEXA AI的诞生,源于对“云端AI局限性”的洞察——传统云端AI不仅存在数据隐私泄露风险,还受限于网络连接速度,难以满足实时交互需求(如自动驾驶中的紧急决策、手机端的离线语音助手)。公司的使命是“让设备端AI无摩擦且生产就绪”,通过优化基础模型和推理框架,让AI能力直接在终端硬件上高效运行。

核心团队:斯坦福背景+大厂经验

公司由CEO Alex Chen(斯坦福大学博士)和CTO Zack Li(前Google/Amazon工程师,斯坦福校友)共同创立,团队成员多为AI优化领域专家,目前规模约30人(不同来源数据在11-50人之间)。紧凑的团队结构推动了快速创新,公司成立初期便实现了技术突破。

财务与增长:自力更生到融资扩张

  • 收入表现:尽管成立时间短,NEXA AI已展现出商业潜力,2025年报告收入达340万美元,且初期未依赖外部资金,凸显其技术的市场吸引力;
  • 融资情况:根据公开信息,公司累计筹集约1000万美元资金,包括种子轮(Alumni Ventures参与)和A轮(2024年7月完成875万美元),资金主要用于技术研发和市场扩展;
  • 行业认可:2024年,NEXA AI入选TechCrunch Disrupt Startup Battlefield,进一步验证了其技术创新性。

核心产品:从模型到工具链,构建设备端AI生态

NEXA AI的产品体系围绕“模型+工具+平台”展开,覆盖从模型开发到部署的全流程,核心包括三大模块:

1. 模型系列:Octopus与OmniNeural-4B的差异化布局

NEXA AI推出OmniNeural-4B:全球首个为 NPU 原生设计的多模态 AI 模型

公司的模型产品分为两大系列,分别针对不同场景需求:

模型名称参数规模核心特征性能亮点典型用例
Octopus-V22B首创“功能令牌”技术,优化函数调用效率,支持边缘设备低功耗运行在函数调用准确性上匹配GPT-4,推理速度比同类模型快30%AI代理、VR/AR交互、智能家居控制
Octopus-V3<1B轻量级多模态模型,支持英语/普通话双语,兼顾文本与图像处理多模态任务性能接近GPT-4V/GPT-4组合,仅需1B参数即可实现复杂场景理解手机端离线助手、实时翻译
Octopus-V43B定位为“语言模型图主节点”,支持多模型协作,推动AI生态互联支持复杂任务规划与多模态协同,开源后在Hugging Face下载量超4万次企业级AI协作系统、多智能体交互
OmniNeural-4B4B全球首个NPU感知多模态模型,原生支持文本、图像、音频,硬件感知注意力设计视觉处理比基线快4倍,音频处理快8倍,移动端图像处理延迟低于500ms,优于Apple/Gemma-3n手机助手、汽车安全检测、IoT机器人

2. 工具与平台:降低设备端AI部署门槛

为了让开发者更便捷地使用模型,NEXA AI提供了配套工具链:

  • Nexa SDK:一行代码即可实现模型部署,支持Qwen3-4B等主流框架,无需复杂适配;
  • nexaML推理引擎:专为NPU优化的生成AI推理引擎,支持跨平台部署(Qualcomm NPU、Windows GPU等);
  • 模型中心:在官网和Hugging Face上提供量化后的开源模型,方便开发者本地执行与二次开发。
NEXA AINEXA AI

技术创新:NPU原生设计,重新定义设备端多模态处理

NEXA AI的技术核心在于“NPU原生优化”,区别于传统模型“先为GPU设计、再适配NPU”的思路,其模型从架构层面就针对NPU特性优化,主要创新点包括:

1. 硬件感知注意力机制

针对NPU的并行计算能力,优化注意力头的数量与维度,减少不必要的跨模态计算(如文本与音频无需全量交互时,仅保留关键关联),在不影响精度的前提下,降低NPU的计算与内存消耗。

2. 多模态协同处理

OmniNeural-4B模型为文本、图像、音频设计了统一的NPU适配路径,避免“模态切换时的性能损耗”。例如,处理“图像+音频”任务时,数据格式与计算逻辑完全贴合NPU的处理习惯,比传统模型快4-8倍。

3. 低延迟与高能效

通过ReLU激活函数、稀疏张量技术、静态图执行等NPU友好设计,OmniNeural-4B在三星S25 Ultra等设备上实现了“处理1分钟音频仅需0.8秒”“连续使用1小时手机续航减少8%”的高效表现,完全满足日常使用需求。

应用场景:从消费电子到工业物联网的全面落地

凭借“低延迟、全离线、高隐私”的特性,NEXA AI的技术已在多个领域实现商业化落地:

1. 消费电子:手机与PC的智能助手

  • 手机场景:在三星S25 Ultra等Qualcomm NPU设备上,实现全本地多模态助手——用户拍摄会议海报,模型可自动识别时间、地点并创建日历事件;离线状态下也能通过语音指令拨打电话、发送邮件;
  • PC场景:本地总结PPT、Word文档,生成邮件草稿(如“将Q3销售报告总结为3点核心结论”),数据不联网,保护企业隐私。

2. 汽车:毫秒级响应的安全助手

与Qualcomm合作,在搭载8295汽车芯片的车型上部署AI功能:

  • 舱室安全:实时检测“儿童未系安全带”“宠物遗留车内”“驾驶员疲劳驾驶”等风险;
  • 环境感知:识别“前方雾天”“道路施工”“障碍物”,辅助自动驾驶决策;
  • 核心优势:本地决策速度达毫秒级,比云端响应快50倍,符合汽车安全的时效要求。

3. IoT与机器人:无网络依赖的智能感知

  • 工业场景:工厂机器人通过模型进行缺陷检测(识别零件表面划痕)、AR眼镜为技术员叠加设备操作指引;
  • 无人机场景:飞行中本地识别“电线”“禁飞区域”,实时调整航线;
  • 家用机器人:通过语音+视觉理解用户需求(如“捡起地上的红色水杯”),无需网络连接。

行业影响与未来规划

NEXA AI的技术突破,不仅解决了设备端AI的效率痛点,还推动了“边缘AI”生态的发展。目前,公司已与Qualcomm达成深度合作,并在PC、汽车、IoT领域的三家财富500强客户中投入生产,未来计划进一步扩大技术覆盖范围:

1. 硬件适配扩展

当前模型主要支持Qualcomm NPU,苹果NPU(Apple Neural Engine)版本正在开发中,未来将覆盖iPhone、Mac等设备,进一步扩大用户群体。

2. 开源生态建设

通过Hugging Face等平台开源模型,吸引开发者参与二次开发,构建“设备端AI协作生态”,推动技术标准化。

3. 行业解决方案深化

针对医疗、教育、工业等垂直领域,开发定制化的设备端AI解决方案,如“医疗设备本地图像分析”“教育终端离线答疑”等,进一步拓展商业边界。

数据统计

相关导航

暂无评论

none
暂无评论...