Wasm-Agents

5个月前发布 128 00

由 Mozilla AI 推出的 Wasm-Agents Blueprint,正在探索一种全新的 AI 代理部署方式 —— 在浏览器中直接运行 AI 代理,无需额外依赖或本地安装。

所在地:
美国
收录时间:
2025-07-13
其他站点:
Wasm-AgentsWasm-Agents

 Mozilla AI 推出的 Wasm-Agents Blueprint,正在探索一种全新的 AI 代理部署方式 —— 在浏览器中直接运行 AI 代理,无需额外依赖或本地安装。

该项目仍处于实验阶段,但已展现出巨大潜力。它通过 WebAssembly(WASM)和 Pyodide 技术,将 Python 编写的 AI 代理打包为单个 HTML 文件,用户只需打开网页即可运行完整代理流程。

这一创新大大降低了 AI 代理的使用门槛,为开发者提供了一个轻量、安全、可移植的执行环境。

为什么需要浏览器中的 AI 代理?

传统的 AI 代理通常依赖复杂的运行时环境和工具链,限制了其在不同系统间的共享与测试。而 Wasm-Agents 的目标是:

  • 零依赖部署:所有代码封装在 HTML 文件中,开箱即用。
  • 沙盒化执行:运行于浏览器内,天然隔离,安全性高。
  • 跨平台兼容:支持任何现代浏览器,无需特定操作系统或硬件。
  • 开源透明:代码完全开放,便于学习、调试和二次开发。

这使得 AI 代理更易于教学、演示和实验性应用落地。

它是如何工作的?

Wasm-Agents 的核心在于 WebAssembly + Pyodide 技术组合:

  • WebAssembly(WASM):一种高效的二进制指令格式,支持 C/C++/Rust/Python 等语言在浏览器中接近原生速度运行。
  • Pyodide:一个基于 WASM 的浏览器端 Python 运行时,支持大量标准库和第三方包。

具体流程如下:

  1. 使用 micropip 安装所需 Python 依赖
  2. 禁用部分跟踪功能(避免解释器崩溃)
  3. 执行实际代理逻辑(调用 LLM)

整个过程都发生在浏览器内部,无需后端服务器或 API 调用。

示例演示一览

Wasm-Agents 提供了多个 HTML 演示文件,帮助用户快速上手:

文件名功能说明
hello_agent.html最基础的对话代理,支持自定义指令
handoff_demo.html多代理系统,自动根据提示选择专业代理
tool_calling.html支持内置工具(如网页访问、字符计数)
ollama_local.html使用本地模型(如 Ollama 上的 qwen3:8b)

这些示例展示了代理如何完成从基本交互到复杂任务调用的全过程。

🔌 如何运行?

使用 OpenAI 模型:

  1. 获取 OpenAI API 密钥
  2. 替换 /config.js 中的密钥
  3. 在浏览器中打开 HTML 文件

使用本地模型(如 Ollama):

  1. 安装并运行 Ollama
  2. 下载模型(如 ollama pull qwen3:8b
  3. 修改 HTML 配置指向本地模型地址
  4. 浏览器中打开文件运行

⚠️ 注意:若需访问外部资源(如网页),请确保目标服务启用了 CORS。

🚫 当前限制

尽管 Wasm-Agents 具有开创性意义,但仍存在一些局限:

  • 仅支持 openai-agents 框架:其他框架(如 smolagents)尚无法完全兼容 Pyodide。
  • CORS 限制:访问外部接口时可能遇到浏览器安全策略问题。
  • 模型体积较大:并非所有设备都能流畅运行大模型(如 Raspberry Pi 5 上运行 1.7B 模型会卡顿)。
  • 非确定性输出:LLM 输出具有随机性,相同输入可能得到不同结果。
  • 工具调用受限:浏览器环境对网络请求等操作有一定限制。

Wasm-Agents 目前还只是一个原型项目,但它代表了一种新的方向:在浏览器中运行完整的 AI 代理工作流

随着 WebAssembly 生态的发展和浏览器计算能力的提升,未来或许我们可以看到:

  • 更多代理框架的支持
  • 更丰富的内置工具
  • 对 MPC、MCP 等协议的集成
  • 更完善的本地推理体验

数据统计

相关导航

暂无评论

none
暂无评论...