OpenClaw
OpenClaw 以 “本地优先 + 开源中立 + 自主执行” 的核心优势,重新定义了 AI 智能体的落地形态,解决了传统 AI 的数据隐私与执行能力痛点。国内用户可通过云厂商零部署方案快速入门,或选择本地部署对接国产模型,适配个人办公、研发运维、数据处理等多场景。
中文名:
OpenClaw曾用名:
ClawdBot、Moltbot核心定位:
本地优先的开源 AI 智能体执行网关开发语言:
TypeScript、Node.js开源协议:
MIT 协议创始人:
彼得・斯坦伯格(Peter Steinberger)OpenClaw 是一款由奥地利开发者彼得・斯坦伯格(Peter Steinberger,PSPDFKit 创始人)主导开发的开源 AI 智能体执行网关,核心定位为连接大语言模型(LLM)与本地系统 / 外部工具的执行中枢,主打 “本地优先、隐私可控、可自主执行” 的 AI 能力。其官方口号为 “The AI that actually does things”(真正能做事的 AI),核心突破在于打破传统对话式 AI 仅能提供文本响应的局限,赋予大语言模型直接操控计算机、执行实际任务的 “行动力”,实现从 “被动响应” 到 “主动执行” 的范式转变。
该项目前身为 ClawdBot,2026 年 1 月因商标争议更名为 Moltbot,同年 1 月 30 日正式定名 OpenClaw。截至 2026 年 3 月,项目在 GitHub 拥有超 26 万星标、近千名活跃贡献者,单周 npm 下载量超 150 万次,成为 2026 年全球增长最快的开源项目之一。国内云厂商腾讯云、阿里云、京东云等已相继推出 OpenClaw 云端极简部署方案,支持用户一键完成安装与配置。OpenClaw 支持跨平台部署,可运行于 macOS、Windows、Linux 及树莓派等嵌入式设备,核心设计理念是让 AI 助手完全运行在用户本地设备,对话记录、长期记忆、技能文件均以纯文本形式存储,用户可通过文本编辑器直接查看、用 Git 备份,兼顾数据主权与运维灵活性。
发展历程
早期筹备与项目启动
2025 年 6 月,彼得・斯坦伯格创立 Amantus Machina 公司,聚焦超个性化 AI 智能体研发。同年 12 月 28 日,其在个人博客披露名为 Clawd 的 Agent 项目进展,公开核心配置代码,标志着项目进入公开研发阶段。2026 年 1 月 5 日,该项目以 ClawdBot 之名正式开源至 GitHub,因 “自主买车任务演示”“30 分钟代码大迁移”“40 小时深度调研” 等案例在社交媒体广泛传播,迅速获得开发者关注。
名称变更与争议解决
2026 年 1 月,Anthropic(Claude 开发商)以项目名称 “Clawd” 读音与 “Claude” 相似、涉嫌商标侵权为由提出指控。为规避法律风险,项目短暂更名为 Moltbot(寓意 “蜕皮”,象征成长蜕变),但更名过程中出现 GitHub 账号异常、账号被抢注等问题,开发者需多次澄清项目非商业代币项目,避免诈骗误导。2026 年 1 月 30 日,项目正式定名 OpenClaw,保留 “Claw”(爪子)核心标识,呼应 “AI 动手干活” 的产品定位。
生态爆发与行业影响
OpenClaw 爆红后,引发全球 AI 社区对 “本地 AI 代理” 的广泛讨论,催生 “廉价主机” 硬件需求热潮,树莓派等低成本设备因适配本地部署需求股价短期异动。同时,行业对 AI 智能体的安全与合规性关注度提升,2026 年 2 月工业和信息化部网络安全威胁和漏洞信息共享平台发布专项预警,提示默认配置下可能存在的权限滥用、信息泄露风险,推动项目完善安全机制。2026 年 2 月,创始人彼得・斯坦伯格加入 OpenAI 负责 Agent 相关研发,项目转为独立基金会运营,保持开源中立属性。

核心架构
OpenClaw 采用分层模块化架构,核心分为五大模块,通过本地 Gateway 进程统一调度,实现 “决策 - 执行 - 交互 - 存储” 的解耦设计,保障系统灵活性与可扩展性。
Gateway 核心层
作为系统调度中枢,是基于 Node.js 构建的常驻后台进程,默认监听本地回环地址 127.0.0.1:18789,通过 WebSocket 全双工通信实现跨模块数据交互。核心职责包括会话管理、路由转发、工具编排、权限校验、本地数据存储,统一协调 Channel 交互层、LLM 决策层、Tools 执行层、Memory 记忆层的运作,确保指令传递与任务执行的有序性。
Channel 交互层
作为用户与 OpenClaw 的交互入口,内置支持 Telegram、WhatsApp、Discord、Slack、飞书、iMessage 等 50 + 主流通讯平台的适配器。各渠道通过标准化协议将用户消息转换为内部统一格式,支持跨平台远程操控,用户无需安装专属 APP,即可通过日常聊天工具发送指令、接收反馈。
LLM 决策层
负责 AI 智能体的 “思考与决策”,核心功能是接入大语言模型、解析自然语言指令、拆解子任务、规划工具调用方案。支持模型无关(Model-agnostic)设计,可兼容 OpenAI、Anthropic Claude、Gemini、阿里通义千问等云端模型,同时通过 Ollama、LocalAI 等工具接入本地私有化模型,用户可根据隐私需求与算力条件灵活切换。该层结合短期上下文与长期记忆,实现多轮连贯的任务推理与决策。
Tools 执行层
OpenClaw 的 “执行手脚”,提供标准化的系统操作能力,核心工具包括:
- 文件操作:支持批量文件整理、读写、格式转换、备份迁移
- 终端命令:执行 Shell 脚本、系统命令、软件安装与配置
- 浏览器自动化:网页控制、数据抓取、表单填写、截图分析
- 定时任务:Cron 作业与心跳任务,支持周期性自主执行
- 跨工具协同:串联多应用完成链式任务,如邮件 - 表格 - 图表自动化流程
Memory 记忆层
采用纯文本存储方案,摒弃传统数据库,以 Markdown 和 YAML 格式将对话记录、用户偏好、执行日志、技能文件存储于本地目录。核心功能包括短期上下文管理(保障多轮对话连贯性)与长期记忆存储(支持语义检索与关键词匹配),用户可通过文本编辑器直接编辑记忆内容,实现数据的透明化、可追溯性。

核心功能
本地优先部署
所有数据与执行过程默认本地存储,不依赖云端服务,彻底规避敏感信息上传风险,保障用户数据主权与隐私安全。配置本地大模型后可实现完全离线运行,断网状态下仍可执行预设任务,适配内网、无网络等特殊场景。
多渠道跨平台交互
支持 50 + 通讯平台接入,无需专属客户端,用户可通过手机、电脑等常用设备远程操控本地设备。跨平台兼容 macOS、Windows、Linux 及树莓派等硬件,适配不同使用场景与设备条件,实现 “聊天即操作系统” 的便捷体验。
自主任务执行
可拆解复杂自然语言指令为多步子任务,自主调用工具完成链式执行,无需人工干预。支持递归式技能进化,面对未知任务时能自主编写代码、本地调试并实时修正,最终将成功经验封装为标准化技能文件,实现自我迭代与能力扩展。
持久化记忆系统
以纯文本格式存储记忆,支持向量搜索与全文检索,能跨会话记住用户偏好、项目细节与历史任务,解决大语言模型 “失忆症” 问题。记忆文件可直接编辑、版本控制与批量迁移,适配个人与团队的灵活使用需求。
插件化技能扩展
基于 MIT 开源协议,支持社区插件与自定义技能开发,技能以 SKILL.md 文件形式存在,包含元数据、指令逻辑与工具调用配置。通过 ClawHub 技能注册中心可一键获取社区共享技能,覆盖办公、开发、数据处理、智能家居等多场景,无限扩展能力边界。
安全可控配置
内置多重安全机制:支持指令白名单,拦截危险命令;提供 Docker 沙箱隔离,限制系统访问权限;配置渠道白名单与设备配对策略,仅允许授权用户 / 设备交互。用户可通过配置文件精细化管控权限,降低恶意指令与误操作风险。

技术特性
纯文本存储架构
抛弃传统数据库,采用 “文件即状态” 设计,所有记忆、配置、技能均为人类可读的文本文件。优势包括零配置运维、跨平台兼容、Git 版本控制友好,用户可直接审计、修改数据,降低开发与调试复杂度。
三层解耦设计
采用 Gateway-Node-Channel 三层架构,将智能推理、任务编排、交互渠道彻底分离。Gateway 作为中枢统一调度,Node 提供分布式能力扩展,Channel 负责交互接入,各模块独立迭代、互不干扰,提升系统稳定性与可维护性。
Lane 命令队列管理
创新采用 Lane(车道)抽象管理命令队列,遵循 “默认串行、显式并行” 原则。同一会话任务独占串行 Lane,保证执行顺序与上下文一致性;低风险任务可分配至并行 Lane,提升系统处理效率,有效解决传统异步模式的竞态条件问题。
混合记忆检索
结合 SQLite 向量搜索与 FTS5 关键词匹配,实现语义理解与精确查询的双重能力。短期上下文保障多轮对话连贯,长期记忆支持跨会话知识复用,兼顾检索效率与准确性,无需依赖外部向量数据库服务。
热插拔插件机制
通过稳定的插件 SDK 提供扩展接口,支持上下文管理、技能系统、安全策略等核心功能的热插拔。开发者无需修改核心代码即可自定义功能,插件支持四层优先级(工作区层 > 插件层 > 用户层 > 系统层),实现灵活的功能覆盖与定制。
安装部署
环境前置要求
- 操作系统:Windows 10+/macOS 12+/Linux(Ubuntu 20.04+)
- 核心依赖:Node.js 22.0+、Git、npm/pnpm
- 可选依赖:Ollama(本地模型部署)、各渠道 Bot Token(Telegram/Discord 等)
标准安装流程
- 安装依赖:通过官方渠道安装 Node.js 与 Git,配置环境变量
- 安装 OpenClaw:
- macOS/Linux:执行curl -fsSL https://openclaw.ai/install.sh | bash
- Windows PowerShell:执行iwr -useb https://openclaw.ai/install.ps1 | iex
- npm 全局安装:执行npm install -g openclaw@latest
- 初始化配置:运行openclaw onboard --install-daemon,按向导完成模型配置、Gateway 设置、渠道接入、工作区初始化
- 启动服务:执行openclaw gateway start,通过openclaw gateway status检查运行状态
核心配置项
- 模型配置:在~/.openclaw/openclaw.json中设置模型提供商(如 ollama/openai)、模型名称与 API 密钥,本地模型需配置 Ollama 地址
- 渠道配置:通过openclaw channels add命令选择目标平台(如飞书 / Discord),输入对应凭证完成接入
- 安全配置:设置allowFrom白名单限制访问 IP / 账号,启用 Gateway 令牌认证,配置命令白名单与沙箱隔离
- 定时任务:通过 Cron 表达式配置周期性任务,或设置心跳任务实现自主执行
部署方案
- 本地部署:直接安装至个人电脑 / 树莓派,完全离线运行,适配个人隐私优先场景
- 云端部署:通过腾讯云、阿里云等云厂商一键部署方案,快速搭建服务,适配轻量团队与企业用户
- 容器化部署:支持 Docker 容器打包,可部署至 Kubernetes 等容器编排平台,实现弹性伸缩与高可用
应用场景
个人办公自动化
批量整理文件、邮件分类与回复、Excel/Word 数据处理、报表自动生成,替代重复性办公任务,提升工作效率。支持定时执行每日简报、会议提醒、日程管理等任务,实现 7×24 小时无人值守。
研发运维辅助
代码调试、服务器终端命令执行、日志本地分析、部署脚本自动化,助力研发团队提升迭代效率。支持远程操控开发环境,完成代码合并、Bug 修复、云平台部署等操作,适配异地协作场景。
数据隐私处理
本地敏感数据整理、内网网页数据抓取、文件加密与备份,全程不触碰公有云,保障数据安全。适配金融、医疗等对数据隐私要求严格的行业场景,避免数据泄露风险。
远程设备控制
外出时通过聊天工具远程操控办公 / 家用电脑,调取文件、执行任务、控制智能家居,实现随时随地的设备管理。支持多设备统一管控,适配移动办公与家庭自动化场景。

轻量数据采集
合规范围内的网页数据本地抓取、格式转换与整理,无需搭建复杂爬虫架构,快速完成数据获取与处理。适配市场调研、信息聚合等轻量数据需求场景。
安全风险
核心安全风险
- 权限滥用:默认具备本地系统操作权限,恶意或错误指令可能导致文件删除、系统异常、数据泄露
- 配置漏洞:默认配置下可能存在未授权访问、命令白名单缺失等问题,易被网络攻击利用
- 模型依赖风险:接入云端模型时可能存在 API 密钥泄露、第三方模型数据合规性问题
安全防护机制
- 权限管控:支持白名单配置,仅允许授权账号 / IP 访问;限制 Gateway 监听地址为本地回环,禁止外部直接访问
- 命令沙箱:预配置安全命令白名单,拦截命令替换、文件重定向等危险操作;终端命令默认在 Docker 容器中执行,实现系统隔离
- 密钥安全:API 密钥、渠道凭证等敏感信息加密存储,禁止明文提交至代码仓库
- 健康诊断:提供openclaw doctor命令,自动检测配置漏洞与安全风险,给出优化建议
安全使用建议
- 严格配置白名单,仅授权可信用户 / 设备访问
- 优先使用本地模型,降低云端 API 密钥泄露风险
- 定期更新 OpenClaw 版本,及时修复安全漏洞
- 避免让智能体处理敏感核心数据,执行关键任务前人工审核
- 开启沙箱隔离与命令白名单,限制系统操作权限
生态社区
社区规模与活跃度
截至 2026 年 3 月,OpenClaw GitHub 开源仓库拥有超 26 万星标、3.2 万次复刻、900 + 活跃贡献者,单周 npm 下载量超 150 万次。全球社区覆盖开发者、企业用户、安全研究者等群体,形成活跃的讨论与贡献生态,平均 1-2 天发布一个新版本,迭代速度快。
核心社区资源
- 官方文档:提供完整的安装、配置、架构、开发指南,支持中英文双语阅读
- 技能生态:ClawHub 技能注册中心汇聚 3000 + 社区共享技能,覆盖办公、开发、数据处理等多场景
- 技术社区:GitHub Issues、Discord、知乎等平台提供技术支持,用户可快速获取帮助、反馈问题
- 中文生态:国内社区推出 25 万字完整中文教程、本地化部署指南,降低中文用户使用门槛
社区贡献方式
- 代码贡献:提交功能优化、Bug 修复、插件开发,遵循 MIT 开源协议协作
- 技能贡献:开发自定义技能,提交至 ClawHub 丰富生态
- 文档贡献:完善中英文文档,优化本地化内容
- 社区运营:参与讨论、分享使用案例,助力项目推广与生态建设
影响评价
行业影响
OpenClaw 推动 AI 应用从 “对话交互” 向 “执行落地” 的范式转型,验证了本地优先 AI 代理的可行性与价值,引发行业对数据主权、隐私安全的重新审视。其纯文本存储、模块化架构等设计,为 AI 智能体开发提供全新技术思路,影响后续同类产品的架构设计理念。同时,催生云厂商一键部署方案、硬件适配等产业链环节,推动本地 AI 生态的成熟发展。
专业评价
- 技术层面:被评价为 “架构设计极具极客精神,纯文本存储与分层解耦设计兼顾透明性与可维护性,是本地 AI 代理的标杆方案”
- 产品层面:被赞为 “真正解决用户数据隐私与任务执行需求的 AI 工具,打破传统 SaaS 模式的束缚,赋予用户对 AI 的完全控制权”
深度解读
OpenClaw 是由奥地利连续创业者彼得・斯坦伯格(Peter Steinberger)主导开发的本地优先开源 AI 智能体执行网关,以 “真正能做事的 AI” 为核心定位,打破传统对话式 AI 仅能文本响应的局限,赋予大模型直接操控本地系统、执行实际任务的行动力,实现从 “被动应答” 到 “自主执行” 的范式转型。其因图标为红色龙虾、名称中 “Claw”(螯爪)的隐喻,被国内社区亲切称为 “龙虾”,成为 2026 年现象级开源 AI 项目。
核心定位与本质
OpenClaw 并非传统聊天机器人,而是连接大语言模型与本地环境的执行中枢,核心价值在于实现 “自然语言指令→任务拆解→工具调用→结果反馈” 的全流程自主执行。它支持本地私有化部署,所有对话记录、长期记忆、技能文件均以纯文本形式存储,用户可通过编辑器直接审计与管控,彻底解决传统 AI 的数据隐私与控制权问题。同时,它兼容主流云端模型与本地私有化模型,适配 macOS、Windows、Linux 及树莓派等多平台,兼顾灵活性与普适性。
名称与国别溯源
名称由来
“OpenClaw” 由 “Open”(开源)与 “Claw”(螯爪)组成,精准呼应核心能力 —— 像龙虾的钳子一样抓取任务、操作文件、执行终端命令,直接体现 “动手干活” 的产品定位。其名称经历三次迭代:2025 年 11 月以 “ClawdBot” 启动,谐音致敬 Anthropic 的 Claude 模型;2026 年 1 月因商标争议短暂更名为 “Moltbot”(寓意 “蜕皮成长”);1 月 30 日最终定名 “OpenClaw”,保留龙虾核心意象并明确开源属性。
归属与创始人
OpenClaw 由奥地利开发者彼得・斯坦伯格个人发起,其为 PSPDFKit(全球 PDF 处理工具巨头)的创始人,2021 年出售公司后以 “周末项目” 形式启动该研发。项目最初隶属于其 2025 年 6 月创立的 Amantus Machina 公司,但 2026 年 2 月创始人加入 OpenAI 负责 Agent 研发后,项目转为独立开源基金会运营,保持中立性与社区驱动性。它无单一所属商业公司,采用 MIT 开源协议,代码完全开放共享。

国内使用与部署方案
国内可用性
OpenClaw国内完全可用,核心限制并非项目本身,而是其依赖的海外模型 API 访问。国内用户可通过两种路径解决:一是本地部署并对接国产大模型(如通义千问、DeepSeek),规避海外网络限制;二是采用国内云厂商一键部署服务,由厂商统一处理网络与模型适配问题。
核心部署渠道
- 官方原生渠道:官网提供国际版安装包,GitHub 仓库同步源码,适合技术能力较强的用户。
- 国内加速镜像:Gitee 镜像站与中文社区站提供国内高速下载,适配国内网络环境。
- 云厂商零部署方案:百度智能云推出 “DuClaw” 零部署服务,用户无需接触服务器与 API Key 配置,订阅后可直接使用,首月低门槛体验;阿里云、腾讯云等也提供轻量应用服务器一键部署镜像,降低部署复杂度 [30]。
安装与快速上手
本地安装流程
- 环境准备:安装 Node.js 22.0+、Git 与 npm/pnpm,配置系统环境变量。
- 安装方式:
- macOS/Linux:终端执行curl -fsSL https://openclaw.ai/install.sh | bash,国内用户可使用加速脚本。
- Windows:PowerShell 执行iwr -useb https://openclaw.ai/install.ps1 | iex。
- 全局安装:执行npm install -g openclaw@latest,国内推荐使用openclaw-cn包适配网络环境。
- 初始化配置:运行openclaw onboard --install-daemon,按向导配置模型(国产 / 海外)、交互渠道(飞书、企业微信等)与安全权限。
- 启动服务:执行openclaw gateway start,通过openclaw gateway status检查运行状态,完成本地部署。
百度智能云零部署(新手首选)
- 打开百度 App 搜索 “OpenClaw” 或登录百度智能云控制台,找到 DuClaw 服务。
- 点击 “立即部署”,系统自动完成环境安装与模型配置,全程无需手动操作。
- 部署完成后,通过网页端或百度 App 直接对话,预置百度搜索、百科等专属技能,适配国内办公场景。
核心使用逻辑与技能扩展
OpenClaw 的使用核心是 **“指令 - 执行 - 记忆” 闭环 **:用户通过聊天工具(飞书、企业微信等)发送自然语言指令,AI 自动拆解为子任务,调用文件操作、终端命令、浏览器自动化等工具完成执行,并将过程与结果存入持久记忆,支持跨会话复用。
核心能力体系
- 本地优先执行:所有数据与任务默认本地处理,断网状态下仍可执行预设任务,保障数据主权。
- 多渠道交互:支持 50 + 通讯平台接入,无需专属 APP,通过日常聊天工具即可远程操控设备。
- 持久化记忆:以 Markdown 和 YAML 格式存储记忆,支持向量检索与关键词匹配,解决 AI “失忆症”。
- 插件化技能扩展:通过 ClawHub 技能市场获取社区共享技能,覆盖办公、研发、数据处理等场景,支持自定义技能开发。
安全使用要点
- 权限管控:配置 IP / 账号白名单,限制 Gateway 监听为本地回环,避免未授权访问。
- 命令沙箱:启用 Docker 隔离执行终端命令,配置命令白名单,拦截危险操作。
- 模型选择:优先使用本地模型或国产云模型,降低 API 密钥泄露风险。
- 定期更新:通过openclaw update及时更新版本,修复安全漏洞与功能缺陷。
近期动态
- 版本迭代:3 月 8 日发布 v2026.3.8 稳定版,两天内完成两轮重磅更新,累计修复 200 + 问题,优化模型适配与执行效率。
- 模型支持升级:原生适配 GPT-5.4 与 Gemini 3.1 Flash 模型,新增模型降级机制,当主流模型限流或过载时自动切换备选模型,保障服务稳定性。
- 架构革新:上线 Context Engine 插件接口,实现上下文管理 “自由插拔”,开发者无需修改核心代码即可自定义上下文处理策略,大幅提升扩展性。
- 国内生态爆发:百度智能云推出零部署 DuClaw 服务,首月低门槛活动吸引大量个人用户;京东云 OpenClaw 服务单周用户增长超 300%,国内部署量持续攀升。
- 社区规模:GitHub 星标突破 28 万,单周 npm 下载量超 150 万次,成为全球增长最快的开源 AI 项目,社区贡献者超 900 人,生态持续活跃。[1][2][3][4][5][6][7][8][9][10][11]
词条图片





