行业注意力已经从
“更会说”转向“真的去做”
过去两年大家比的是模型能力;最近半年开始比执行闭环、自动处理、消息直连和任务完成率。
- 能力溢出倒逼产品化,用户把“编程助手”用成了“通用执行入口”。
- 它说明执行型 AI 的边界不是产品经理划的,是用户先用出来的。
- 多步任务 agent 获得了和“聊天助手”完全不同的估值逻辑。
- 资本在给市场发信号:会执行的 agent,商业价值更大。
结论 OpenClaw 出现在这个时间点,不是偶然,而是“执行型 AI”浪潮的一个典型产物。
从 Clawdbot 到国内现象级扩散
Clawdbot 初始发布,项目正式出现。
先改名 Moltbot,随后再次更名为 OpenClaw。
Moltbook 事件和 “agent 社交网络” 话题推动全球破圈。
Peter Steinberger 宣布加入 OpenAI,同时强调项目保持开源并转向基金会结构。
腾讯、地方政府、云平台和社区工具多线推进,国内进入大众传播阶段。
这条时间线要帮学员建立一个判断:OpenClaw 不是孤立的新工具,而是全球 agent 浪潮和国内平台化推进的交叉点。
OpenClaw 不是模型,
而是执行系统
飞书、Telegram、Discord、微信等,都可以只是它的通信端口。
真正做事的环境是你的电脑或服务器,而不是一个网页聊天框。
长期记忆、Skills、自动化、定时任务、事件驱动,让它持续工作。
一句话 你其实是在跟自己的电脑讲话,然后让它替你把事情做完、再回来汇报。
| 比较维度 | 聊天模型 | OpenClaw |
|---|---|---|
| 核心问题 | 怎么回答 | 怎么执行 |
| 交互方式 | 问一句答一句 | 你说它干,干完汇报 |
| 持续性 | 会话为主 | 可长期运行 |
封装版适合试,
自部署适合长期用
封装版的本质,是在开源 OpenClaw 之上帮用户预装、简化配置、再包一层产品入口。
封装版做快速验证,自部署做正式使用。很多人的真实路径,就是先装封装版体验,再迁移到自部署。
| 维度 | 封装版 | 自部署 |
|---|---|---|
| 上手速度 | 快 | 中等 |
| 可控程度 | 低 | 高 |
| 数据隐私 | 依赖封装方 | 自己掌控 |
| 迁移成本 | 常常不透明 | 配置可导出 |
| 适合人群 | 先跑起来的人 | 重视隐私和定制的人 |
完全没有命令行经验,或者你当前目标只是先看看效果。
你在意数据安全、长期使用、接自己的模型和通信渠道。
装得快 不等于可控
课堂里最好把下面这 6 个问题讲成判断框架,而不是一个纯列表。
如果迁不走,正式使用时就等于被平台绑定。
搞不清楚 API Key 去向,就谈不上数据安全。
不能只看“自动升级”,还要能知道改了什么。
如果底层不可替换,可控性就很弱。
删除以后是否留残余服务、配置和权限。
出问题能排障,才算真正能用。
判断标准 这 6 个问题答不出来,就算“装得快”,也不该把正式工作交给它。
先选阶段,再选平台
第一阶段最友好
- 上手快,排障成本低,可见性高。
- 适合新手理解 OpenClaw 的运行方式。
- 不足是长时间在线能力一般,更依赖本机环境。
第二阶段再上
- 在线稳定性更强,更适合长期运行和环境隔离。
- 难点通常不在 OpenClaw,而在 SSH、端口、安全组和公网访问。
- 更适合已有服务器基础或准备正式运行的人。
课堂上只带一条最小可行路径
先让大家“装起来并跑通”,再谈更复杂的优化和迁移。
- 先教大家打开 Terminal / PowerShell。
- 执行安装命令和
openclaw onboard。 - 再看
openclaw status/openclaw health。
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard
openclaw status
openclaw health
- 先创建主机,记住公网 IP / 用户名 / 密码或 SSH Key。
- 确认安全组放行
22端口,先用 SSH 连通。 - 连上以后再执行和本地一样的安装流程。
ssh root@你的公网IP
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard
openclaw 命令能执行openclaw onboard 能正常跑完status / health 无明显报错性能轨 + 成本轨,
一起看
课堂目标不是替学员选模型,而是让学员以后自己会选。
用 Arena Leaderboard 一类公开榜单建立性能参考,不要凭感觉选模型。
- 阿里云百炼:Lite / Pro,适合预算稳定的团队。
- MiniMax:月包激进,适合个人开发者先试。
- 智谱 / 火山:公开口径清晰,适合国内试点。
- Claude:可作为国际价格对照组。
- Kimi:更适合按量精算,不要误讲成月包产品。
- DeepSeek:适合技术团队做细粒度成本优化。
- 课堂口径:强模型 + 可控成本,而不是“盲追最强”。
决策双轨 先确定你追求的是“表现上限”还是“预算稳定”,再决定具体模型和付费方式。
最简单的模型配置路径
顺序不要反过来。先跑向导,让系统有一条能工作的链路;后续再进入手动配置和细化优化。
openclaw onboard
openclaw configure
# 或编辑 ~/.openclaw/openclaw.json
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-opus-4-6"
}
}
}
}
飞书接入,不只是多一个聊天入口
课堂总括 以前是“把龙虾接进飞书里”;现在是“让龙虾在飞书里真正长出手脚”。
- 消息:读历史、搜索、回复、发卡片
- 文档:读文档、查资料
- 表格 / 多维表:读写数据
- 日历 / 任务:查档期、做安排
- 这是以你的飞书身份去做事,不是一个只会收发消息的 bot。
- 授权没做完,很多“读写工作数据”的能力都不会真正生效。
安装与授权流程
第一堂课先把最短链路讲清楚:装插件、做授权、确认机器人已经能正常回应。
终端执行安装命令。
在飞书对话里发送一条消息。
执行 /feishu auth 完成授权。
让它列出新飞书插件的能力。
执行 /feishu start,确认机器人已正常接入。
npx -y @larksuite/openclaw-lark install课堂口径:先跑通,再排障。版本和 doctor 放到下一页讲。
/feishu auth
/feishu start
版本门槛与诊断命令
安装成功以后,再补这一页:先确认本体版本,再决定是升级、更新插件,还是直接跑 doctor。
- Linux / macOS:OpenClaw 至少 2026.2.26
- Windows:OpenClaw 至少 2026.3.2
doctor看哪里坏了,doctor --fix先自动修一轮。
openclaw -v
npm install -g openclaw
npx -y @larksuite/openclaw-lark update
npx @larksuite/openclaw-lark doctor
npx @larksuite/openclaw-lark doctor --fix
npx @larksuite/openclaw-lark info
课堂里最该强调的坑,
以及今天要做的决策
先保证 Dashboard 能正常对话,再接飞书。
不发 /feishu auth,很多能力都不会真正可用。
插件和本体是有依赖关系的,老版本会出现一堆怪问题。
官方插件本质是能力扩展,不只是聊天机器人。
- 本地还是云端?
- 封装入口还是自部署?
- 模型方案选订阅、按量还是混合?
- 通信入口先接飞书还是别的渠道?
- 本地安装 OpenClaw
- 跑完
openclaw onboard - 配好一个能工作的模型
- 接入飞书并完成授权
- 成功收发一条真实消息
openclaw -v
openclaw status
openclaw health
npx @larksuite/openclaw-lark doctor
课后作业:
从“听懂”变成“做成”
- 选型说明:本地 / 云、封装 / 自装
- 模型方案:订阅 / 按量 / 混合
- 通信入口:飞书或其他
- 跑通证据:状态截图 + 一条真实收发
最后一句话 OpenClaw 不是“更聪明的聊天框”,而是“把你的工作能力变成可复制执行系统”的起点。
课上备查链接
这里只保留最常用的一组,避免把整页 30+ 链接直接扔给学员。