openclaw安装记录创建时间2026-03-11更新时间2026-03-11文章目录openclaw安装记录目录安装环境准备问当前基础环境是什么状态问最终目标是什么Miniconda 安装问Miniconda 从哪里下载问为什么不继续用阿里云镜像OpenClaw 安装方式选择问OpenClaw 可以装在 Windows 本机吗问OpenClaw 可以离线安装吗问如何安装 OpenClaw问如果 openclaw: command not found 怎么办OpenClaw 初始配置对接 Ollama 本地模型问如何重新进入 OpenClaw 配置向导问向导里应该怎么选模型提供方问后续模型怎么设置为本地 Ollama问为什么选择 qwen3:8b而不是 deepseek-r1:1.5b问向导中其他选项怎么处理问如何查看模型配置是否生效问为什么还提示缺少 ollama 认证WSL 无法访问 Windows 上 Ollama 的排查与修复问为什么 OpenClaw 无法发现 Ollama 模型问如何让 Windows 上的 Ollama 对外可访问问如何验证 Ollama 是否已经监听正确端口问为什么仍然无法从 WSL 连接问如何放行 Ollama 端口问为什么还是不通问如何开启 WSL mirrored networking问如何验证 WSL 已经能访问 Windows 上的 OllamaOpenClaw Dashboard / Gateway 启动与认证问为什么打开 http://127.0.0.1:18789/ 提示无法访问问如何前台启动 Gateway问为什么打开的是 Canvas 页面问为什么打开 18791 提示 Unauthorized问如何获取正确的 dashboard token问最终应该打开哪个链接问为什么之前一直提示 gateway token missing 或 token mismatch最终验证结果问最终是否已经跑通问当前已经具备什么能力常见报错及解决openclaw: command not found原因解决Failed to discover Ollama models: TypeError: fetch failed原因解决curl: (7) Failed to connect to 127.0.0.1 port 11434原因解决ERR_CONNECTION_REFUSED原因解决Unauthorized原因解决gateway token missing原因解决gateway token mismatch原因解决关键命令汇总OpenClaw 安装进入向导查看模型状态测试 Ollama 接口启动 Gateway获取 Gateway Token获取完整 Dashboard 链接Windows 放行防火墙检查 Ollama 监听重启 WSL总结目录安装环境准备Miniconda 安装OpenClaw 安装方式选择OpenClaw 初始配置对接 Ollama 本地模型WSL 无法访问 Windows 上 Ollama 的排查与修复OpenClaw Dashboard / Gateway 启动与认证最终验证结果常见报错及解决安装环境准备问当前基础环境是什么状态已具备的环境已安装Ollama已安装WSL已安装Miniconda尚未完成OpenClaw的正确接入配置问最终目标是什么目标链路为OpenClaw 作为 Agent调用本地 Ollama 模型通过 Dashboard / Gateway 进行交互后续再扩展为调用 Python 自动生成 PPT注意本次先完成OpenClaw Ollama 本地模型跑通Python 自动生成 PPT 属于下一阶段Miniconda 安装问Miniconda 从哪里下载最终使用的是官方安装包未继续使用阿里云镜像。推荐下载版本Miniconda3-py312_26.1.1-1-Windows-x86_64.exe也可使用 latest 版Miniconda3-latest-Windows-x86_64.exe问为什么不继续用阿里云镜像因为访问阿里云镜像时出现了无法连接或页面已移动的问题因此改为使用官方源下载安装。注意安装 Miniconda 时优先选择较新的稳定版本Python 3.12 兼容性通常更稳OpenClaw 安装方式选择问OpenClaw 可以装在 Windows 本机吗实际操作中选择了在 WSL 的 Ubuntu 环境中安装 OpenClaw不在 Windows 本机直接作为主要运行环境安装问OpenClaw 可以离线安装吗结论不适合直接做纯离线一键安装更现实的方式是先联网安装一次或者在另一台联网环境中准备依赖后迁移注意OpenClaw 的安装和依赖管理更适合联网完成Windows 上推荐配合 WSL 使用兼容性更好问如何安装 OpenClaw在 WSL 中执行安装脚本curl-fsSLhttps://openclaw.ai/install.sh|bash安装后刷新当前 shellsource~/.bashrc验证命令是否可用openclaw--version问如果openclaw: command not found怎么办先刷新 shell 环境source~/.bashrchash-ropenclaw--version如果仍然失败再检查node-vnpm-vnpmprefix-gecho$PATHOpenClaw 初始配置对接 Ollama 本地模型问如何重新进入 OpenClaw 配置向导执行openclaw onboard问向导里应该怎么选模型提供方在实际操作中没有直接看到Ollama选项先选择了Skip for now然后继续完成引导问后续模型怎么设置为本地 Ollama在模型选择阶段选择Enter model manually把默认模型改为ollama/qwen3:8b问为什么选择qwen3:8b而不是deepseek-r1:1.5b优先使用qwen3:8b原因参数规模更大更适合作为 OpenClaw 的主聊天模型在工具调用、对话稳定性上更合适问向导中其他选项怎么处理整体处理方式如下Channel 选择Skip for nowWeb SearchSkip for nowSkills先启用检查依赖安装选择Skip for nowHooksSkip for now各类 API KeyNotion / Google Places / Gemini / OpenAI / ElevenLabs 等均先选择No注意当前目标只是本地模型可用不需要先配置消息渠道、搜索、外部 API多余集成后续需要时再补充问如何查看模型配置是否生效先刷新环境再查看状态source~/.bashrc openclaw models status如果显示默认模型为ollama/qwen3:8b则说明模型配置已写入。问为什么还提示缺少ollama认证为让 OpenClaw 完成 provider 检查设置占位环境变量exportOLLAMA_API_KEYollama-localopenclaw models status最终状态中应看到Default : ollama/qwen3:8b Configured models (1): ollama/qwen3:8bWSL 无法访问 Windows 上 Ollama 的排查与修复问为什么 OpenClaw 无法发现 Ollama 模型初始报错为Failed to discover Ollama models: TypeError: fetch failed随后在 WSL 中测试curlhttp://127.0.0.1:11434/api/tags结果connection refused说明WSL 内访问127.0.0.1:11434不通Windows 上的 Ollama 没有被 WSL 正确访问到问如何让 Windows 上的 Ollama 对外可访问在 Windows 中新增环境变量变量名OLLAMA_HOST变量值0.0.0.0:11434然后完全重启 Ollama。问如何验证 Ollama 是否已经监听正确端口在 Windows CMD 或 PowerShell 中执行netstat-ano|findstr 11434正确监听结果示例TCP 0.0.0.0:11434 0.0.0.0:0 LISTENING TCP [::]:11434 [::]:0 LISTENING问为什么仍然无法从 WSL 连接后续判断为Windows 防火墙可能拦截了11434WSL 网络模式导致 localhost 互通不完整问如何放行 Ollama 端口在管理员 PowerShell中执行New-NetFirewallRule-DisplayNameAllow Ollama 11434-Direction Inbound-Action Allow-Protocol TCP-LocalPort 11434问为什么还是不通进一步排查发现WSL 仍然无法通过宿主机 IP 正常访问 Ollama因此继续修改 WSL 网络模式。问如何开启 WSL mirrored networking在 Windows 中创建或编辑文件C:\Users\lenovo\.wslconfig内容如下[wsl2] networkingModemirrored然后重启 WSLwsl --shutdown wsl问如何验证 WSL 已经能访问 Windows 上的 Ollama进入 WSL 后执行curlhttp://localhost:11434/api/tags成功返回模型列表例如{models:[{name:qwen3:8b},{name:deepseek-r1:1.5b}]}这说明WSL 已经可以通过localhost访问 Windows 上的 OllamaOpenClaw 调用本地模型的网络链路已打通注意这一步是整个安装过程中最关键的网络修复步骤如果curl http://localhost:11434/api/tags不通OpenClaw 就无法正常发现 Ollama 模型OpenClaw Dashboard / Gateway 启动与认证问为什么打开http://127.0.0.1:18789/提示无法访问原因是 Gateway 没有以前台方式运行或者未正常建立 WebSocket 监听。问如何前台启动 Gateway在 WSL 中执行openclaw gateway--port18789正常输出示例[gateway] agent model: ollama/qwen3:8b [gateway] listening on ws://127.0.0.1:18789 [browser/server] Browser control listening on http://127.0.0.1:18791/ (authtoken)问为什么打开的是 Canvas 页面误打开了http://127.0.0.1:18789/__openclaw__/canvas/这是 Canvas 测试页不是聊天控制台。应打开的是 Dashboard URL而不是 Canvas URL。问为什么打开18791提示Unauthorized因为 Browser Control 启用了 token 认证。问如何获取正确的 dashboard token执行openclaw config get gateway.auth.token或者更直接地打印完整 Dashboard URLopenclaw dashboard --no-open示例输出Dashboard URL: http://127.0.0.1:18789/#tokenxxxxxxxxxxxxxxxxxxxxxxxx问最终应该打开哪个链接直接打开openclaw dashboard --no-open输出的完整链接例如http://127.0.0.1:18789/#tokenb9e410df30709779cc331a63de57813922e0f9c6ec475429问为什么之前一直提示gateway token missing或token mismatch原因包括浏览器中缓存了旧 token没有打开带#token...的完整链接误打开了不带 token 的页面打开了错误端口或错误页面如需清理浏览器缓存中的旧 token可在控制台执行localStorage.clear();sessionStorage.clear();location.reload();注意18789是 Gateway Dashboard 入口18791是 Browser Control 监听地址但当前实际使用中以dashboard --no-open输出的完整 URL 最稳一定要使用带 token 的完整链接最终验证结果问最终是否已经跑通已经跑通。最终成功状态表现为OpenClaw 页面正常打开默认模型为ollama/qwen3:8b页面中可以发送消息并获得回复已完成OpenClaw 安装WSL 联通 Windows OllamaGateway 启动Dashboard token 认证本地模型响应验证问当前已经具备什么能力当前已经具备通过 OpenClaw 控制台与本地qwen3:8b模型对话后续可以继续扩展Python 工具调用自动生成 PPT其他技能或渠道接入常见报错及解决openclaw: command not found原因shell 环境未刷新PATH 未生效解决source~/.bashrchash-ropenclaw--versionFailed to discover Ollama models: TypeError: fetch failed原因WSL 无法访问 Windows 上的 OllamaOLLAMA_API_KEY未设置网络模式或防火墙问题解决设置占位认证exportOLLAMA_API_KEYollama-local测试 Ollama 接口curlhttp://localhost:11434/api/tags若不通则继续设置OLLAMA_HOST0.0.0.0:11434重启 Ollama放行 Windows 防火墙端口11434开启 WSL mirrored networkingcurl: (7) Failed to connect to 127.0.0.1 port 11434原因WSL 中的 localhost 不能直接访问 Windows 上的 Ollama。解决在 Windows 中设置OLLAMA_HOST0.0.0.0:11434配置[wsl2] networkingModemirrored重启 WSLwsl --shutdown wslERR_CONNECTION_REFUSED原因Gateway 未启动打开的不是正确的控制页面端口未监听解决启动 Gatewayopenclaw gateway--port18789Unauthorized原因Control UI 开启了 token 认证但浏览器未携带正确 token。解决获取 tokenopenclaw config get gateway.auth.token获取完整 dashboard 链接openclaw dashboard --no-open打开带 token 的完整 URLgateway token missing原因浏览器未携带 token或 token 未写入页面状态。解决直接打开openclaw dashboard --no-open输出的完整 URL。gateway token mismatch原因浏览器里缓存了旧 token。解决在浏览器控制台执行localStorage.clear();sessionStorage.clear();location.reload();然后重新打开带 token 的 dashboard 链接。关键命令汇总OpenClaw 安装curl-fsSLhttps://openclaw.ai/install.sh|bashsource~/.bashrc openclaw--version进入向导openclaw onboard查看模型状态exportOLLAMA_API_KEYollama-localopenclaw models status测试 Ollama 接口curlhttp://localhost:11434/api/tags启动 Gatewayopenclaw gateway--port18789获取 Gateway Tokenopenclaw config get gateway.auth.token获取完整 Dashboard 链接openclaw dashboard --no-openWindows 放行防火墙New-NetFirewallRule-DisplayNameAllow Ollama 11434-Direction Inbound-Action Allow-Protocol TCP-LocalPort 11434检查 Ollama 监听netstat-ano|findstr 11434重启 WSLwsl --shutdown wsl总结本次openclaw安装与接入的核心难点不在安装命令本身而在于WSL 如何访问 Windows 上的 OllamaGateway 与 Dashboard 的 token 认证区分 Canvas、Gateway、Dashboard 三种入口最终已成功完成OpenClaw 安装Ollama 本地模型接入qwen3:8b设为默认模型WSL 与 Windows 之间的 Ollama 联通OpenClaw Dashboard 成功登录并对话