编辑
2026-04-02
OpenClaw
00

目录

一、背景
二、LM Studio设置
三、OpenClaw设置

一、背景

如果使用公网服务器部署小龙虾+本地AI大模型的话来回跳转特别慢。

而且为什么不用ollama了,因为ollama太慢了不如LM Stdio方便和快速。

这次直接通过本地部署龙虾+LM Studio,通过内网穿透的方式,在公网也能安全访问龙虾进行下达任务!

二、LM Studio设置

加载好模型 image.png

开启对外提供服务 image.png

测试能不能访问到接口

http://本地IP:1234/api/v1/models

image.png

三、OpenClaw设置

js
openclaw onboard --install-daemon

image.png

image.png

改成这个本地调用LM Studio接口的地址 image.png

然后回车再随便输入个key再回车,然后选择第一个openAI接口范式的 image.png

然后http://localhost:1234/v1/models 输入网页中这个id到小龙虾去

image.png

然后一路回车 image.png

image.png

最后都选skip跳过就好

image.png

最后启动小龙虾

js
openclaw gateway run

本文作者:松轩(^U^)

本文链接:

版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!

Document