如果使用公网服务器部署小龙虾+本地AI大模型的话来回跳转特别慢。
而且为什么不用ollama了,因为ollama太慢了不如LM Stdio方便和快速。
这次直接通过本地部署龙虾+LM Studio,通过内网穿透的方式,在公网也能安全访问龙虾进行下达任务!
加载好模型

开启对外提供服务

测试能不能访问到接口
http://本地IP:1234/api/v1/models

jsopenclaw onboard --install-daemon


改成这个本地调用LM Studio接口的地址

然后回车再随便输入个key再回车,然后选择第一个openAI接口范式的

然后http://localhost:1234/v1/models 输入网页中这个id到小龙虾去

然后一路回车


最后都选skip跳过就好

最后启动小龙虾
jsopenclaw gateway run
本文作者:松轩(^U^)
本文链接:
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!