Skip to main content
Ollama
# 从远端拉去一个模型
% ollama pull qwen3:1.7b

# 启动一个本地模型
% ollama run qwen3:1.7b

# 查看本地有哪些模型
% ollama list
NAME                ID              SIZE      MODIFIED     
qwen2.5:1.5b        65ec06548149    986 MB    6 months ago    
qwen3:1.7b          8f68893c685c    1.4 GB    6 months ago    
deepseek-r1:1.5b    e0979632db5a    1.1 GB    7 months ago    

# 查看正在运行的本地模型
% ollama ps  
NAME          ID              SIZE      PROCESSOR    CONTEXT    UNTIL              
qwen3:1.7b    8f68893c685c    1.9 GB    100% GPU     4096       4 minutes from now  

# 删除模型
% ollama rm deepseek-r1:1.5b

# 设置 openclaw
% ollama launch openclaw --model deepseek-r1:1.5b

MarshioLess than 1 minutellmvlm
open claw

HTTP 400: registry.ollama.ai/library/deepseek-r1:1.5b does not support tools

当我尝试使用本地的 ollama 服务来代替云端 api 的时候,我发现如果你的模型太小,open claw 就不能很好的工作,甚至不能支持对话功能。

命令

# node >= 22
pnpm add -g openclaw@latest

# 进行初始化配置并下载守护进程,以便在后台常驻运行,且支持开机自启
openclaw onboard --install-daemon

# 重置配置 == 修改配置文件,只不过是用交互
openclaw onboard

# 非常驻运行,用于查看控制台日志
openclaw gateway --port 18789 --verbose

# 启动 Gateway 服务
openclaw gateway start

# 暂停 Gateway 服务
openclaw gateway stop
# ⚠️ 如果你使用了 openclaw gateway stop,这会清理守护进程
# 如果你想重启这个服务,那么你需要再次注册一下这个进程
launchctl bootstrap gui/$UID ~/Library/LaunchAgents/ai.openclaw.gateway.plist
# 查看服务状态
launchctl list | grep openclaw
# 在执行一次 start
openclaw gateway start

openclaw gateway status


MarshioLess than 1 minutellmvlm
RAG prepare

检索算法

检索,retrieval,是 RAG 中最重要的第一步。完整的检索流程包含两个阶段:表征(将文本转化为数学表示) 与 匹配(在数据库中寻找最相似的结果)。

稀疏检索(Sparse Retrieval)

稀疏检索主要基于关键词匹配。它非常擅长处理精确匹配(如人名、产品型号、特定术语),但难以理解同义词。

传统稀疏检索

  • TF-IDF: 经典的加权方法,根据词频(TF)和逆文档频率(IDF)计算权重。
  • BM25(Best Matching 25)

神经稀疏检索


MarshioAbout 3 minllmvlm