OpenClaw
无法连接到 OpenClaw

Ollama 本地 AI

管理本地大模型,实现完全离线推理

Ollama 服务状态
未启动
http://localhost:11434

Ollama 未启动

请先安装并启动 Ollama:

# Windows: 下载 https://ollama.com/download
# 启动后自动在 11434 端口监听
已安装模型
Ollama 未启动
推荐模型
点击下载按钮安装到本地
qwen2.5:7b
通义千问 7B,中文最强本地模型
4.7GB
qwen2.5:14b
通义千问 14B,更强推理能力
9.0GB
llama3.2:3b
Meta Llama 3.2 3B,轻量快速
2.0GB
llama3.1:8b
Meta Llama 3.1 8B,综合能力强
4.7GB
deepseek-r1:7b
DeepSeek R1 7B,推理专用
4.7GB
nomic-embed-text
文本 Embedding 模型,知识库向量化
274MB
mistral:7b
Mistral 7B,欧洲顶级开源模型
4.1GB
phi4:14b
Microsoft Phi-4 14B,小参数高性能
9.1GB
安装 Ollama

Ollama 是免费开源的本地 AI 运行框架,支持 Windows / macOS / Linux。

Linux
curl -fsSL https://ollama.com/install.sh | sh