Ollama 本地 AI
管理本地大模型,实现完全离线推理
Ollama 服务状态
未启动
http://localhost:11434Ollama 未启动
请先安装并启动 Ollama:
# Windows: 下载 https://ollama.com/download
# 启动后自动在 11434 端口监听已安装模型
Ollama 未启动
推荐模型
点击下载按钮安装到本地
qwen2.5:7b
通义千问 7B,中文最强本地模型
4.7GBqwen2.5:14b
通义千问 14B,更强推理能力
9.0GBllama3.2:3b
Meta Llama 3.2 3B,轻量快速
2.0GBllama3.1:8b
Meta Llama 3.1 8B,综合能力强
4.7GBdeepseek-r1:7b
DeepSeek R1 7B,推理专用
4.7GBnomic-embed-text
文本 Embedding 模型,知识库向量化
274MBmistral:7b
Mistral 7B,欧洲顶级开源模型
4.1GBphi4:14b
Microsoft Phi-4 14B,小参数高性能
9.1GB安装 Ollama
Ollama 是免费开源的本地 AI 运行框架,支持 Windows / macOS / Linux。