OpenCowork
AI 提供商

Ollama

使用 Ollama 在本地运行开源模型,无需 API Key。

Ollama

Ollama 让你在本地运行开源大语言模型,完全离线,无需 API Key,数据不离开本机。

安装 Ollama / Install Ollama

ollama.com 下载并安装 Ollama。

# macOS / Linux
curl -fsSL https://ollama.com/install.sh | sh

# Windows: 下载安装程序

下载模型 / Pull Models

# 下载 Llama 3.2
ollama pull llama3.2

# 下载 Qwen2.5
ollama pull qwen2.5

# 下载 DeepSeek-R1(7B)
ollama pull deepseek-r1:7b

# 查看已下载的模型
ollama list

在 OpenCowork 中配置 / Configure

进入 设置 → AI 提供商,添加新提供商:

配置项
协议openai-chat
Base URLhttp://localhost:11434/v1
API Keyollama(任意字符串)
模型大小适用场景
llama3.2:3b2GB快速响应,低配机器
llama3.2:8b5GB通用对话
qwen2.5:7b4.7GB中文优化
deepseek-r1:7b4.7GB推理任务
codellama:13b7.4GB代码生成

Ollama 默认监听 http://localhost:11434。如果修改了端口,记得同步更新 OpenCowork 中的 Base URL。

On this page