跳过至正文
Ollama 的 API 允许您以编程方式运行模型并与其进行交互。

开始使用

如果您刚刚开始使用,请参考 快速入门 文档,开始使用 Ollama 的 API。

基础 URL

安装后,Ollama 的 API 默认运行在
https://:11434/api
要在 ollama.com 上运行云端模型,可以通过以下基础 URL 使用相同的 API
https://ollama.ac.cn/api

示例请求

一旦 Ollama 运行,其 API 将自动可用,并可以通过 curl 进行访问
curl https://:11434/api/generate -d '{
  "model": "gemma3",
  "prompt": "Why is the sky blue?"
}'

Ollama 拥有官方的 Python 和 JavaScript 库 Ollama 还有几个由社区维护的库。有关完整列表,请参阅 Ollama GitHub 仓库

版本控制

Ollama 的 API 没有严格的版本划分,但预计该 API 是稳定且向后兼容的。弃用情况很少见,并将在 发行说明 中公布。