云端模型
Ollama 的云端模型是 Ollama 中的一种新型模型,无需强大的 GPU 即可运行。相反,云端模型会自动卸载到 Ollama 的云服务中,同时提供与本地模型相同的功能,让您能够继续使用本地工具,同时运行个人电脑无法容纳的大型模型。支持的模型
如需查看支持的模型列表,请参阅 Ollama 的 模型库。运行云端模型
Ollama 的云端模型需要 ollama.com 上的账户。要登录或创建账户,请运行- CLI
- Python
- JavaScript
- cURL
要运行云端模型,请打开终端并运行
云端 API 访问
云端模型也可以直接在 ollama.com 的 API 上访问。在此模式下,ollama.com 充当远程 Ollama 主机。身份验证
要直接访问 ollama.com 的 API,请先创建一个 API 密钥。 然后,将OLLAMA_API_KEY 环境变量设置为您的 API 密钥。列出模型
对于直接通过 Ollama API 可用的模型,可以通过以下方式列出模型生成响应
- Python
- JavaScript
- cURL

