仅 CPU
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
Nvidia GPU
安装 NVIDIA Container Toolkit。
使用 Apt 安装
-
配置仓库
curl -fsSL https://nvda.org.cn/libnvidia-container/gpgkey \
| sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -fsSL https://nvda.org.cn/libnvidia-container/stable/deb/nvidia-container-toolkit.list \
| sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' \
| sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update
-
安装 NVIDIA Container Toolkit 软件包
sudo apt-get install -y nvidia-container-toolkit
使用 Yum 或 Dnf 安装
-
配置仓库
curl -fsSL https://nvda.org.cn/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo \
| sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo
-
安装 NVIDIA Container Toolkit 软件包
sudo yum install -y nvidia-container-toolkit
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker
启动容器
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
如果您在 NVIDIA JetPack 系统上运行,Ollama 无法自动识别正确的 JetPack 版本。请将环境变量 JETSON_JETPACK=5 或 JETSON_JETPACK=6 传递给容器,以选择版本 5 或 6。
AMD GPU
若要在配备 AMD GPU 的环境下使用 Docker 运行 Ollama,请使用 rocm 标签和以下命令
docker run -d --device /dev/kfd --device /dev/dri -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:rocm
Vulkan 支持
Vulkan 已捆绑在 ollama/ollama 镜像中。
docker run -d --device /dev/kfd --device /dev/dri -v ollama:/root/.ollama -p 11434:11434 -e OLLAMA_VULKAN=1 --name ollama ollama/ollama
在本地运行模型
现在您可以运行模型了
docker exec -it ollama ollama run llama3.2
尝试不同的模型
可以在 Ollama 库中找到更多模型。