Ollama avec Open WebUI
-
Crée un volume pour le conteneur :
docker volume create ollama
docker volume create open-webui
services:
ollama:
image: ollama/ollama
container_name: ollama
network_mode:image: 'bridge'ollama/ollama:latest
restart: 'unless-stopped'
ports:
- '11434:11434'
volumes:
- 'ollama:/root/.ollama'
environment:
TZ: 'Europe/Zurich'
PUID: '1000'
PGID: '1000'
OLLAMA_HOST: '0.0.0.0'
NVIDIA_DRIVER_CAPABILITIES: 'all'
NVIDIA_VISIBLE_DEVICES: 'all'
deploy:
resources:
limits:
cpus: '20.2.00'
memory: '4096M'
reservations:
cpus: '10.1.00'
memory: '4096M'
devices:
- driver: nvidia
count: all
capabilities: [gpu]
networks:open-webui:
ollama_network:container_name: driver:open-webui
bridgeimage: ghcr.io/open-webui/open-webui:${WEBUI_DOCKER_TAG-main}
restart: 'unless-stopped'
volumes:
- 'open-webui:/app/backend/data'
volumes:
ollama:
open-webui:
external: true
Pour voir l'utilisation en temps réelle sur l'hôte :
nvidia-smi dmon