OpenWebUI es una interfaz web interactiva diseñada para facilitar la interacción con modelos de inteligencia artificial. Proporciona una plataforma accesible para probar y desplegar modelos de IA de manera eficiente.
- Docker y Docker Compose instalados en tu sistema.
-
Clona este repositorio:
git clone ... cd hackatonia -
Levanta los servicios con Docker Compose:
docker compose up -d
-
Accede a los servicios:
- OpenWebUI: http://localhost:3000
- Ollama: http://localhost:11434
-
Para detener los servicios:
docker compose down
-
Acceder OpenWebUI
-
Ingresar las credenciales del nuevo usuario administrador
-
Acceder a las configuraciones de administrador http://localhost:3000/admin/settings
-
En conexiones setear claves de OpenAI (opcional)
-
En conexiones agregar el endpoint de ollama:
En este caso como están corriendo como servicios de docker compose el enlace es http://ollama:11434
-
Descargar modelos, estos se pueden gestionar desde las configuraciones de OpenWebUI o desde la CLI de ollama
- Los datos de
open-webuise almacenan en el volumenopen-webui. - Los datos de
ollamase almacenan en el volumenollama.
Para saber qué modelos podemos levantar en nuestro equipo podemos utilizar la siguiete herramienta: https://huggingface.co/spaces/NyxKrage/LLM-Model-VRAM-Calculator