Ollama
Sitio web oficial https://ollama.ai
Proyecto de código abierto para ejecutar, crear y compartir modelos de lenguaje grande (LLMs).
Conectar Modelos Ollama
- Descarga e instala Ollama desde el siguiente enlace: ollama.ai.
Descargar modelos a través de la consola
- Descarga el modelo, por ejemplo,
ollama run deepseek-r1
desde la terminal.
- Utiliza el modelo ejecutando el comando
ollama pull MODEL
, por ejemplo:ollama pull deepseek-r1
. - Por favor, espera hasta que la carga alcance el 100% de finalización.
Cómo usar Ollama
- En la extensión CodeGPT de VSCode, cambia el modelo en el chat.
- Selecciona
LLMs Locales
y eligeOllama
comoProveedor
. - Utiliza los modelos disponibles directamente.
- Pega el enlace del servidor donde se está ejecutando el modelo. Para localhost:
http://localhost:11434
. - Haz clic fuera de las opciones y pide chatear.
Eliminar o editar Clave
Para eliminar el puerto, haz clic en el botón Cambiar configuración de conexión
.
Modelos de autocompletado disponibles:
- codestral:latest
- qwen2.5-coder:7b
- deepseek-coder:base
- qwen2.5-coder:1.5b
- codegemma:code
- codellama:code
Errores de API
Si estás recibiendo errores de API, consulta el siguiente enlace: Documentación de Ollama
Errores de Ollama
Si el modelo de Ollama no responde en el chat, considera reiniciarlo localmente apagándolo y encendiéndolo nuevamente. Esta acción debería resolver el problema.
Si Ollama está en ejecución pero no responde, por favor elimina manualmente 'Ollama_Host' de las variables de entorno y deja que vuelva a la configuración predeterminada.