Ollama
Sitio web oficial https://ollama.ai
Proyecto de código abierto para ejecutar, crear y compartir modelos de lenguaje grande (LLMs).
Conectar modelos de Ollama
- Descarga Ollama desde el siguiente enlace: ollama.ai
Descargar modelos a través de la consola
- Instala Ollama y utiliza el modelo
codellama
ejecutando el comandoollama pull codellama
- Si deseas usar
Mistral
u otros modelos, debes reemplazarcodellama
con el modelo deseado. Por ejemplo:ollama pull mistral
Descargar modelos a través de la interfaz de usuario de CodeGPT
- Selecciona Ollama como
Proveedor
- Selecciona el modelo
- Haz clic en el botón
Descargar
Cómo usar Ollama
En VSCode selecciona Ollama como
Proveedor
Ten en cuenta que Ollama se está ejecutando localmente en tu computadora.
Elige un modelo
Eliminar clave
No es necesario desconectar; solo cambia el proveedor.
Modelos de chat disponibles:
- llama3.2:3b
- llama3.2:1b
- llama3.1:405b
- llama3.1:70b
- llama3.1:8b
- llama3:70b
- llama3:8b
- codellama:latest
- codestral:latest
- mathstral:latest
- mixtral:latest
- mistral:v0.3
- mistral:latest
- codegeex4:9b
- reflection:70b
- yi-coder:1.5b
- yi-coder:9b
- qwen2.5-coder:1.5b
- qwen2.5-coder:7b
- codeqwen
- qwen2:72b
- qwen2:7b
- qwen2:1.5b
- qwen2:0.5b
- command-r-plus:latest
- command-r:latest
- aya:8b
- aya:35b
- phi3.5:latest
- phi3:mini
- phi3:medium
- phi3:latest
- granite-code:3b
- granite-code:8b
- granite-code:20b
- granite-code:34b
- codegemma:latest
- gemma2:2b
- gemma2:9b
- gemma2:27b
- gemma:2b
- gemma:7b
- dbrx:latest
- deepseek-v2.5:236b
- deepseek-coder:latest
- deepseek-coder-v2
- starcoder2:latest
- dolphincoder:latest
- dolphin-mixtral:latest
- starling-lm:latest
- llama2-uncensored:latest
Modelos de autocompletado disponibles:
- codestral:latest
- qwen2.5-coder:7b
- deepseek-coder:base
- qwen2.5-coder:1.5b
- codegemma:code
- codellama:code
Errores de API
Si estás recibiendo errores de API, verifica el siguiente enlace: Documentación de Ollama
Errores de Ollama
Si el modelo de Ollama no responde en el chat, considera reiniciarlo localmente apagándolo y encendiéndolo nuevamente. Esta acción debería resolver el problema.
Si Ollama está en funcionamiento pero no responde, por favor elimina manualmente 'Ollama_Host' de las variables de entorno y déjalo revertir a la configuración predeterminada.