Saltar al contenido principal

Ollama

Sitio web oficial https://ollama.ai

Proyecto de código abierto para ejecutar, crear y compartir modelos de lenguaje grande (LLMs).

Conectar Modelos Ollama

  • Descarga e instala Ollama desde el siguiente enlace: ollama.ai.

Descargar modelos a través de la consola

  • Descarga el modelo, por ejemplo, ollama run deepseek-r1 desde la terminal.

  • Utiliza el modelo ejecutando el comando ollama pull MODEL, por ejemplo: ollama pull deepseek-r1.
  • Por favor, espera hasta que la carga alcance el 100% de finalización.

Cómo usar Ollama

  • En la extensión CodeGPT de VSCode, cambia el modelo en el chat.

  • Selecciona LLMs Locales y elige Ollama como Proveedor.
  • Utiliza los modelos disponibles directamente.
  • Pega el enlace del servidor donde se está ejecutando el modelo. Para localhost: http://localhost:11434.
  • Haz clic fuera de las opciones y pide chatear.

Eliminar o editar Clave

Para eliminar el puerto, haz clic en el botón Cambiar configuración de conexión.

Modelos de autocompletado disponibles:

  • codestral:latest
  • qwen2.5-coder:7b
  • deepseek-coder:base
  • qwen2.5-coder:1.5b
  • codegemma:code
  • codellama:code

Errores de API

Si estás recibiendo errores de API, consulta el siguiente enlace: Documentación de Ollama

Errores de Ollama

  • Si el modelo de Ollama no responde en el chat, considera reiniciarlo localmente apagándolo y encendiéndolo nuevamente. Esta acción debería resolver el problema.

  • Si Ollama está en ejecución pero no responde, por favor elimina manualmente 'Ollama_Host' de las variables de entorno y deja que vuelva a la configuración predeterminada.