Pular para o conteúdo principal

Ollama

Site oficial: https://ollama.ai

Projeto de código aberto para executar, criar e compartilhar grandes modelos de linguagem (LLMs).

Conectar Modelos Ollama

  • Baixe e instale o Ollama a partir do link: ollama.ai.

Baixar modelos via console

  • Baixe o modelo, por exemplo, ollama run deepseek-r1 a partir do terminal.

  • Use o modelo executando o comando ollama pull MODEL, por exemplo: ollama pull deepseek-r1.

  • Aguarde até que o carregamento atinja 100% de conclusão.

Como usar o Ollama

  • Na extensão VSCode CodeGPT, altere o modelo no chat.

  • Escolha Local LLMs e selecione Ollama como Provider.
  • Use os modelos disponíveis diretamente.
  • Cole o link do servidor onde o modelo está sendo executado. Para localhost: http://localhost:11434.
  • Clique fora das opções e peça para conversar.

Remover ou editar Chave

Para remover a porta, clique no botão Change connection settings.

Modelos de Autocompletar disponíveis:

  • codestral:latest
  • qwen2.5-coder:7b
  • deepseek-coder:base
  • qwen2.5-coder:1.5b
  • codegemma:code
  • codellama:code

Erros de API

Se você estiver recebendo erros de API, verifique o seguinte link: Documentação Ollama

Erros do Ollama

  • Se o modelo Ollama não responder no chat, considere reiniciá-lo localmente desligando-o e ligando-o novamente. Esta ação deve resolver o problema.
  • Se o Ollama estiver em execução, mas não responder, remova manualmente 'Ollama_Host' das variáveis de ambiente e deixe-o voltar para a configuração padrão.