Ollama
Site oficial: https://ollama.ai
Projeto de código aberto para executar, criar e compartilhar grandes modelos de linguagem (LLMs).
Conectar Modelos Ollama
- Baixe e instale o Ollama a partir do link: ollama.ai.
Baixar modelos via console
Baixe o modelo, por exemplo,
ollama run deepseek-r1
a partir do terminal.Use o modelo executando o comando
ollama pull MODEL
, por exemplo:ollama pull deepseek-r1
.Aguarde até que o carregamento atinja 100% de conclusão.
Como usar o Ollama
- Na extensão VSCode CodeGPT, altere o modelo no chat.
- Escolha
Local LLMs
e selecioneOllama
comoProvider
. - Use os modelos disponíveis diretamente.
- Cole o link do servidor onde o modelo está sendo executado. Para localhost:
http://localhost:11434
. - Clique fora das opções e peça para conversar.
Remover ou editar Chave
Para remover a porta, clique no botão Change connection settings
.
Modelos de Autocompletar disponíveis:
- codestral:latest
- qwen2.5-coder:7b
- deepseek-coder:base
- qwen2.5-coder:1.5b
- codegemma:code
- codellama:code
Erros de API
Se você estiver recebendo erros de API, verifique o seguinte link: Documentação Ollama
Erros do Ollama
- Se o modelo Ollama não responder no chat, considere reiniciá-lo localmente desligando-o e ligando-o novamente. Esta ação deve resolver o problema.
- Se o Ollama estiver em execução, mas não responder, remova manualmente 'Ollama_Host' das variáveis de ambiente e deixe-o voltar para a configuração padrão.