Contexto
Autoguardado
Systems
Guardar
⚙️ El LLM predeterminado es vicuna ejecutado localmente por Ollama. Deberá instalar la aplicación de escritorio de Ollama y ejecutar los siguientes comandos para darle a este sitio acceso al modelo que se ejecuta localmente:
$ OLLAMA_ORIGINS=https://www.olesur.com OLLAMA_HOST=127.0.0.1:11435 ollama serve
Luego, en otra ventana:
$ OLLAMA_HOST=127.0.0.1:11435 ollama pull vicuna