Installer Ollama et Open WebUI sur Debian 12Installer Ollama et Open WebUI sur Debian 12
(installation propre, locale, sans npm côté hôte) Cet article décrit une installation 100 % maîtrisée d’un LLM local avec Ollama[...]
(installation propre, locale, sans npm côté hôte) Cet article décrit une installation 100 % maîtrisée d’un LLM local avec Ollama[...]
But : installer llama.cpp sur Debian 12, lancer un modèle GGUF (ex: Qwen2.5 7B) via un service systemd, et utiliser[...]