Ollama ha democratizzato l accesso ai modelli AI locali. Prima richiedeva giorni di configurazione. Oggi bastano 2 comandi.
Installazione
curl -fsSL https://ollama.com/install.sh | sh
# Docker:
docker run -d -p 11434:11434 -v ollama:/root/.ollama ollama/ollamaModelli 2026
ollama pull llama3.2:3b # 2GB veloce
ollama pull llama3.2:8b # 5GB equilibrio
ollama pull mistral:7b # 4GB coding e reasoning
ollama pull codellama:13b # 8GB specializzato codice
ollama run llama3.2:3b # chat interattivaAPI REST
curl http://localhost:11434/v1/chat/completions -d '{
"model": "llama3.2:3b",
"messages": [{"role": "user", "content": "Hello"}]
}'Python
pip install ollama
import ollama
response = ollama.chat(model="llama3.2:3b",
messages=[{"role":"user","content":"Spiega il bubble sort"}])
print(response["message"]["content"])Open WebUI
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
ghcr.io/open-webui/open-webui:mainConclusione
Ollama + Open WebUI = ChatGPT privato offline. 15 minuti di configurazione.
💬 Commenti (0)
Nessun commento ancora. Sii il primo!