Tecnologia

Ollama: LLM locali sul tuo PC - guida completa 2026

· · 👁 2 · ❤️ 0 · 💬 0

Ollama ha democratizzato l accesso ai modelli AI locali. Prima richiedeva giorni di configurazione. Oggi bastano 2 comandi.

Installazione

curl -fsSL https://ollama.com/install.sh | sh
# Docker:
docker run -d -p 11434:11434 -v ollama:/root/.ollama ollama/ollama

Modelli 2026

ollama pull llama3.2:3b    # 2GB veloce
ollama pull llama3.2:8b    # 5GB equilibrio
ollama pull mistral:7b     # 4GB coding e reasoning
ollama pull codellama:13b  # 8GB specializzato codice
ollama run llama3.2:3b     # chat interattiva

API REST

curl http://localhost:11434/v1/chat/completions -d '{
  "model": "llama3.2:3b",
  "messages": [{"role": "user", "content": "Hello"}]
}'

Python

pip install ollama
import ollama
response = ollama.chat(model="llama3.2:3b",
    messages=[{"role":"user","content":"Spiega il bubble sort"}])
print(response["message"]["content"])

Open WebUI

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
  ghcr.io/open-webui/open-webui:main

Conclusione

Ollama + Open WebUI = ChatGPT privato offline. 15 minuti di configurazione.

← Torna al Blog

📚 Articoli correlati

📝
Disco ottico o USB: perché nel 2026 non ha più senso usare i CD/DVD
Elfrid · 27/04/2026
📝
La licenza Windows sul tuo PC: cos'è, dove si trova e come usarla
Elfrid · 27/04/2026
📝
Come costruire un PC gaming nel 2026: guida completa componente per componente
Elfrid · 27/04/2026

💬 Commenti (0)

Nessun commento ancora. Sii il primo!

Accedi per lasciare un commento.