Da quando Ollama ha semplificato l esecuzione di LLM in locale, molti homelab enthusiast si chiedono: ha senso sostituire le API cloud con modelli locali?
Cosa fa Ollama
Ollama e un runtime che scarica e serve modelli LLM (Llama, Mistral, Gemma, Phi) tramite un API REST compatibile con OpenAI su localhost:11434.
curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3.2
ollama run llama3.2...
Cosa fa Ollama
Ollama e un runtime che scarica e serve modelli LLM (Llama, Mistral, Gemma, Phi) tramite un API REST compatibile con OpenAI su localhost:11434.
curl -fsSL https://ollama.com/install.sh | sh
ollama pull llama3.2
ollama run llama3.2...
Contenuto riservato ai membri
Registrati gratis per leggere l'articolo completo e commentare.
Crea account gratis → Ho già un account
💬 Commenti (0)
Nessun commento ancora. Sii il primo!