Costruisci la tua IA Locale con Ollama 0.17.7

Immagina di avere sul tuo computer un assistente simile a ChatGPT, ma senza abbonamenti, con i tuoi dati che non escono mai dallo studio e con la massima libertà di configurazione. [page:1]
Questa guida ti accompagna passo passo nella creazione di un ambiente di IA locale usando Ollama versione 0.17.7, con tutti i comandi di base per installare, avviare e gestire i modelli LLM direttamente dal terminale.

1. Perché una IA locale

I servizi cloud come OpenAI, Anthropic o Perplexity sono utili, ma presentano limiti: costi ricorrenti, vincoli sulle API, dati su server di terzi e dipendenza totale dalla connessione. [page:1]
Con una IA locale:

  • i dati restano sulla tua macchina (privacy e riservatezza);
  • non ci sono canoni mensili o costi a token;
  • le risposte sono rapide e non dipendono dal traffico di rete;
  • hai piena libertà di scegliere e cambiare modello secondo le tue esigenze.

Alcune caratteristiche avanzate non saranno disponibili, ma per ora ci serve capire come usarlo; in un futuro articolo amplieremo il discorso non esempi applicati allo studio.

2. Panoramica: Ollama come cuore del sistema

In questo setup useremo un solo componente centrale: Ollama, che funge da “motore” per scaricare, eseguire e gestire localmente i modelli di linguaggio di grandi dimensioni.

2.1. Cos’è Ollama

Ollama è un framework pensato per eseguire modelli LLM sul tuo PC o server, offrendo:

  • accesso a numerosi modelli open source (Qwen, Llama, Phi, Mistral, Gemma e altri);
  • gestione semplice di download, aggiornamenti e rimozione dei modelli;
  • un’unica interfaccia a riga di comando, uguale su Windows, macOS e Linux.

3. Requisiti minimi

Per lavorare in modo fluido con modelli LLM locali serve una macchina adeguata:

  • GPU dedicata con almeno 4 GB di memoria video (8 GB o più consigliati);
  • almeno 20 GB di spazio libero su disco per modelli e dati;
  • sistema operativo supportato (Windows 10/11, macOS, distribuzioni Linux moderne).

È possibile usare solo la CPU, ma le risposte saranno sensibilmente più lente; va bene per test e modelli piccoli, non per uso intensivo quotidiano.

4. Installare Ollama 0.17.7

Di seguito la logica generale: sul sito puoi creare sottosezioni dedicate per Windows, macOS e Linux.

4.1. Download

Apri il browser e vai su: https://ollama.com/download

Scarica il pacchetto per il tuo sistema operativo (Windows, macOS o Linux).

4.2. Installazione (schema generico)

  • Windows: esegui il file .exe e segui la procedura guidata, assicurandoti che Ollama venga aggiunto al PATH.
  • macOS: trascina l’app Ollama nella cartella Applicazioni e avviala almeno una volta.
  • Linux: in molte distribuzioni puoi usare lo script ufficiale riportato nella documentazione.

4.3. Verifica della versione

Apri il terminale (o il Prompt dei comandi su Windows) e digita:

Dovresti vedere un output simile a:

Se la versione è precedente, aggiorna Ollama ripetendo la procedura di installazione dal sito ufficiale.

5. Comandi base di Ollama

Questa è la tua “cassetta degli attrezzi” quotidiana per usare Ollama via terminale.

5.1. Verifica e aiuto

5.2. Gestione dei modelli

Esempio con un modello reale:

5.3. Gestione dei modelli in esecuzione

Questi comandi ti aiutano a capire cosa è attivo e a liberare risorse quando non ti serve più il modello.

6. Usare Qwen 3.5 con Ollama

Come modello di riferimento useremo Qwen 3.5, adatto a molti casi d’uso generali e professionali.

6.1. Scaricare Qwen 3.5

Alla prima esecuzione il modello viene scaricato; i successivi avvii saranno immediati finché non aggiornerai o rimuoverai il modello.

6.2. Varianti di Qwen 3.5

Molte build offrono versioni più leggere o più grandi. I nomi esatti possono variare, ma un pattern tipico è questo:

Indicazioni semplici:

  • modelli più piccoli (0.8B, 2B) → minore uso di risorse, risposte più veloci, ma capacità inferiore;
  • modelli più grandi (4B, 9B, ecc.) → più memoria e GPU richieste, ma miglior ragionamento e qualità del testo.

6.3. Prima chat interattiva

Per iniziare a “giocare” con la tua IA locale:

Si aprirà una sessione interattiva nel terminale, in cui digiti la tua richiesta e ricevi la risposta in tempo reale.
Esempi di prompt utili:

  • “Spiegami in modo semplice cos’è un modello LLM e come può aiutare uno studio commerciale.”
  • “Scrivi una email cortese per un cliente che chiede chiarimenti su una fattura elettronica.”
  • “Elenca 10 attività ripetitive in uno studio fiscale che si potrebbero automatizzare con l’IA.”

Per uscire dalla sessione puoi usare il comando indicato dall’interfaccia (ad esempio /bye o la combinazione di tasti suggerita).

7. Perché preferire il terminale a una WebUI

L’articolo originale “Build Your Local AI” fa leva su Open WebUI come interfaccia grafica con molte funzionalità avanzate.
In questa guida, invece, il focus resta su Ollama da terminale, perché:

  • è più leggero e richiede meno componenti aggiuntivi;
  • funziona allo stesso modo su tutti i sistemi operativi;
  • ti aiuta a comprendere realmente cosa avviene “sotto il cofano”, facilitando in futuro integrazioni e automazioni.

8. Routine quotidiana con Ollama: solo comandi

Questa sezione propone una routine giornaliera che un operatore può seguire semplicemente copiando e incollando comandi nel terminale.

8.1. Controllo rapido e avvio del modello

8.2. Valutare “a occhio” le performance

Quando usi ollama run qwen3.5, osserva la velocità di generazione delle risposte:

  • Se il testo appare molto lentamente, prova un modello più piccolo (es. qwen3.5:0.8b).
  • Se le risposte scorrono a buona velocità (circa 10–20 parole al secondo), il setup è adeguato alla tua macchina.

9. Introduzione all’IA agentica (concettuale)

Finora abbiamo usato Qwen 3.5 come una chat evoluta che risponde alle domande.
Il passo successivo è il concetto di agente IA: non solo risponde, ma segue un obiettivo, può usare strumenti e porta avanti una sequenza di azioni.

9.1. Cos’è un agente IA

Una definizione semplice che puoi usare nell’articolo:

Un agente IA è un sistema che utilizza un modello LLM (come Qwen 3.5) come “cervello”, ma è in grado di:

  • ricevere un obiettivo (es. “riassumi tutte le novità fiscali di oggi”);
  • pianificare i passi da eseguire;
  • usare strumenti esterni (file, script, API);
  • verificare i risultati e adattare le azioni successive.

In pratica si comporta come un collaboratore digitale che non si limita a rispondere, ma porta avanti una procedura entro un perimetro definito.

9.2. Esempio avanzato (no‑code): agente per uno studio fiscale

Ecco un esempio concettuale di agente che potresti descrivere, senza mostrare codice, ma solo il flusso logico:

  1. Ogni mattina alle 8:00, il sistema controlla una cartella “Documenti_oggi” dove vengono salvati PDF, circolari e appunti.
  2. Per ogni documento, il testo viene estratto e passato a Qwen 3.5 tramite Ollama con una richiesta come: “Riassumi in 5 punti chiave per un commercialista”.
  3. L’agente raccoglie tutti i riassunti in un file “Riepilogo_giornaliero”, organizzato per data.
  4. Successivamente chiede ancora a Qwen 3.5 di scrivere una bozza di email ai clienti con le novità più rilevanti del giorno.
  5. La bozza viene salvata in una cartella dedicata, pronta per la revisione manuale e l’invio definitivo.

Dal punto di vista dell’operatore, l’unica interazione quotidiana potrebbe essere:

Tutto il lavoro pesante di lettura, riassunto e redazione della bozza viene delegato all’agente e al modello, mantenendo però un controllo umano finale su ciò che viene inviato ai clienti.

10. Riepilogo: comandi essenziali per Ollama 0.17.7

Chiudiamo con un quadro di riferimento rapido dei comandi più importanti, pronti da copiare nel tuo terminale o da usare come legenda nel tuo sito.

Con questi comandi e i concetti illustrati, hai una base solida per costruire la tua IA locale partendo da Ollama 0.17.7, usando Qwen 3.5 come modello principale e preparando il terreno per flussi più avanzati e agentici, senza dover scrivere codice.

Author: Antonello

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *