Questo laboratorio permette agli studenti di esplorare un modello linguistico locale (LLM) usando Python e llama.cpp
. Il modello scelto è Qwen3-4B in formato GGUF
, adatto a computer con risorse limitate.
- Sistema operativo: Linux
- Python ≥ 3.8
- Accesso a terminale
- Modello GGUF scaricato in
./models/Qwen3-4B-Q4_K_M.gguf
-
crea un ambiente virtuale (opzionale ma consigliato)
python -m venv venv source venv/bin/activate
-
installa le dipendenze:
pip install -r requirements.txt
-
verifica di aver scaricato il modello in:
./models/Qwen3-4B-Q4_K_M.gguf
Puoi trovare i modelli compatibili su: https://huggingface.co/unsloth
Esegui il programma:
python main.py
- implementare il main del programma
- conversa con l'LLM in italiano o inglese
- modifica il codice Python per cambiare la personalità dell'LLM
- usa prompt creativi o tematici
- crea un assistente per lo studio
- simula una chat con uno scrittore o personaggio storico
- analizza come l’LLM risponde a prompt ambigui o specifici