Theorie ist schön — aber wie funktioniert Fine-Tuning konkret? Hier zeigen wir die drei gängigsten Wege: Managed (OpenAI/Anthropic), Open Source mit LoRA/QLoRA, und wann welcher Ansatz passt.
Der einfachste Einstieg — keine eigene GPU nötig.
# 1. Daten vorbereiten (JSONL)
openai tools fine_tunes.prepare_data -f training_data.jsonl
# 2. Fine-Tuning starten
openai api fine_tuning.jobs.create \
-t training_data.jsonl \
-m gpt-4o-mini-2025-09-01 \
--suffix "mein-usecase"
# 3. Status prüfen
openai api fine_tuning.jobs.list
# 4. Fertiges Modell nutzen
openai api chat.completions.create \
-m ft:gpt-4o-mini-2025-09-01:org:mein-usecase:abc123 \
-g user "Schreibe einen Produkttext für..."
Kosten (ca.): $8/1M Training-Tokens, $3/1M Inference-Tokens Dauer: 30 Min – 2 Stunden (je nach Datenmenge) Limitierung: Nur OpenAI-Modelle, kein Zugriff auf Gewichte
Seit 2025 bietet Anthropic Fine-Tuning für Claude-Modelle an.
Für volle Kontrolle — auf eigener Hardware oder Cloud-GPUs.
Low-Rank Adaptation trainiert nicht alle Modell-Parameter, sondern nur kleine, zusätzliche Matrizen. Das reduziert GPU-Bedarf drastisch.
| Methode | GPU-RAM | Trainingszeit | Qualität |
|---|---|---|---|
| Full Fine-Tuning | 80+ GB | Stunden–Tage | ✅ Maximal |
| LoRA | 16–24 GB | 30–60 Min | ✅ Sehr gut |
| QLoRA | 8–12 GB | 30–60 Min | ✅ Gut |
QLoRA lädt das Basismodell in 4-Bit und trainiert LoRA-Adapter in 16-Bit. Ergebnis: Fine-Tuning eines 70B-Modells auf einer einzigen A100-GPU.
| Modell | Parameter | Stärken |
|---|---|---|
| Llama 3.1 | 8B / 70B / 405B | Allrounder, Meta-Lizenz |
| Mistral Large | 123B | Stark für EU-Sprachen |
| Qwen 2.5 | 7B / 72B | Code + Multilingual |
| Gemma 2 | 9B / 27B | Kompakt, Google-optimiert |
Unsloth / Hugging Face TRL → Training
Weights & Biases / MLflow → Experiment-Tracking
vLLM / TGI → Inference-Server
| Kriterium | Managed (OpenAI) | Open Source (LoRA) |
|---|---|---|
| Setup | 5 Minuten | 2–4 Stunden |
| Kosten pro Training | $10–100 | $5–50 (Cloud GPU) |
| Kontrolle | Niedrig | Voll |
| Datenschutz | Daten bei OpenAI | Daten bei Ihnen |
| Modell-Eigentum | Nein | Ja |
Praxis-Tipp: Starten Sie mit Managed Fine-Tuning (OpenAI/Anthropic) für den Proof of Concept. Wenn es funktioniert und Datenschutz oder Kosten ein Thema werden, migrieren Sie auf Open Source mit QLoRA.