Lektion 1 von 6·11 Min Lesezeit

Vector Databases verstehen

Vektor-Datenbanken sind das Fundament moderner RAG-Systeme. Sie speichern Daten als hochdimensionale Vektoren (Embeddings) und ermöglichen blitzschnelle Ähnlichkeitssuchen — die Grundlage dafür, dass AI-Modelle auf Ihr Unternehmenswissen zugreifen können.

Was sind Embeddings?

Embeddings sind numerische Repräsentationen von Text, Bildern oder anderen Daten in einem hochdimensionalen Raum. Ähnliche Inhalte haben ähnliche Vektoren:

"Künstliche Intelligenz" → [0.23, -0.45, 0.89, 0.12, ...]  (1536 Dimensionen)
"Machine Learning"       → [0.25, -0.42, 0.87, 0.15, ...]  (sehr ähnlich!)
"Kuchenrezept"          → [-0.67, 0.33, -0.12, 0.78, ...]  (ganz anders)

Similarity Search

Die Kernfunktion einer Vektor-Datenbank: Finde die N ähnlichsten Vektoren zu einem Query-Vektor.

Distanzmetriken

MetrikBeschreibungWann nutzen
Cosine SimilarityWinkel zwischen Vektoren (0-1)Text-Embeddings (Standard)
Euclidean DistanceGeometrischer AbstandWenn Magnitude wichtig ist
Dot ProductSkalarproduktNormalisierte Embeddings

ANN-Algorithmen

Exakte Nearest-Neighbor-Suche ist bei Millionen Vektoren zu langsam. Approximate Nearest Neighbor (ANN) Algorithmen liefern 95-99% Genauigkeit bei dramatisch besserer Performance:

HNSW (Hierarchical Navigable Small World)

Layer 3:  [ A ] ─────────────── [ B ]
Layer 2:  [ A ] ──── [ C ] ──── [ B ]
Layer 1:  [ A ] ── [D] ── [ C ] ── [E] ── [ B ]
Layer 0:  [A] [F] [D] [G] [C] [H] [E] [I] [B]
  • Funktionsweise: Hierarchische Graph-Struktur mit Skip-List-Prinzip
  • Stärken: Sehr schnelle Queries, gute Recall-Rate
  • Schwächen: Hoher Speicherverbrauch, langsamer Index-Aufbau

IVF (Inverted File Index)

  • Funktionsweise: Vektoren werden in Cluster gruppiert, nur relevante Cluster durchsucht
  • Stärken: Geringer Speicherverbrauch, schneller Index-Aufbau
  • Schwächen: Etwas geringere Recall-Rate

Vektor-Datenbanken im Vergleich

DatenbankTypStärkenSchwächenBest für
PineconeManaged CloudZero-Ops, skaliert automatischVendor Lock-in, KostenTeams ohne DB-Expertise
WeaviateOpen SourceHybrid Search, GraphQL APIKomplexeres SetupHybrid-Search-Szenarien
ChromaOpen SourceEinfachster Einstieg, embeddedNicht für große ScalePrototypen, kleine Projekte
QdrantOpen SourceRust-Performance, FilteringKleineres ÖkosystemPerformance-kritische Apps
pgvectorPostgreSQL ExtensionNutzt bestehende Postgres-InfraWeniger spezialisiertTeams mit PostgreSQL-Stack

pgvector Beispiel

-- Extension aktivieren
CREATE EXTENSION vector;

-- Tabelle mit Vektor-Spalte
CREATE TABLE documents (
  id SERIAL PRIMARY KEY,
  content TEXT,
  embedding VECTOR(1536)
);

-- Index für schnelle Suche
CREATE INDEX ON documents USING hnsw (embedding vector_cosine_ops);

-- Ähnlichkeitssuche
SELECT content, 1 - (embedding <=> query_embedding) AS similarity
FROM documents
ORDER BY embedding <=> query_embedding
LIMIT 5;

Praxis-Tipp: Für Prototypen nutzen Sie Chroma (einfachster Start) oder pgvector (wenn Sie bereits PostgreSQL haben). Für Production mit >1M Dokumenten evaluieren Sie Pinecone (managed) oder Qdrant (self-hosted). Die Wahl der Datenbank ist weniger wichtig als die Qualität Ihrer Embeddings und Chunks.

📝

Quiz

Frage 1 von 3

Was ist der Hauptvorteil von HNSW gegenüber exakter Nearest-Neighbor-Suche?