| category | version | status | date |
|---|---|---|---|
🔍 Search & Vector |
v1.3.0 |
✅ |
22.12.2025 |
Vector Algebra & Distance Metrics für Vektor-Operationen.
- 📋 Übersicht
- ✨ Features
- 🚀 Schnellstart
- 📖 Detaillierte Dokumentation
- 💡 Best Practices
- 🔧 Troubleshooting
- 📚 Siehe auch
- 📝 Changelog
Dieses Dokument beschreibt die Vektor-Indexierungs- und Suchoperationen in Themis.
Der VectorIndexManager unterstützt:
- Batch-Einfügung (
POST /vector/batch_insert) für performante Massenimporte - Gezielte Löschung (
DELETE /vector/by-filter) via PK-Liste oder Key-Präfix - KNN-Suche (
POST /vector/search) mit optionaler Cursor-Pagination - Persistenz (
POST /vector/index/save,POST /vector/index/load) für HNSW-Index - Konfiguration (
GET/PUT /vector/index/config) zur Laufzeit (z. B.efSearch) - Statistiken (
GET /vector/index/stats) für Index-Kennzahlen
Themis unterstützt drei Distanzmetriken für Vektorsuche:
-
L2 (Euklidische Distanz):
$d(a,b) = \sqrt{\sum_i (a_i - b_i)^2}$ - Verwendet für: Absolute Distanzen im Vektorraum
- "Lower is better" Semantik
-
COSINE (Kosinus-Ähnlichkeit):
$d(a,b) = 1 - \frac{a \cdot b}{||a|| \cdot ||b||}$ - Vektoren werden automatisch normalisiert (L2-Norm)
- Verwendet für: Richtungsähnlichkeit (z. B. Textembeddings)
- "Lower is better" Semantik (1 - Kosinus-Ähnlichkeit)
-
DOT (Skalarprodukt):
$d(a,b) = -a \cdot b$ - Keine Normalisierung (Rohwerte werden verwendet)
- Negiert für "lower is better" Semantik (HNSW verwendet Distanzen)
- Verwendet für: Maximum Inner Product Search (MIPS), Pre-normalisierte Embeddings
- Hinweis: Bei DOT wird kein Normalisierungsschritt angewendet. Wenn normalisierte Suche gewünscht ist, verwenden Sie COSINE.
Metrik-Auswahl: Konfiguriert in /vector/index/config via metric-Feld:
{
"metric": "DOT", // oder "L2", "COSINE"
"dimension": 768,
"efSearch": 64
}POST /vector/batch_insert
{
"vector_field": "embedding", // Standard: "embedding"
"items": [
{
"pk": "doc1",
"vector": [0.1, 0.2, 0.3],
"fields": {
"title": "Beispiel",
"category": "test"
}
},
{
"pk": "doc2",
"vector": [0.4, 0.5, 0.6],
"fields": {
"title": "Another",
"category": "demo"
}
}
]
}{
"inserted": 2,
"errors": 0,
"objectName": "vectors",
"dimension": 3
}- Batch-Größe: 100–1000 Einträge pro Request für optimales Latenz/Durchsatz-Verhältnis
- Auto-Init: Wenn
dimension= 0, wird der Index automatisch mit der Dimension des ersten Vektors initialisiert - Fehlerbehandlung: Einzelne fehlerhafte Items werden übersprungen;
errors-Feld zählt Ausnahmen - Transaktionssicherheit: Jedes Item wird atomar geschrieben (RocksDB WriteBatch)
DELETE /vector/by-filter
{
"pks": ["doc1", "doc2", "doc3"]
}{
"prefix": "temp-"
}{
"deleted": 3,
"method": "pks" // oder "prefix"
}- Cleanup: Löschen temporärer oder veralteter Vektoren via Präfix (z. B.
tmp-,staging-) - Bulk-Removal: Liste spezifischer Dokument-IDs nach Qualitätskontrolle
- Namensraum-Bereinigung: Entfernen aller Einträge eines bestimmten Namensraums
POST /vector/search
{
"vector": [0.1, 0.2, 0.3],
"k": 10
}{
"results": [
{"pk": "doc1", "distance": 0.05},
{"pk": "doc2", "distance": 0.12}
],
"k": 10,
"count": 2
}{
"vector": [0.1, 0.2, 0.3],
"k": 10,
"use_cursor": true,
"cursor": "20" // optional; Offset der vorherigen Seite
}{
"items": [
{"pk": "doc21", "distance": 0.08},
{"pk": "doc22", "distance": 0.09}
],
"batch_size": 2,
"has_more": true,
"next_cursor": "30"
}- Page-Size: k = 10–100 für typische UI-Pagination; k = 100–1000 für Batch-Verarbeitung
- HNSW efSearch: Setze
efSearch≥ k für gute Recall; 64–128 ist ein guter Start - Distanz-Metrik: COSINE (Standard) für normalisierte Embeddings, L2 für räumliche Daten
- Cursor-Verwendung: Für große Result-Sets (> k) aktiviere
use_cursorum Memory-Druck zu reduzieren
POST /vector/index/save
{ "directory": "./data/vector_index" }
Speichert:
meta.txt: objectName, dimension, metric, efSearch, M, efConstructionlabels.txt: PK-Mapping (id → PK)index.bin: HNSW-Struktur (wenn HNSW aktiviert)
POST /vector/index/load
{ "directory": "./data/vector_index" }
Lädt den Index aus persistierten Dateien; überschreibt aktuelle In-Memory-Struktur.
Setze auto_save=true und savePath via VectorIndexManager::setAutoSavePath() für automatisches Speichern beim Server-Shutdown.
{
"objectName": "vectors",
"dimension": 768,
"metric": "COSINE", // oder "L2", "DOT"
"efSearch": 64,
"M": 16,
"efConstruction": 200,
"hnswEnabled": true
}{
"efSearch": 128
}Hinweis: M und efConstruction erfordern Index-Rebuild und können zur Laufzeit nicht geändert werden.
{
"objectName": "vectors",
"dimension": 768,
"metric": "COSINE", // oder "L2", "DOT"
"vectorCount": 123456,
"efSearch": 64,
"M": 16,
"efConstruction": 200,
"hnswEnabled": true
}| Operation | Ziel | Bemerkungen |
|---|---|---|
| Batch Insert | < 500 ms / 1000 Items | Mit HNSW M=16, efConstruction=200 |
| KNN Search (k=10) | < 10 ms | efSearch=64, ~100k Vektoren |
| Delete by PKs (100) | < 50 ms | Markiert als gelöscht in HNSW |
| Delete by Prefix | < 200 ms / 1000 Items | Scan + Batch-Delete |
| Index Save | < 2 s / 100k Vectors | Abhängig von IO-Geschwindigkeit |
| Index Load | < 1 s / 100k Vectors | Memory-Mapping wenn möglich |
Die folgenden Metriken sind unter GET /metrics verfügbar:
vccdb_vector_index_size_bytes: Geschätzte Größe des In-Memory-Indexvccdb_vector_search_duration_ms: Histogram der Suchlatenz in Millisekundenvccdb_vector_batch_insert_duration_ms: Histogram der Batch-Insert-Latenzvccdb_vector_batch_insert_total: Counter der gesamten Batch-Insert-Operationenvccdb_vector_batch_insert_items_total: Counter aller eingefügten Itemsvccdb_vector_delete_by_filter_total: Counter der Delete-by-Filter-Operationenvccdb_vector_delete_by_filter_items_total: Counter aller gelöschten Items
A:
- Batch-Insert in Blöcken von 500–1000 Items
- Setze
M=32undefConstruction=400für bessere Qualität (höhere Build-Zeit) - Nutze
efSearch=128–200zur Suche für höhere Recall - Aktiviere Auto-Save + regelmäßige Checkpoints
- Erwäge Sharding (mehrere Indizes) für Skalierung über 10 Mio. Vektoren
A:
- Reduziere
efSearchauf 32–64 (Kompromiss: niedrigere Recall) - Setze
kso niedrig wie möglich (z. B. k=10 statt k=100) - Nutze Cursor-Pagination für große Result-Sets
- Cache häufige Queries (siehe
docs/cdc.mdfür Semantic Cache)
A: Im aktuellen MVP unterstützt VectorIndexManager einen Index pro Instanz. Für mehrere Namensräume:
- Option 1: Separater
VectorIndexManagerpro Namespace (mehrere Server-Instanzen) - Option 2: Präfix-Trennung im objectName (z. B.
docs_en,docs_de)
A: Wenn ein Vektor mit falscher Dimension eingefügt wird:
- Batch-Insert: Item wird übersprungen,
errors-Counter erhöht - Single-Insert: Fehler wird sofort zurückgegeben
- Search: Anfrage wird abgelehnt mit HTTP 400
A:
- HNSW:
markDelete()markiert Vektoren als gelöscht; physisches Entfernen erfordert Rebuild - Cache: Sofortige Entfernung aus PK-Mapping und Cache
- RocksDB: Löschung via WriteBatch (kompaktiert in nächster Compaction)
import csv
import requests
import numpy as np
url = "http://localhost:8765/vector/batch_insert"
batch_size = 500
with open("embeddings.csv") as f:
reader = csv.DictReader(f)
batch = []
for row in reader:
vec = np.fromstring(row["embedding"], sep=",").tolist()
batch.append({
"pk": row["id"],
"vector": vec,
"fields": {"title": row["title"]}
})
if len(batch) >= batch_size:
resp = requests.post(url, json={"items": batch})
print(f"Inserted {resp.json()['inserted']}, errors: {resp.json()['errors']}")
batch = []
if batch:
resp = requests.post(url, json={"items": batch})
print(f"Final batch: {resp.json()['inserted']} inserted")# Alle temporären Vektoren löschen
curl -X DELETE http://localhost:8765/vector/by-filter \
-H "Content-Type: application/json" \
-d '{"prefix": "temp-"}'
# Ausgabe: {"deleted": 42, "method": "prefix"}import requests
url = "http://localhost:8765/vector/search"
query_vec = [0.1, 0.2, 0.3] # Beispiel-Embedding
cursor = None
all_results = []
while True:
payload = {"vector": query_vec, "k": 20, "use_cursor": True}
if cursor:
payload["cursor"] = cursor
resp = requests.post(url, json=payload).json()
all_results.extend(resp["items"])
if not resp["has_more"]:
break
cursor = resp["next_cursor"]
print(f"Total results: {len(all_results)}")- AQL Syntax – Hybrid-Queries mit Vektorsuche
- Indexes – Sekundär- und Range-Indizes
- Deployment – Production-Setup und Tuning
- Tracing – Performance-Debugging mit OpenTelemetry