-
Notifications
You must be signed in to change notification settings - Fork 1
features_vector_ops
Vector Algebra & Distance Metrics für Vektor-Operationen.
- 📋 Übersicht
- ✨ Features
- 🚀 Schnellstart
- 📖 Detaillierte Dokumentation
- 💡 Best Practices
- 🔧 Troubleshooting
- 📚 Siehe auch
- 📝 Changelog
Dieses Dokument beschreibt die Vektor-Indexierungs- und Suchoperationen in Themis.
Der VectorIndexManager unterstützt:
-
Batch-Einfügung (
POST /vector/batch_insert) für performante Massenimporte -
Gezielte Löschung (
DELETE /vector/by-filter) via PK-Liste oder Key-Präfix -
KNN-Suche (
POST /vector/search) mit optionaler Cursor-Pagination -
Persistenz (
POST /vector/index/save,POST /vector/index/load) für HNSW-Index -
Konfiguration (
GET/PUT /vector/index/config) zur Laufzeit (z. B.efSearch) -
Statistiken (
GET /vector/index/stats) für Index-Kennzahlen
Themis unterstützt drei Distanzmetriken für Vektorsuche:
-
L2 (Euklidische Distanz):
$d(a,b) = \sqrt{\sum_i (a_i - b_i)^2}$ - Verwendet für: Absolute Distanzen im Vektorraum
- "Lower is better" Semantik
-
COSINE (Kosinus-Ähnlichkeit):
$d(a,b) = 1 - \frac{a \cdot b}{||a|| \cdot ||b||}$ - Vektoren werden automatisch normalisiert (L2-Norm)
- Verwendet für: Richtungsähnlichkeit (z. B. Textembeddings)
- "Lower is better" Semantik (1 - Kosinus-Ähnlichkeit)
-
DOT (Skalarprodukt):
$d(a,b) = -a \cdot b$ - Keine Normalisierung (Rohwerte werden verwendet)
- Negiert für "lower is better" Semantik (HNSW verwendet Distanzen)
- Verwendet für: Maximum Inner Product Search (MIPS), Pre-normalisierte Embeddings
- Hinweis: Bei DOT wird kein Normalisierungsschritt angewendet. Wenn normalisierte Suche gewünscht ist, verwenden Sie COSINE.
Metrik-Auswahl: Konfiguriert in /vector/index/config via metric-Feld:
{
"metric": "DOT", // oder "L2", "COSINE"
"dimension": 768,
"efSearch": 64
}POST /vector/batch_insert
{
"vector_field": "embedding", // Standard: "embedding"
"items": [
{
"pk": "doc1",
"vector": [0.1, 0.2, 0.3],
"fields": {
"title": "Beispiel",
"category": "test"
}
},
{
"pk": "doc2",
"vector": [0.4, 0.5, 0.6],
"fields": {
"title": "Another",
"category": "demo"
}
}
]
}{
"inserted": 2,
"errors": 0,
"objectName": "vectors",
"dimension": 3
}- Batch-Größe: 100–1000 Einträge pro Request für optimales Latenz/Durchsatz-Verhältnis
-
Auto-Init: Wenn
dimension= 0, wird der Index automatisch mit der Dimension des ersten Vektors initialisiert -
Fehlerbehandlung: Einzelne fehlerhafte Items werden übersprungen;
errors-Feld zählt Ausnahmen - Transaktionssicherheit: Jedes Item wird atomar geschrieben (RocksDB WriteBatch)
DELETE /vector/by-filter
{
"pks": ["doc1", "doc2", "doc3"]
}{
"prefix": "temp-"
}{
"deleted": 3,
"method": "pks" // oder "prefix"
}-
Cleanup: Löschen temporärer oder veralteter Vektoren via Präfix (z. B.
tmp-,staging-) - Bulk-Removal: Liste spezifischer Dokument-IDs nach Qualitätskontrolle
- Namensraum-Bereinigung: Entfernen aller Einträge eines bestimmten Namensraums
POST /vector/search
{
"vector": [0.1, 0.2, 0.3],
"k": 10
}{
"results": [
{"pk": "doc1", "distance": 0.05},
{"pk": "doc2", "distance": 0.12}
],
"k": 10,
"count": 2
}{
"vector": [0.1, 0.2, 0.3],
"k": 10,
"use_cursor": true,
"cursor": "20" // optional; Offset der vorherigen Seite
}{
"items": [
{"pk": "doc21", "distance": 0.08},
{"pk": "doc22", "distance": 0.09}
],
"batch_size": 2,
"has_more": true,
"next_cursor": "30"
}- Page-Size: k = 10–100 für typische UI-Pagination; k = 100–1000 für Batch-Verarbeitung
-
HNSW efSearch: Setze
efSearch≥ k für gute Recall; 64–128 ist ein guter Start - Distanz-Metrik: COSINE (Standard) für normalisierte Embeddings, L2 für räumliche Daten
-
Cursor-Verwendung: Für große Result-Sets (> k) aktiviere
use_cursorum Memory-Druck zu reduzieren
POST /vector/index/save
{ "directory": "./data/vector_index" }
Speichert:
-
meta.txt: objectName, dimension, metric, efSearch, M, efConstruction -
labels.txt: PK-Mapping (id → PK) -
index.bin: HNSW-Struktur (wenn HNSW aktiviert)
POST /vector/index/load
{ "directory": "./data/vector_index" }
Lädt den Index aus persistierten Dateien; überschreibt aktuelle In-Memory-Struktur.
Setze auto_save=true und savePath via VectorIndexManager::setAutoSavePath() für automatisches Speichern beim Server-Shutdown.
{
"objectName": "vectors",
"dimension": 768,
"metric": "COSINE", // oder "L2", "DOT"
"efSearch": 64,
"M": 16,
"efConstruction": 200,
"hnswEnabled": true
}{
"efSearch": 128
}Hinweis: M und efConstruction erfordern Index-Rebuild und können zur Laufzeit nicht geändert werden.
{
"objectName": "vectors",
"dimension": 768,
"metric": "COSINE", // oder "L2", "DOT"
"vectorCount": 123456,
"efSearch": 64,
"M": 16,
"efConstruction": 200,
"hnswEnabled": true
}| Operation | Ziel | Bemerkungen |
|---|---|---|
| Batch Insert | < 500 ms / 1000 Items | Mit HNSW M=16, efConstruction=200 |
| KNN Search (k=10) | < 10 ms | efSearch=64, ~100k Vektoren |
| Delete by PKs (100) | < 50 ms | Markiert als gelöscht in HNSW |
| Delete by Prefix | < 200 ms / 1000 Items | Scan + Batch-Delete |
| Index Save | < 2 s / 100k Vectors | Abhängig von IO-Geschwindigkeit |
| Index Load | < 1 s / 100k Vectors | Memory-Mapping wenn möglich |
Die folgenden Metriken sind unter GET /metrics verfügbar:
-
vccdb_vector_index_size_bytes: Geschätzte Größe des In-Memory-Index -
vccdb_vector_search_duration_ms: Histogram der Suchlatenz in Millisekunden -
vccdb_vector_batch_insert_duration_ms: Histogram der Batch-Insert-Latenz -
vccdb_vector_batch_insert_total: Counter der gesamten Batch-Insert-Operationen -
vccdb_vector_batch_insert_items_total: Counter aller eingefügten Items -
vccdb_vector_delete_by_filter_total: Counter der Delete-by-Filter-Operationen -
vccdb_vector_delete_by_filter_items_total: Counter aller gelöschten Items
A:
- Batch-Insert in Blöcken von 500–1000 Items
- Setze
M=32undefConstruction=400für bessere Qualität (höhere Build-Zeit) - Nutze
efSearch=128–200zur Suche für höhere Recall - Aktiviere Auto-Save + regelmäßige Checkpoints
- Erwäge Sharding (mehrere Indizes) für Skalierung über 10 Mio. Vektoren
A:
- Reduziere
efSearchauf 32–64 (Kompromiss: niedrigere Recall) - Setze
kso niedrig wie möglich (z. B. k=10 statt k=100) - Nutze Cursor-Pagination für große Result-Sets
- Cache häufige Queries (siehe
docs/cdc.mdfür Semantic Cache)
A: Im aktuellen MVP unterstützt VectorIndexManager einen Index pro Instanz. Für mehrere Namensräume:
- Option 1: Separater
VectorIndexManagerpro Namespace (mehrere Server-Instanzen) - Option 2: Präfix-Trennung im objectName (z. B.
docs_en,docs_de)
A: Wenn ein Vektor mit falscher Dimension eingefügt wird:
- Batch-Insert: Item wird übersprungen,
errors-Counter erhöht - Single-Insert: Fehler wird sofort zurückgegeben
- Search: Anfrage wird abgelehnt mit HTTP 400
A:
- HNSW:
markDelete()markiert Vektoren als gelöscht; physisches Entfernen erfordert Rebuild - Cache: Sofortige Entfernung aus PK-Mapping und Cache
- RocksDB: Löschung via WriteBatch (kompaktiert in nächster Compaction)
import csv
import requests
import numpy as np
url = "http://localhost:8765/vector/batch_insert"
batch_size = 500
with open("embeddings.csv") as f:
reader = csv.DictReader(f)
batch = []
for row in reader:
vec = np.fromstring(row["embedding"], sep=",").tolist()
batch.append({
"pk": row["id"],
"vector": vec,
"fields": {"title": row["title"]}
})
if len(batch) >= batch_size:
resp = requests.post(url, json={"items": batch})
print(f"Inserted {resp.json()['inserted']}, errors: {resp.json()['errors']}")
batch = []
if batch:
resp = requests.post(url, json={"items": batch})
print(f"Final batch: {resp.json()['inserted']} inserted")# Alle temporären Vektoren löschen
curl -X DELETE http://localhost:8765/vector/by-filter \
-H "Content-Type: application/json" \
-d '{"prefix": "temp-"}'
# Ausgabe: {"deleted": 42, "method": "prefix"}import requests
url = "http://localhost:8765/vector/search"
query_vec = [0.1, 0.2, 0.3] # Beispiel-Embedding
cursor = None
all_results = []
while True:
payload = {"vector": query_vec, "k": 20, "use_cursor": True}
if cursor:
payload["cursor"] = cursor
resp = requests.post(url, json=payload).json()
all_results.extend(resp["items"])
if not resp["has_more"]:
break
cursor = resp["next_cursor"]
print(f"Total results: {len(all_results)}")- AQL Syntax – Hybrid-Queries mit Vektorsuche
- Indexes – Sekundär- und Range-Indizes
- Deployment – Production-Setup und Tuning
- Tracing – Performance-Debugging mit OpenTelemetry
ThemisDB v1.3.4 | GitHub | Documentation | Discussions | License
Last synced: January 02, 2026 | Commit: 6add659
Version: 1.3.0 | Stand: Dezember 2025
- Übersicht
- Home
- Dokumentations-Index
- Quick Reference
- Sachstandsbericht 2025
- Features
- Roadmap
- Ecosystem Overview
- Strategische Übersicht
- Geo/Relational Storage
- RocksDB Storage
- MVCC Design
- Transaktionen
- Time-Series
- Memory Tuning
- Chain of Thought Storage
- Query Engine & AQL
- AQL Syntax
- Explain & Profile
- Rekursive Pfadabfragen
- Temporale Graphen
- Zeitbereichs-Abfragen
- Semantischer Cache
- Hybrid Queries (Phase 1.5)
- AQL Hybrid Queries
- Hybrid Queries README
- Hybrid Query Benchmarks
- Subquery Quick Reference
- Subquery Implementation
- Content Pipeline
- Architektur-Details
- Ingestion
- JSON Ingestion Spec
- Enterprise Ingestion Interface
- Geo-Processor Design
- Image-Processor Design
- Hybrid Search Design
- Fulltext API
- Hybrid Fusion API
- Stemming
- Performance Tuning
- Migration Guide
- Future Work
- Pagination Benchmarks
- Enterprise README
- Scalability Features
- HTTP Client Pool
- Build Guide
- Implementation Status
- Final Report
- Integration Analysis
- Enterprise Strategy
- Verschlüsselungsstrategie
- Verschlüsselungsdeployment
- Spaltenverschlüsselung
- Encryption Next Steps
- Multi-Party Encryption
- Key Rotation Strategy
- Security Encryption Gap Analysis
- Audit Logging
- Audit & Retention
- Compliance Audit
- Compliance
- Extended Compliance Features
- Governance-Strategie
- Compliance-Integration
- Governance Usage
- Security/Compliance Review
- Threat Model
- Security Hardening Guide
- Security Audit Checklist
- Security Audit Report
- Security Implementation
- Development README
- Code Quality Pipeline
- Developers Guide
- Cost Models
- Todo Liste
- Tool Todo
- Core Feature Todo
- Priorities
- Implementation Status
- Roadmap
- Future Work
- Next Steps Analysis
- AQL LET Implementation
- Development Audit
- Sprint Summary (2025-11-17)
- WAL Archiving
- Search Gap Analysis
- Source Documentation Plan
- Changefeed README
- Changefeed CMake Patch
- Changefeed OpenAPI
- Changefeed OpenAPI Auth
- Changefeed SSE Examples
- Changefeed Test Harness
- Changefeed Tests
- Dokumentations-Inventar
- Documentation Summary
- Documentation TODO
- Documentation Gap Analysis
- Documentation Consolidation
- Documentation Final Status
- Documentation Phase 3
- Documentation Cleanup Validation
- API
- Authentication
- Cache
- CDC
- Content
- Geo
- Governance
- Index
- LLM
- Query
- Security
- Server
- Storage
- Time Series
- Transaction
- Utils
Vollständige Dokumentation: https://makr-code.github.io/ThemisDB/