Vector Search, Embeddings & RAG: Die technische Basis der KI-Suche
Was ist Vector Search?
Vektorsuche ist eine Suchmethode, bei der Inhalte als mathematische Vektoren (Embeddings) in einem hochdimensionalen Raum dargestellt werden. Statt nach exakten Schlüsselwörtern zu suchen, findet Vektorsuche semantisch ähnliche Inhalte — auch wenn keine gemeinsamen Wörter vorkommen.
Wie funktionieren Embeddings?
- Text wird durch ein KI-Modell in einen numerischen Vektor umgewandelt (z.B. 1536 Dimensionen)
- Semantisch ähnliche Texte liegen im Vektorraum nahe beieinander
- Suchanfragen werden ebenfalls als Vektor kodiert und mit den gespeicherten Vektoren verglichen
- Cosine Similarity oder Euclidean Distance messen die Ähnlichkeit
Was ist RAG (Retrieval-Augmented Generation)?
RAG ist eine Architektur, bei der KI-Modelle vor der Antwortgenerierung relevante Dokumente aus einer Wissensdatenbank abrufen:
- Nutzer stellt eine Frage
- Das System durchsucht eine Vektordatenbank nach relevanten Dokumenten
- Die gefundenen Dokumente werden als Kontext an das KI-Modell übergeben
- Das Modell generiert eine Antwort basierend auf diesen Quellen
Warum ist das für Marken relevant?
- Perplexity und ähnliche Systeme nutzen RAG für quellenbasierte Antworten
- Unternehmens-Chatbots setzen RAG für präzise Kundeninformationen ein
- Die Qualität Ihrer Inhalte bestimmt, ob sie im RAG-Prozess als Quelle ausgewählt werden
- Gut strukturierte, semantisch reiche Inhalte werden besser als Embeddings repräsentiert
Im CAFE-Framework:
Wir nutzen pgvector-Embeddings in unserer eigenen Wissensdatenbank und verstehen die technische Grundlage, auf der KI-Systeme Quellen auswählen — damit wir Ihre Inhalte gezielt für die Vektorsuche optimieren können.