Zum Inhalt springen
Zurück zum Blog

RAG für Unternehmen: Eigenes Wissen KI-durchsuchbar machen

Mit Retrieval Augmented Generation wird dein Firmenwissen zum LLM. So baust du ein System, das nicht halluziniert.

J
Jörg
22. Dezember 2025
1 min

Was ist RAG?

Retrieval Augmented Generation = LLM + Wissensdatenbank. Statt das Modell raten zu lassen, holt es die Antwort aus deinen Dokumenten.

Warum das ein Game-Changer ist

  • Keine Halluzinationen — der Agent darf nur antworten, was wirklich im Wissensbestand steht
  • Aktualität — du updatest die Wissensbasis, nicht das Modell
  • DSGVO — die Daten bleiben bei dir
  • Quellenangabe — der Agent zeigt, woher die Antwort kommt

Architektur

  1. Dokumente (PDFs, Webseiten, Confluence) werden in Chunks geteilt
  2. Embeddings werden mit OpenAI oder einem Open-Source-Modell erzeugt
  3. Vektor-DB (z.B. Supabase pgvector) speichert die Embeddings
  4. Bei einer Frage wird die semantisch ähnlichste Passage gesucht
  5. Diese Passage geht zusammen mit der Frage an Claude/GPT
  6. Das LLM generiert die finale Antwort basierend auf dem Kontext

Tech-Stack den ich nutze

  • Supabase + pgvector für die Vektor-DB
  • OpenAI text-embedding-3-small für Embeddings (oder bge-m3 für Self-Hosting)
  • Claude Sonnet für die Antwortgenerierung
  • Next.js Edge Function als API

Use Cases

  • Internes Wiki als Chat
  • Kundensupport mit Produkt-Wissen
  • Onboarding für neue Mitarbeiter
  • Vertragsdurchsuche
  • Compliance-Fragen

Aufwand

Ein produktives RAG-System für kleine Wissensbestände (bis 500 Dokumente) ist in 2-3 Wochen umsetzbar. Wenn du Interesse hast — sprich mich an.

Bereit für eine Website, die liefert?

Erstgespräch ist kostenlos und unverbindlich. Antwort innerhalb von 24 Stunden — meistens schneller.

1