System GraphRAG Lab

System GraphRAG Sandbox

Entscheidungsarchitektur live testen.

Verfolge in Echtzeit, wie aus einer isolierten Frage eine belegbare, systemische Entscheidung abgeleitet wird.

Der Systemic-Use-Case

Warum „System Thinking“? Komplexe Organisationen operieren in vernetzten Abhängigkeiten. Fließtext allein reicht nicht aus, um Engpässe und Hebelwirkungen auditierbar aufzuzeigen. Diese Demo beweist, wie GraphRAG isolierte Dokumente zu einem logischen Entscheidungsnetz verstrickt.

Was evaluiert wird

  • Transparente Kontextbindung statt RAG-Blackbox
  • Lückenloser Belegpfad für jede abgeleitete Behauptung
  • Messbare Stabilität bei iterativen Folgefragen

Pipeline Starten

Sende eine Frage an die Infrastruktur.

Beobachte die dynamische Knoten-Auswahl und den LLM-Prompt in Echtzeit.

  • Herleiten

    Der Pipeline-Weg macht sichtbar, wie aus Frage, Kontext und Belegen eine belastbare Antwort entsteht.

  • Belegen

    Kernnachweis und Referenzen zeigen transparent, worauf sich die Argumentation der AI stützt.

  • Umsetzen

    Strukturierte Folgeschritte übersetzen analytische Einsichten in direkt handlungsfähige Maßnahmen.

Antwortführung

Guided Mode

Lernpfad sichtbar

  1. 1. Frage

    Systemproblem formulieren

  2. 2. Kontextauswahl

    Kontext priorisieren

  3. 3. Graph

    Knoten verknüpfen

  4. 4. Synthese

    Antwort herleiten

  5. 5. Handlung

    Nächste Schritte nutzen

Quality Gate

Noch keine Analyse durchgeführt. Sende eine Frage, um Bewertung, Referenzen und Kontextbudget zu sehen.

Node-Auswahl fürs LLM

Transparenz der Kontextauswahl

Das System ermittelt zuerst passende Konzepte über Embedding-Match und Graph-Score, ergänzt zugehörige Belege und erweitert bei Bedarf über einen Hop auf direkte Nachbarn. Nur diese Auswahl wird als strukturierter Kontext an das LLM übergeben.

Noch keine Knoten ausgewählt. Nach dem ersten Lauf siehst du hier die tatsächliche Auswahl inklusive Score und Hop.

RAG vs GraphRAG

3 Kernunterschiede
  • Kontextform: Klassisches RAG liefert primär Textabschnitte; GraphRAG liefert zusätzlich Beziehungen zwischen Knoten.
  • Nachvollziehbarkeit: Bei GraphRAG ist die Herleitung über Knoten und Kanten sichtbar, nicht nur über Textausschnitte.
  • Mehrhop-Logik: GraphRAG kann Nachbarn gezielt über Hops einbeziehen und dadurch Ursachenketten strukturierter abbilden.

LLM-only vs GraphRAG

Warum der Graph hilft

Nur LLM

Noch keine Anfrage gesendet. Sende eine Frage, um beide Varianten zu vergleichen.

GraphRAG

Noch keine Anfrage gesendet. Sende eine Frage, um beide Varianten zu vergleichen.

Prompt-Inspector (Read only)

Nur LLM Prompt

[SYSTEM]
Du bist ein hilfreicher Assistent. Gib eine verständliche Antwort in Alltagssprache.

[USER]
Frage: Wo verlieren wir im Alltag Zeit, weil Aufgaben zwischen Teams hin und her gehen?

Antworte ausschließlich als JSON mit den Feldern main, coreRationale, nextSteps.

main: 120-220 Wörter.

coreRationale: kurze Begründung ohne Quellenverweise.

nextSteps: 2-4 konkrete Schritte.

GraphRAG Prompt

[SYSTEM]
Du bist ein System-Thinking-Assistent. Antworte klar in Alltagssprache, aber nur auf Basis des bereitgestellten Kontexts.

[USER]
Frage: Wo verlieren wir im Alltag Zeit, weil Aufgaben zwischen Teams hin und her gehen?

Referenzen:
Keine Referenzen verfügbar.

Kontextzusammenfassungen:
Keine Kontextzusammenfassungen verfügbar.

Nutze **nur** die oben genannten Referenzen und Kontextinformationen und gib keine zusätzlichen externen Fakten an.

Antworte ausschließlich mit validem JSON mit den Feldern "main", "coreRationale" und "nextSteps".

"main": 120-220 Wörter, leicht verständlich, mit 3 Teilen: Lage, Erklärung der Zusammenhänge, konkrete Konsequenz im Alltag.

"coreRationale": erkläre knapp die Nachvollziehbarkeit mit Verweisen [1], [2], [3] auf die obigen Referenzen.

"nextSteps": Array mit 2-4 konkreten, umsetzbaren nächsten Schritten.

GraphRAG Kontext-Paket an das LLM

{
  "query": "Wo verlieren wir im Alltag Zeit, weil Aufgaben zwischen Teams hin und her gehen?",
  "references": [],
  "contextSummaries": []
}

Session Memory

lokal gespeichert

Noch keine lokalen Verlaufsdaten vorhanden.

Antwort

Aktuelle Frage: Wo verlieren wir im Alltag Zeit, weil Aufgaben zwischen Teams hin und her gehen?

Bereit

Kurzantwort

Bereit zur Analyse. Stelle eine Frage und starte die Auswertung.

Kontextbudget: 0 Token (Schätzung der verwendeten Kontexte).

Was bringt mir das jetzt?

nächste Schritte
  1. 1Noch keine Handlungsschritte verfügbar. Sende eine Frage, um konkrete Schritte zu erhalten.

Warum diese Antwort stimmt

Begründung mit Faktenbasis

Hier wird der knappe P0-Kernnachweis angezeigt, sobald eine Antwort vorliegt.

Kontext und Tools

Graph-Ansicht

Lernansicht

Lernansicht: So entsteht aus Frage, Konzept und Beleg eine nachvollziehbare Antwort.

Legende
Frage

Drag zum Traversieren und Scroll zum Zoomen. Für Layoutwechsel den Graph Explorer öffnen.

Referenzkonzepte

Warten auf Antwort

Nach erfolgreicher Antwort zeigen wir hier maximal drei Referenzkonzepte mit konkreten Tools an.

Herleitungsdetails

kontextuelle Tiefe

Nach erfolgreicher Antwort erscheinen hier die wichtigsten Kontextsummaries plus Quelle.