Kurzantwort
Bereit zur Analyse. Stelle eine Frage und starte die Auswertung.
System GraphRAG Lab
Public ShowcaseSystem GraphRAG Sandbox
Verfolge in Echtzeit, wie aus einer isolierten Frage eine belegbare, systemische Entscheidung abgeleitet wird.
Warum „System Thinking“? Komplexe Organisationen operieren in vernetzten Abhängigkeiten. Fließtext allein reicht nicht aus, um Engpässe und Hebelwirkungen auditierbar aufzuzeigen. Diese Demo beweist, wie GraphRAG isolierte Dokumente zu einem logischen Entscheidungsnetz verstrickt.
Pipeline Starten
Sende eine Frage an die Infrastruktur.
Beobachte die dynamische Knoten-Auswahl und den LLM-Prompt in Echtzeit.
Herleiten
Der Pipeline-Weg macht sichtbar, wie aus Frage, Kontext und Belegen eine belastbare Antwort entsteht.
Belegen
Kernnachweis und Referenzen zeigen transparent, worauf sich die Argumentation der AI stützt.
Umsetzen
Strukturierte Folgeschritte übersetzen analytische Einsichten in direkt handlungsfähige Maßnahmen.
Lernpfad sichtbar
1. Frage
Systemproblem formulieren
2. Kontextauswahl
Kontext priorisieren
3. Graph
Knoten verknüpfen
4. Synthese
Antwort herleiten
5. Handlung
Nächste Schritte nutzen
Noch keine Analyse durchgeführt. Sende eine Frage, um Bewertung, Referenzen und Kontextbudget zu sehen.
Das System ermittelt zuerst passende Konzepte über Embedding-Match und Graph-Score, ergänzt zugehörige Belege und erweitert bei Bedarf über einen Hop auf direkte Nachbarn. Nur diese Auswahl wird als strukturierter Kontext an das LLM übergeben.
Noch keine Knoten ausgewählt. Nach dem ersten Lauf siehst du hier die tatsächliche Auswahl inklusive Score und Hop.
Nur LLM
Noch keine Anfrage gesendet. Sende eine Frage, um beide Varianten zu vergleichen.
GraphRAG
Noch keine Anfrage gesendet. Sende eine Frage, um beide Varianten zu vergleichen.
Nur LLM Prompt
[SYSTEM] Du bist ein hilfreicher Assistent. Gib eine verständliche Antwort in Alltagssprache. [USER] Frage: Wo verlieren wir im Alltag Zeit, weil Aufgaben zwischen Teams hin und her gehen? Antworte ausschließlich als JSON mit den Feldern main, coreRationale, nextSteps. main: 120-220 Wörter. coreRationale: kurze Begründung ohne Quellenverweise. nextSteps: 2-4 konkrete Schritte.
GraphRAG Prompt
[SYSTEM] Du bist ein System-Thinking-Assistent. Antworte klar in Alltagssprache, aber nur auf Basis des bereitgestellten Kontexts. [USER] Frage: Wo verlieren wir im Alltag Zeit, weil Aufgaben zwischen Teams hin und her gehen? Referenzen: Keine Referenzen verfügbar. Kontextzusammenfassungen: Keine Kontextzusammenfassungen verfügbar. Nutze **nur** die oben genannten Referenzen und Kontextinformationen und gib keine zusätzlichen externen Fakten an. Antworte ausschließlich mit validem JSON mit den Feldern "main", "coreRationale" und "nextSteps". "main": 120-220 Wörter, leicht verständlich, mit 3 Teilen: Lage, Erklärung der Zusammenhänge, konkrete Konsequenz im Alltag. "coreRationale": erkläre knapp die Nachvollziehbarkeit mit Verweisen [1], [2], [3] auf die obigen Referenzen. "nextSteps": Array mit 2-4 konkreten, umsetzbaren nächsten Schritten.
GraphRAG Kontext-Paket an das LLM
{
"query": "Wo verlieren wir im Alltag Zeit, weil Aufgaben zwischen Teams hin und her gehen?",
"references": [],
"contextSummaries": []
}Noch keine lokalen Verlaufsdaten vorhanden.
Aktuelle Frage: Wo verlieren wir im Alltag Zeit, weil Aufgaben zwischen Teams hin und her gehen?
Bereit zur Analyse. Stelle eine Frage und starte die Auswertung.
Kontextbudget: 0 Token (Schätzung der verwendeten Kontexte).
Hier wird der knappe P0-Kernnachweis angezeigt, sobald eine Antwort vorliegt.
Lernansicht: So entsteht aus Frage, Konzept und Beleg eine nachvollziehbare Antwort.
Drag zum Traversieren und Scroll zum Zoomen. Für Layoutwechsel den Graph Explorer öffnen.
Nach erfolgreicher Antwort zeigen wir hier maximal drei Referenzkonzepte mit konkreten Tools an.
Nach erfolgreicher Antwort erscheinen hier die wichtigsten Kontextsummaries plus Quelle.