Alles stimmt – und trotzdem ist es falsch. Über Beobachtung zweiter Ordnung, Unstimmigkeits-Detektion und die Frage, was das Bauchgefühl über Systemdenken sagt.
7. Mai 2026 / Michael Geiss
Es gibt einen Moment, den jeder kennt, der Entscheidungen trifft – beruflich, unternehmerisch, existenziell. Du hast alles geprüft. Jedes einzelne Element ist schlüssig. Die Zahlen stimmen, die Logik trägt, die Argumente sind sauber. Und trotzdem: Irgendetwas ist nicht richtig.
Gemeint ist damit ist “falsch” im Sinne eines identifizierbaren Fehlers oder eines fehlenden Datenpunkts. Sondern falsch im Sinne einer Unstimmigkeit, man spürt, aber nicht benennen kann. Wie ein Akkord, in dem jeder einzelne Ton korrekt gegriffen ist – und trotzdem der Zusammenklang nicht stimmt.
Dieses Bauchgefühl ist kein irrationales Rauschen. Es ist ein Signal. Und es zu verstehen, erfordert eine andere Art des Sehens. In Systemkategorien gesprochen geht es um Kohärenzprüfung durch Beobachtung zweiter Ordnung und die Frage, wie ein Bauchgefühl systematisch durch AI-Augmentierung abgebildet werden kann.
Was der Beobachter nicht sehen kann
Die Systemtheorie kennt eine Unterscheidung, die für das Verständnis dieses Phänomens zentral ist: die Unterscheidung zwischen Beobachtung erster und zweiter Ordnung. Beobachtung erster Ordnung ist das, was wir normalerweise tun: Wir schauen auf die Welt, analysieren Daten, bewerten Optionen, treffen Entscheidungen. Wir beobachten das System – den Markt, das Unternehmen, die Situation. Beobachtung zweiter Ordnung fragt etwas anderes: Nicht was sehen wir, sondern wie sehen wir? Und vor allem: Was können wir nicht sehen, weil wir so sehen, wie wir sehen?
Heinz von Foerster, einer der Begründer der “Kybernetik zweiter Ordnung”, hat das auf eine Formel gebracht, die so einfach wie beunruhigend ist: „Wir sehen nicht, dass wir nicht sehen.” Das ist keine philosophische Spielerei, sondern eine strukturelle Eigenschaft jeder Beobachtung. Wer ein bestimmtes Framework benutzt – sei es Porter, sei es Meadows, sei es ein Business Model Canvas – sieht, was dieses Framework sichtbar macht. Zugleich blendet er aus, was es nicht zeigt. Das ist Notwendigkeit bei Vereinfachung: Jedes Werkzeug der Beobachtung ist zugleich ein Werkzeug der Ausblendung.
Für den Unternehmer heißt das: Die Brille, durch die er sein Geschäft sieht – geprägt durch Erfahrung, Branche, Erfolge, Misserfolge – ist gleichzeitig seine größte Stärke und sein größter blinder Fleck. Er sieht scharf, was er gelernt hat zu sehen. Und er übersieht systematisch, was außerhalb seines Sichtfelds liegt. Das gilt dann auch für den Berater. Wenn der Unternehmer einen Berater hinzuzieht, kauft er – systemtheoretisch betrachtet – eine zweite Beobachterposition. Jemanden, der das System aus einem anderen Winkel sieht, der sieht, was der Unternehmer nicht sieht, weil er nicht in dessen operativer Logik steckt. Das ist der theoretische Anspruch. Die Praxis sieht oft anders aus. Der typische Berater bringt ein Framework mit. Er analysiert das Unternehmen durch dieses Framework, identifiziert Lücken, formuliert Empfehlungen. Was er selten tut: sein eigenes Framework in Frage stellen. Prüfen, was sein Werkzeug ausblendet. Fragen, ob seine Empfehlung das richtige Problem auf der richtigen Ebene adressiert – oder ob sie ein Learning-I-Pflaster auf ein Learning-II-Problem klebt, um Gregory Batesons Unterscheidung zu verwenden: Optimierung innerhalb eines Rahmens, der selbst das Problem ist. Der Berater, der seinen eigenen blinden Fleck nicht kennt, ist eine Gefahr.
Noch seltener tut der Berater etwas anderes: sich fragen, ob seine Empfehlung falsifizierbar ist. Karl Popper – Sir Karl – hat ein Prinzip formuliert, das für die Strategiepraxis eine Sprengkraft hat, die selten erkannt wird: Eine Aussage, die nicht scheitern kann, ist keine Erkenntnis. Sie ist ein Glaubenssatz. Übertragen: Eine Strategieempfehlung, die keine definierten Bedingungen ihres Scheiterns benennt, ist keine Strategie. Sie ist eine Überzeugung, verkleidet als Analyse. „Die Transformation braucht Zeit und Geduld" – das ist unfalsifizierbar. Wenn es nicht klappt, war es „zu früh", „zu wenig Commitment", „der Markt". Nie die Empfehlung. Der redliche Berater – oder, wie ich es nenne, der Consigliere – stellt sich dieser Frage. Er baut sich ein Kontrollsystem, das seine eigene Beobachtung gegen sich selbst prüft. Weil er verstanden hat, dass Vertrauen in die eigene Wahrnehmung genau der blinde Fleck ist, den von Foerster beschreibt.
Ein Beobachtungssystem, das den Beobachter beobachtet
Was wäre ein solches Kontrollsystem? Wäre es ein weiteres Framework, das die bestehenden Frameworks überprüft – stünde das auf der Stufe einer weiteren Beobachtung erster Ordnung – eine Ebene höher gelegt. Daher muss das Beobachtungssystem ein System sein, das systematisch verschiedene Beobachterpositionen einnimmt und prüft, was aus jeder Position sichtbar und unsichtbar wird.
Donella Meadows hat mit ihren zwölf Interventionsebenen ein Instrument geschaffen, das genau dies ermöglicht: die Frage: Auf welcher Systemebene operiert eine Empfehlung tatsächlich? Also nicht: nach welcher Systemabene klingt sie. Der häufigste Fehler, den ich in meiner Arbeit sehe: Empfehlungen, die nach Paradigmenwechsel klingen, aber bei genauer Betrachtung Parameteranpassungen sind: Das Narrativ: „Wir richten unsere Strategie neu aus" meint lediglich eine neue Zielmatrix. Die Aussage: „Wir transformieren digital" meint nur eine neue Software. Das verwechselt Rhetorik mit Interventionstiefe.
W. Ross Ashby ergänzt eine zweite Prüfung: Ist die Antwort komplex genug für das Problem? Sein Law of Requisite Variety besagt, dass nur Varietät Varietät absorbieren kann. Wenn das Problem zehn Dimensionen hat, die Lösung aber nur drei adressiert, werden sieben Dimensionen unkontrolliert weiterwirken. Das erklärt, warum so viele Strategieprojekte an „unvorhergesehenen Entwicklungen" scheitern – die Entwicklungen waren nicht unvorhergesehen. Sie waren unsichtbar, weil das gewählte Framework sie ausgeblendet hat.
René Girard bringt eine dritte, unbequeme Prüfung: Ist das Ziel wirklich das Ziel des Mandanten? Oder kopiert er, was sein Wettbewerber will? Mimetisches Begehren, in Girards Analyse, ist für den Begehrenden unsichtbar. Der Unternehmer, der „AI-Transformation" will, weil sein Wettbewerber sie macht, begehrt nicht AI. Er begehrt die Position des Wettbewerbers. Das ist keine Strategie. Das ist ein Spiegel.
Und George Soros ergänzt die reflexive Dimension: Die eigene Intervention verändert das System, das man analysiert hat: Wie verschiebt jede Empfehlung die Bedingungen, unter denen sie gilt? Wer das nicht mitdenkt, behandelt die Welt als statisch – und wundert sich, wenn sie es nicht ist.
Diese Positionen – und es gibt weitere – bilden zusammen ein Netz von Beobachterpositionen. Jede sieht etwas, das die anderen nicht sehen. Und dort, wo sich die Beobachtungen widersprechen – dort liegt oft die wichtigste Erkenntnis.
Der viktorianische Detektiv und die Unstimmigkeit
Es gibt eine Beobachtungskompetenz, die in keinem Strategielehrbuch steht und die kein akademischer Denker so präzise verkörpert wie eine fiktive Figur: Sherlock Holmes. Holmes analysiert nicht, indem er ein Framework anlegt. Er beobachtet, was nicht passt: Die Anomalie, das Detail, das alle übersehen – weil es das Modell stört, mit dem alle anderen beobachten. „You see, but you do not observe", sagt Holmes zu Watson. Und beschreibt damit exakt das, was von Foerster als Beobachtung zweiter Ordnung konzipiert hat – nur eben nicht in der Sprache der Kybernetik, sondern in der Sprache der Baker Street.
Worauf Holmes sich fokussiert, ist nicht das falsche Element im Sinne des entscheidenden Indiz. Er erkennt, dass Elemente, obwohl sie richtig sind, nicht zueinander passen. Jedes für sich ist schlüssig, aber die Art, wie sie zusammenstehen, erzeugt eine Unstimmigkeit, die für alle anderen unsichtbar ist, weil sie die Einzelteile prüfen, nicht das Ganze.
Das ist genau das Phänomen, mit dem dieser Text begonnen hat: Alles stimmt. Und trotzdem ist es falsch.
Holmes als Archetyp in ein Beobachtungssystem einzubauen, ist daher kein intellektuelles Spiel, sondern die Anerkennung einer Tatsache: Dass die Fähigkeit, Unstimmigkeiten im Ganzen zu sehen, sich nicht in Triggerfragen oder Checklisten auflösen lässt. Sie ist eine Form des Sehens, die aus Erfahrung entsteht – aus Tausenden von impliziter Muster, die das Gehirn gespeichert hat, ohne sie jemals explizit zu formulieren. Kognitionswissenschaftler wie Gary Klein nennen es Recognition-Primed Decision Making: Der Experte erkennt das Muster in einer Sekunde, ohne den Rechenweg zeigen zu können. Weil er so viel Erfahrung verdichtet hat, dass das Denken unterhalb der bewussten Schwelle operiert. Für Außenstehende wirkt das wie “nicht denken”, dabei ist es etwas höheres.
Ein Beobachtungssystem kann diese Fähigkeit nicht ersetzen, aber es kann den Raum schaffen, in dem sie wirkt. Indem es die laute Analyse leiser stellt und der leisen Wahrnehmung Platz macht. Indem es systematisch nach Unstimmigkeiten fragt – und zwar als Haltung: Was passt hier nicht? Welches Detail ignoriere ich, weil es mein Modell stört?
Der Archetyp der Lust
Es gibt noch eine zweite fiktive Figur, die in einem solchen Beobachtungssystem einen Platz verdient – und die auf den ersten Blick nicht hineinzupassen scheint: Zaphod Beeblebrox, der zweiköpfige Ex-Präsident der Galaxie aus Douglas Adams' Per Anhalter durch die Galaxis, hat sich einen Teil seines Gehirns entfernen lassen, damit er seinen eigenen Plan nicht kennt. Er stahl das Raumschiff Heart of Gold nicht mit strategischem Kalkül, sondern weil er es konnte und wollte. Und war genau deshalb erfolgreich.
Die Versuchung liegt nahe, das als Satire abzutun. Aber Beeblebrox verkörpert – als Archetyp einer Haltung – etwas, das in keinem Managementlehrbuch steht und das dennoch eine der härtesten Erfolgsbedingungen ist, die es gibt: Lust. Verstanden als Antrieb, etwas zu tun, weil man es will. Die spielerische Freude an der Grenzüberschreitung, das „Wir wussten nicht, dass es unmöglich war, also taten wir es." Jeder, der einmal ein Unternehmen gegründet hat, kennt diesen Moment: Du hast Lust, Unternehmer zu sein. Du hast keinen detaillierten Plan, und trotzdem geht es gut – nein: nicht “trotzdem”, sondern “deswegen”. Weil du es hinreichend willst. Deine Lust und dein Wille geben dir die Anpassungsflexibilität und Durchhaltevermögen, den unerschütterlichen Glauben an dein Vorhaben. Nur dadurch lassen sich Grenzen verschieben.
Was passiert, wenn man diese Lust durch Analyse ersetzt? Wenn jemand sagt: „Schreib erst mal einen Businessplan, definiere deine Revenue Streams, analysiere dein Wettbewerbsumfeld." Dann zeigt die Analyse, was alles nicht funktionieren kann. Und die Lust stirbt an der Evidenz der Schwierigkeiten. Das ist keine Argumentation gegen Analyse. Es ist eine Warnung: Ein Beobachtungssystem, das die Energie zerstört, die es beobachtet, hat versagt – nicht weil es falsch sieht, sondern weil es die einzige Kraft tötet, die das Unmögliche möglich macht. Beeblebrox in ein systemtheoretisches Beobachtungsinstrument einzubauen, ist deshalb kein Augenzwinkern. Es ist die letzte und vielleicht wichtigste Prüfung: Ist diese Strategie lebendig? Würde jemand dafür morgens aufstehen, wenn er nicht müsste? Oder ist sie pflichterfüllte Verwaltung – korrekt, kohärent, und tot?
Wenn 14 seriöse Beobachtungspositionen „Vorsicht" sagen und die fünfzehnte sagt „Aber du willst es" – dann ist das eine Information, die kein Framework produzieren kann. Die größten unternehmerischen Erfolge kommen nicht aus der Analyse. Sie kommen aus dem Willen, etwas zu tun. Analyse kann diesen Willen rahmen. Sie darf ihn nie ersetzen.
Der Spiegel, der sich selbst zeigt
Ein Beobachtungssystem, das den Beobachter beobachtet, hat eine letzte, unvermeidliche Eigenschaft: Es hat selbst einen blinden Fleck. Das ist jetzt kein Defekt, sondern eine mathematische Notwendigkeit. Kein System kann sich vollständig selbst beobachten – Gödels Unvollständigkeitssatz, übertragen auf die Kybernetik. Oder in Kategorien der Strategie: Der Observer beobachtet den Consigliere. Auch er kann sich nicht selbst beobachten. Er macht zwar sichtbar, was strukturell unsichtbar ist, aber er kann nicht sichtbar machen, was er selbst strukturell ausblendet.
Die Konsequenz ist: Demut. Das System funktioniert – und hat Grenzen. Und es wer seine Grenzen kennt, zeigt Integrität. Fünfzehn Beobachterpositionen sind fünfzehn Perspektiven. Sie sind nicht vollständig. Die sechzehnte existiert – sie ist nur noch nicht gefunden. Und wenn jemand eines Tages ein System baut, das auch die sechzehnte einschließt, wird die siebzehnte fehlen.
Das klingt nur nach Schwäche. Es ist eine Stärke. Denn es schützt vor der gefährlichsten Illusion: der Illusion der Vollständigkeit. Vor dem Glauben, alles gesehen zu haben. Vor der Verwechslung von Gründlichkeit mit Wahrheit.
Woher das Bauchgefühl kommt
Zurück zum Anfang. Woher kommt das Gefühl, dass alles stimmt und trotzdem etwas falsch ist?
Es kommt daher, wenn man nicht die Elemente beobachtet, sondern ihre Emergenz. Das, was aus dem Zusammenspiel der Elemente entsteht und in keinem Einzelteil sichtbar ist. Eine Eigenschaft des Ganzen, die keine Analyse der Teile zeigt. Ein Gehirn, trainiert durch Jahre oder Jahrzehnte der Erfahrung, erkennt das Muster – oder vielmehr: es erkennt die Abwesenheit des Musters. Es erkennt, dass die Teile nicht zusammenpassen, bevor es benennen kann, warum.
Ein systemtheoretisches Beobachtungssystem kann dieses Bauchgefühl nicht erzeugen. Aber es kann zwei Dinge tun: Erstens, den Raum schaffen, in dem es wirken kann – indem es die Analyse in eine Struktur bringt, die systematisch nach Unstimmigkeiten fragt. Und zweitens, die Ergebnisse dieses Bauchgefühls schärfen – indem es hilft, die vage Unstimmigkeit in eine präzise Frage zu übersetzen.
Beobachtung zweiter Ordnung ist keine Methode. Sie ist eine Haltung. Die Bereitschaft, die eigene Brille zu betrachten, statt nur durch sie hindurchzuschauen. Zu fragen, nicht was man sieht – sondern was man nicht sehen kann. Das ist, in seiner radikalsten Form, Systemdenken.
Dieser Text ist der zweite einer Reihe über Systemdenken. Der erste – „Warum das System macht, wofür es konfiguriert ist" – betrachtet geopolitische Systemdynamik durch die Linse von Donella Meadows. Dieser Text wendet die gleiche Denkbewegung nach innen: auf die Beobachtung des Beobachters.
»Strategie ist Klarheit im Denken. Und Konsequenz in der Entscheidung.«