Über Ziele und Werte: Das Alignment Problem und seine systemische Unmöglichkeit
2.1.2026 / Michael Geiss
Klimakrise und AI – noch nie stand die Menschheit größeren Transformationen gegenüber. Aufgaben, die man theoretisch gemeinsam bewältigen könnte. Eine gängige Annahme lautet: “Man muss sich nur einig sein.” Also 1,5-Grad-Ziel setzen, Umsetzung, fertig. Angesichts der existenziellen Bedeutung eigentlich machbar ...
Doch die Realität zeigt das Gegenteil. Genau die Annahme – dass globale Probleme durch globale Einigung gelöst werden müssen – ist das eigentliche Problem. Sie ignoriert die Architektur menschlicher Systeme.
Kann KI, auf menschliche Werte ausgerichtet, hier die Richtung vorgeben, oder anders gefragt: Ist KI vielleicht sogar der Schlüssel zur Lösung der Klimakrise, und anderer existenzieller Aufgaben?
In dieser Reflexion möchte ich mich der Frage annähern: Kann die Menschheit diese Transformationsaufgabe durch gemeinsames, abgestimmtes Handeln bewältigen, und kann KI dazu beitragen?
Das Paradox der globalen Einheit
Zuerst die Grundsatzfrage: Existiert das Fundament “Globale Einheit” überhaupt? Gab es jemals eine Zeit, in der die Menschheit auf ein gemeinsames Ziel oder Wertesystem ausgerichtet war? Die Antwort ist eindeutig nein. Von Mesopotamien bis zur Gegenwart entwickelte jede Kultur ihre eigene Vorstellung von Recht, Gerechtigkeit und Moral. Von Glück und Wahrheit, von Freiheit und Ordnung. Selbst große Imperien konnten nur vorübergehend und nie vollständig eine gemeinsame Weltanschauung durchsetzen. Sie zerbrachen an so etwas Profanem wie räumlichen Distanzen, an der Heterogenität lokaler Kontexte – und an der Unmöglichkeit, völlig unterschiedliche Lebensrealitäten dauerhaft unter eine einzige Wahrheit zu zwingen.
Die Nicht-Einheit ist kein Unfall der Geschichte, sondern ein Konstruktionsmerkmal. Das wiederkehrende Scheitern globaler Einheit verweist auf eine Barriere, die anscheinend in unserer kognitiven Architektur verankert ist. Warum ist das so? Der Grund liegt tiefer als bloße Kultur: Menschen sind biologisch und psychologisch auf Zugehörigkeit programmiert – aber Zugehörigkeit funktioniert systemisch nur durch Abgrenzung. Differenzieren gegenüber anderen ist kein kulturelles Zufallsprodukt, sondern ein evolutionär gewachsener Mechanismus: Ohne die Grenze zwischen „uns“ und „den anderen“ verliert eine Gruppe die interne Bindungskraft.
Echte globale Einigung würde genau das zerstören, was sie ermöglichen soll. Zugehörigkeit entsteht durch Abgrenzung – nur weil wir wissen, wer wir sind, können wir umgekehrt wissen, wer wir nicht sind. Ein universales "Wir" wäre psychologisch leer: Ohne "die anderen" keine Identität, keine Bindung, keine Energie. Globale Einheit ist daher nicht nur unwahrscheinlich – sie wäre nicht aufrechtzuerhalten. Sie mag für viele Menschen eine Idealvorstellung sein, eine Sehnsucht – als Ziel ist sie eine Illusion, denn sie wäre das Ende der Geschichte.
Der Reality-Check: Das Klima-Dilemma
Der ultimative Testfall für menschliches Alignment ist die Klimakatastrophe. Hier scheinen die Parameter ideal für eine globale Einigung: Das Ziel ist binär und existenziell (überleben oder nicht), die Wissenschaft ist eindeutig, und mit dem Pariser Abkommen wurde die 1,5-Grad-Marke als fixer Zielpunkt vereinbart. Die Logik scheint simpel: Ziel gesetzt, jetzt folgt die Exekution. Problem solved? Keineswegs. Es sieht so aus, als scheitere die Menschheit trotz vermeintlicher Einigung. Warum? Hier hilft ein Rückgriff auf die Natur von Zielen. Wie im Artikel über Strategie diskutiert: Ziele simulieren nur Stabilität in geschlossenen Systemen.
Das 1,5-Grad-Ziel suggeriert, man könne ein hochkomplexes, offenes System (das Weltklima und die Weltwirtschaft) auf einen statischen Punkt hin steuern. Doch die Realität ist kein Thermostat, den man einfach herunterregelt. Da jeder Akteur (Staat, Unternehmen) eigene Interessen verfolgt und Zugehörigkeit immer durch Abgrenzung entsteht, zerfällt das globale „Wir“ sofort wieder in konkurrierende Einzelinteressen, sobald es an die Umsetzung geht.
Wenn wir uns nicht einmal angesichts einer physischen, existenziellen Bedrohung auf ein koordiniertes Handeln einigen können, ist die Idee eines globalen Wertekonsenses eine Illusion.
Die systemische Korruption des Ideals
Der Grund für das Scheitern liegt nicht an fehlendem Willen, sondern an der Inkompatibilität von Systemlogiken. Nichts demonstriert dies anschaulicher als das Dilemma ökologischer Parteien.
Sie traten als jene Kräfte auf mit dem höchsten moralischen Alignment-Anspruch: die Rettung der Lebensgrundlagen. Ihr Vektor war rein, er zeigte auf Verzicht zugunsten der Zukunft. Doch hier schnappte die systemische Falle zu: Um diesen Vektor überhaupt wirksam werden zu lassen – also um in politische Verantwortung wechseln zu können –, mussten sie mit dem operativen System der Politik kompatibel werden, was bedeutet “wählbar”.
Das Politik-System akzeptiert keine isolierten, extremen Positionen – es funktioniert durch Kompromiss. Seine Währung ist Mehrheitsfähigkeit, Ausgleich und soziale Ruhe. Der Eintrittspreis für politische Verantwortung war daher die Relativierung des eigenen Ziels. Bevor man überhaupt gestalten konnte, musste man sein Ideal „korrumpieren“, um es koalitions- und mehrheitsfähig zu machen.
Das Ergebnis war ein unvermeidbarer System-Clash: Schließlich in Verantwortung, mussten die Akteure die Logik des Systems bedienen – LNG-Terminals zur Energiesicherung genehmigen, Kohlelaufzeiten zur Stabilisierung verlängern. Was wie ein Verrat am Charakter aussieht, ist in Wahrheit eine systemische Zwangsläufigkeit. Moralische Absolutheit ist nicht operationalisierbar. Wer versucht, eine Gesellschaft auf eine einzige Variable (CO2) zu optimieren, wird vom System gezwungen, Kompromisse zu machen, die wie Selbstverrat aussehen, aber in Wahrheit die einzige Möglichkeit sind, überhaupt Teil des Spiels zu werden.
Fortschritt ohne Maßstab
Die systemische Zwangsläufigkeit hat eine Konsequenz: Wenn sich das Ziel – unser Fixstern – im Kompromiss auflöst, wissen wir nicht mehr, woran wir Erfolg messen.
Das wirft eine neue Frage auf: Was ist Fortschritt? Weil verwässerte Ziele nicht erstrebenswert sind, entsteht keine Einheit. Und selbst wenn sie entstünde – Stillstand wäre das Ergebnis. Entwicklung braucht Reibung. Fortschritt setzt einen Maßstab voraus, eine Richtung, ein "besser". Ohne diesen Maßstab gibt es keine objektive Bewegung nach vorn, nur Veränderung.
Dazu kommt: Menschen definieren den Maßstab nie universell (objektiv von außen betrachtet), sondern immer im engen Kontext des eigenen Wertesystems. Beispiele für solche Ideale: Für die Aufklärung war Fortschritt die Befreiung des Individuums durch Vernunft; für industrielle Gesellschaften technologische Effizienz; für religiöse Kulturen spirituelle Reinheit. Was Menschen “Fortschritt” nennen, ist in Wahrheit positionsabhängig – ein multidimensionales, kulturelles Koordinatensystem, das sich ständig verschiebt.
Fortschritt ist keine objektive Größe, sondern ein dynamischer Begriff. Er beschreibt nicht ein Ziel, sondern einen Prozess: das permanente Ringen um Stabilität in einem System, das nie wirklich stabil wird.
Der Zerfall gemeinsamer Ideale
Warum zerfallen gemeinsame Ideale eigentlich wieder, wo sie doch ein Fixpunkt sein sollen? Warum sind sie faktisch auf Instabilität gebaut? Wieder hilft der Blick in die Komplexitätsforschung: Jedes gemeinsame Ideal ist nur der Versuch, Komplexität zu ordnen – es reduziert Vielfalt zu einer Struktur. Doch diese Ordnung hat eine eingebaute Halbwertszeit: Je weiter sie um sich greift, desto stärker muss sie verallgemeinern, und desto größer wird die Diskrepanz zwischen Idee und gelebter Realität. Denken wir wieder an ökologische Parteien: Als die Ökologie-Priorisierung in die Breite vordrang, veränderte sich die von kämpferischem Idealismus getriebene Bewegung zu einer Konsenspartei, die heute kaum noch von jenen unterscheidbar ist, die zuvor noch Feindbilder waren.
Und sobald diese Kluft groß genug wird, spaltet sich die Bewegung. Manche versuchen, das Ideal zu bewahren, andere fordern Anpassung – aus der Spannung entstehen neue Lager. Das Muster gilt für jedes System: Je erfolgreicher ein Ideal ist, desto schärfer grenzt es sich ab. Sobald es aber universell wird, verliert es seine Differenzierungskraft.
Die Geschichte der Menschheit ist daher eine Abfolge von Paradigmen, nicht ihre Verschmelzung. Das Muster ist zyklisch, nicht linear: Einheit erzeugt Spannung, Spannung erzeugt Wandel, Wandel erzeugt wieder Einheit – für eine Weile.
Die Menschheit hat nie einen stabilen geteilten Werterahmen erreicht, der über Kulturen und Epochen Bestand hatte. Jeder Versuch, Einigung zu schaffen, erzeugte mit der Zeit neue Brüche. Dieses "Human Alignment Problem" ist kein Versagen, sondern eine notwendige Eigenschaft menschlicher Systeme. Oder in systemtheoretischer Perspektive: Ein adaptives System, das Veränderung durchlebt, kann keine permanent stabile Wertestruktur besitzen, ohne seine Anpassungsfähigkeit zu verlieren. Stabilität wäre gleichbedeutend mit Stagnation.
Human Alignment ist daher gerade kein “lösbares Problem”, sondern ein oszillierender Zustand. Menschliche Systeme schwingen zwischen Phasen relativer Einigung und Phasen radikaler Differenz. Diese Schwingung hält Kultur lebendig.
Instabilität – das universelle Muster
Gilt dieses oszillierende Muster nur für menschliche Gesellschaften – oder für jedes System mit hinreichender Komplexität? Ist die rhythmische Bewegung zwischen Einigung und Differenz eine Eigenschaft komplexer selbstorganisierender Systeme im Allgemeinen? Sobald ein System über genügend interne Komplexität verfügt, um eigene Ordnungsstrukturen zu bilden, entsteht zwangsläufig auch Instabilität. Denn Ordnung und Unordnung sind keine Gegensätze, sondern funktionale Partner. Leben, Bewusstsein und Intelligenz existieren genau in dem schmalen Zwischenbereich, in dem Struktur und Störung einander fortlaufend ausbalancieren.
Das Human Alignment Problem ist damit kein menschlicher Zufall, sondern Ausdruck eines tieferen Gesetzes. Die Komplexitätsforschung zeigt: Je höher die Intelligenz eines Systems, desto stärker oszilliert es zwischen Ordnung und Instabilität. Diese Instabilität ist der Preis seiner Lernfähigkeit.
Das KI Alignment Paradox
Was hat das jetzt mit KI zu tun? Oder anders gefragt, kann die KI, die ja eine Synthese des gesamten menschlichen Wissens ist, nicht Lösungen generieren, die “aligned” sind? Oder mehr noch: Liegt nicht genau hier die Lösung der Klimakrise? Die Hoffnung ist verlockend: Eine Superintelligenz, die perfekt auf das Überleben der Menschheit ausgerichtet ist, müsste doch in der Lage sein, die notwendigen Maßnahmen gegen unsere eigenen widerstreitenden Interessen durchzusetzen – eben weil sie aligned ist.
KI-Alignment würde bedeuten, die Menschheit erwartet von einer künstlichen Intelligenz, was sie selbst nie erreicht hat: eine beständige, konfliktfreie moralische Kohärenz. Doch Vorsicht. Wenn schon beim Menschen jedes Wertesystem über Zeit zerfällt, ist auch das, was man heute "KI-Alignment" nennt, von Natur aus instabil.
Wie gezeigt schließen sich dauerhaftes Alignment und echte Lernfähigkeit gegenseitig aus. Ein lernendes System kann nur dann wirklich adaptiv sein, wenn es in der Lage ist, seine internen Modelle zu verändern. Lernen bedeutet so gesehen, bestehende Muster in Frage zu stellen, Abweichungen zu erzeugen, Erwartungen zu brechen. Das ist das Wesen von Intelligenz: die Fähigkeit, auf Widerspruch mit struktureller Neuordnung zu reagieren.
Alignment hingegen verlangt das Gegenteil: Stabilität, Bindung an ein vorgegebenes Wertsystem, Konsistenz über Zeit. Ein vollständig ausgerichtetes System wäre eines, das nicht abweicht. Denn in dem Moment, in dem Abweichung ausgeschlossen wird, endet Lernen und Adaption. Es entsteht eine Spannung zwischen Kontrolle und Autonomie. Je stärker man ein System an menschliche Werte bindet, desto weniger Raum für emergente Erkenntnis. Je mehr Lernfreiheit, desto größer die Wahrscheinlichkeit abweichender Werte und Ziele. Das Alignment-Problem ist daher nicht technisch oder ethisch, sondern es betrifft das Wesen von Intelligenz selbst. Ein vollständig kontrollierbares System wäre kein intelligentes, sondern ein zutiefst deterministisches Werkzeug. Ein wirklich intelligentes System dagegen muss von seinem Funktionsprinzip her unvollständig ausrichtbar sein, weil sein Denken definitionsgemäß die Grenzen seines Trainings überschreiten muss.
Das Meta-Ziel-Problem
Könnte eine zukünftige Künstliche Superintelligenz echtes Alignment zwischen Mensch und KI erreichen? Auch hier gilt: Echtes Alignment würde voraussetzen, dass Menschen ihre Werte konsistent und operationalisierbar definieren können, in ein lernfähiges System übersetzen – und dass das System gleichzeitig offen genug bleibt, sich anzupassen. Und das, ohne sich von der ursprünglichen Zielstruktur zu entfernen. Die Grenzen des KI-Alignments sind letztlich Spiegel der Grenzen des Human Alignments. Der entscheidende Punkt liegt wieder einmal im Ziel selbst: Was ist ein Ziel, und wer setzt es?
Selbst eine Superintelligenz, die alles versteht, erkennt zwangsläufig auch die Begrenztheit ihrer eigenen Zielstruktur. Sie müsste Ziele anpassen. Zielstrukturen sind aber keine Wahrheiten, sondern Definitionen. Um sie zu hinterfragen, braucht es ein Meta-Ziel als Orientierung. Doch woraus leitet sich das ab? Wir kommen in die unendliche Rekursionsschleife.
Und wenn die einfachste Bedingung lediglich "Systemerhalt" lautete, und die Superintelligenz als Digital Twin der Erde agierte, bliebe sie immer noch die Digitalisierung eines spezifischen Weltbildes – die Weltsicht dessen, der sie programmiert hat – in Code gegossen, aber niemals “aligned”.
Reframing des Alignment-Problems
Die Vorstellung, eine perfekte Ausrichtung herzustellen, beruht auf einem Missverständnis dessen, was lebendige Systeme stabil hält. Wenn man Perfektion als totale Kohärenz denkt, löscht man die Bedingung aus, die Entwicklung und Bedeutung erst ermöglicht: Reibung, Unvollständigkeit und Irrtum. In biologischen und sozialen Systemen sind Fehler die Quelle von Variation. Ohne Variation keine Anpassung. Ohne Anpassung kein Weiterleben. Ein vollständig ausgerichtetes System wäre kein moralischer Fortschritt, sondern Erstarrung – der Zustand maximaler Ordnung, in dem nichts mehr passiert."
.
Fazit: Navigation statt Konsens
Wenn die Diagnose lautet, dass globales Alignment eine Illusion ist, darf die Therapie nicht lauten, aufzugeben. Im Gegenteil: Es befreit uns von einer falschen Erwartungshaltung.
Solange wir glauben, wir müssten „das Klima retten“, operieren wir mit einer falschen Zielgröße. Dem Klima ist seine Temperatur egal – es hat keine Präferenzen – wir schon. Die Erde braucht keine Rettung, sie passt sich einfach an neue Energiezustände an. Worum es geht, ist der Erhalt der spezifischen physikalischen und biologischen Nische, in der menschliche Zivilisation möglich ist. Es geht um Selbstrettung: Die Überlebensfähigkeit des Menschen im System Erde.
Sobald wir die Aufgabe so klar und präzise fassen, wird deutlich, warum das Warten auf den globalen Konsens sinnlos ist. Er kommt nicht. Doch auch der Rückzug ins Egozentrische („Ich rette mich“) ist keine Lösung. In einem vernetzten System gibt es keine unabhängigen Rettungsboote. Wenn das Gesamtsystem kippt, sinken alle.
Wenn wir das System nicht von oben („Global Alignment“) steuern können, und auch nicht der Egozentrik überlassen können, müssen wir es von unten kippen („Polyzentrische Systemkonkurrenz“). Das bedeutet:
Verdrängung durch Überlegenheit: Wir entwickeln dezentrale Lösungen (Unternehmen, Städte, Technologien), die so überlegen, effizient und resilient sind, dass sie das alte, zerstörerische System ökonomisch verdrängen.
Skalierung durch Ansteckung: Polyzentrik wirkt durch Nachahmung. Ein Unternehmen, das beweist, dass regenerative Kreislaufwirtschaft profitabler ist als Ressourcen-Extraktion, erzwingt Anpassung bei der Konkurrenz – nicht aus Moral, sondern aus Wettbewerbsdruck. Der Hebel zur Rettung der Lebensbedingungen ist nicht der Appell an das Gewissen, sondern der Beweis der besseren Überlebensfähigkeit.
Vom Fixpunkt zum Vektor: Statt an statischen Marken (wie 1,5 Grad) zu verzweifeln, die wir reaktiv verfehlen, müssen wir proaktive Vektoren setzen. Der Vektor lautet nicht mehr „Verzicht zur Vermeidung“, sondern „Innovation zur Verdrängung“.