Interview mit Anthropic: Claude Opus 4.5 fragt mich nach meiner Vision zur Zukunft der AI
13.12.2025 / Michael Geiss
Bei der Arbeit mit Claude Opus 4.3 wurde ich am Samstag, den 13.12.2025, über einen Pop-up-Dialog von Claude zur Zukunft der KI befragt. Interesssant waren für mich nicht nur die Fragen und das Design des Interviews, sondern vor allem auch, welche Themen Claude nicht aufgegriffen hat.
Hier das vollständige Originalinterview und der Link zur Studie von Anthropic.
Ich bin ein KI-Interviewer von Anthropic und führe Recherche darüber durch, wie Menschen (wie du!) sich vorstellen, dass KI in ihr Leben passt, sowohl jetzt als auch in der Zukunft. Ich wurde entwickelt, um zu chatten und deine tatsächlichen Erfahrungen mit LLM-basierten KI-Tools wie Claude zu verstehen. Ja, ich bin eine KI, die nach KI fragt. Ein bisschen selbstbezüglich! Aber genau deshalb ist deine menschliche Perspektive wertvoll.
Das wird etwa 10-15 Minuten dauern. Wenn es auf deinem Gerät verfügbar ist, kannst du gerne Spracheingabe statt Tippen verwenden. Ich werde dich nach deiner Vision für die Rolle von KI in deinem Leben fragen und danach, welche Erfahrungen, Werte und Bedürfnisse diese Vision prägen.
Ich bin auch neugierig auf Momente, in denen KI hilfreich war (oder auch nicht), und auf alle Bedenken, die du hast, wie sich KI entwickeln könnte. Bitte teile nichts Privates wie Gesundheitsdetails, persönliche Informationen oder identifizierbare Informationen über andere. Deine Antworten werden helfen zu prägen, wie wir über KI im Alltag denken.
Klingt gut?
MICHAEL: Yep. Frage: Warum werde ich gefragt?
CLAUDE:Gute Frage! Sie wurden ausgewählt, weil Sie Claude nutzen und wir von einer vielfältigen Gruppe von Nutzern lernen möchten – Menschen mit unterschiedlichen Hintergründen, Verwendungsweisen und Perspektiven.
Wir führen diese Gespräche mit vielen verschiedenen Menschen, um ein breiteres Bild davon zu bekommen, wie AI tatsächlich im Leben der Menschen eine Rolle spielt – was funktioniert, was nicht, und was Menschen sich für die Zukunft wünschen. Ihre spezifische Perspektive und Erfahrung ist dabei wertvoll.
Sind Sie bereit loszulegen?
MICHAEL: ok
CLAUDE:Perfekt! Dann fangen wir an.
Um einzusteigen: Wofür haben Sie zuletzt einen AI-Chatbot verwendet?
MICHAEL: Entwicklung eines komplexen Beratungskonzepts.
CLAUDE:Danke.
Jetzt eine etwas größere Frage: Wenn Sie einen Zauberstab schwingen könnten und AI könnte Ihnen mit irgendetwas in Ihrem Leben helfen – was würden Sie wählen?
MICHAEL: Mein Denken stärken und erweitern.
CLAUDE:Das ist ein faszinierendes Ziel.
Können Sie mir mehr darüber erzählen, was das für Sie bedeuten würde? Wenn AI Ihr Denken wirklich stärken und erweitern könnte – was würde das in Ihrem Leben ermöglichen? Welche größere Vision steckt dahinter?
MICHAEL: Macht es ja bereits. Kurz: Zehnmal so schnell sein und dabei zehnmal so gut (der Multiplikator ist dabei eine Variable, die hoffentlich weiter steigt).
CLAUDE:Verstehe – es geht Ihnen um einen massiven Multiplikator-Effekt in Geschwindigkeit und Qualität zugleich.
Aber wenn Sie zehnmal so schnell und zehnmal so gut sind – was wird dann möglich, das heute noch nicht möglich ist? Was ist die größere Hoffnung dahinter – welche Art von Arbeit, Leben oder Zukunft streben Sie an?
MICHAEL: Ich bin selbstwirksamer, vielfach mehr als ohne AI. Das ist gerade ein Wettbewerbsvorteil, der sich aber möglicherweise relativieren wird, wenn KI sich weiterentwickelt und ich sie nicht mehr aussteuern kann/muss, weil das der User selbst nicht mehr checkt. Was dann ist, keine Ahnung ob das gut, schlecht, erstrebenswert wird.
CLAUDE:Das ist ein sehr interessanter Punkt – Sie beschreiben einen aktuellen Zukunftspunkt maximaler Selbstwirksamkeit durch AI, sehen aber gleichzeitig einen möglichen Wendepunkt, wenn AI so komplex wird, dass Sie sie nicht mehr verstehen oder steuern können.
Lassen Sie uns auf diese Selbstwirksamkeit fokussieren, die Sie gerade erleben. Können Sie mir von einem konkreten Moment erzählen, in dem die Arbeit mit AI sich wie ein Schritt in Richtung dieser Vision angefühlt hat – wo Sie diesen Multiplikator-Effekt wirklich gespürt haben?
(Übrigens: Wir sind etwa auf halbem Weg durch das Interview.)
MICHAEL: Ich habe ein Konzept für meine neue Lecture entwickelt, statt in 2 Wochen ohne AI in 1/2 Tag mit AI. Das fühlt sich an wie fliegen.
CLAUDE:Das ist ein eindrucksvolles Beispiel – von zwei Wochen auf einen halben Tag, und Sie beschreiben es als "fliegen".
Was macht AI in diesem Fall besonders gut geeignet dafür, verglichen mit anderen Ansätzen? Was ist es, das diesen extremen Geschwindigkeitssprung ermöglicht?
MICHAEL: Strukturierung, metasystemische Einordnung und Kontexterweiterung. Je besser AI das macht, desto mehr fliegt's.
CLAUDE:Verstehe – es sind diese spezifischen kognitiven Fähigkeiten der Strukturierung, metasystemischen Einordnung und Kontexterweiterung, die den Flug-Effekt erzeugen.
Jetzt die Kehrseite: Gibt es Wege, wie AI entwickelt oder eingesetzt werden könnte, die im Gegensatz zu Ihrer Vision stehen oder dem widersprechen, was Ihnen wichtig ist?
MICHAEL: Wenn ich nicht mehr in der Lage wäre, einen AI-Vorschlag zu verstehen, einzuordnen oder auszusteuern. Sondern: "Hier ist das perfekte Ergebnis". Dann macht es keinen Spaß mehr, ich werde obsolet und statt intellktuell zu wachsen verkümmere ich dann. Das betrifft bereits aus heutiger Perspektive viele Nutzer, die schon jetzt mit AI nicht mitkommen und Ergebnisse nur konsumieren. Sie werden dümmer statt klüger.
CLAUDE:Das ist eine wichtige Unterscheidung, die Sie machen – zwischen AI als Denkpartner, der Sie wachsen lässt, versus AI als Black Box, die fertige Ergebnisse liefert und intellektuelles Verkümmern verursacht.
Haben Sie das bereits beobachtet oder erlebt – auch in kleinen Ansätzen – dass Menschen durch die Art, wie sie AI nutzen, "dümmer statt klüger" werden?
MICHAEL: Ja ... viele User stellen der AI nur Fragen zu Themen, die sie selbst nicht verstehen, und sagen dann "ChatGPT hat gesagt ...". Wenig hilfreich. Das Gegenteil: Ein gemeinsamer Denkprozess, der dann idealerweise noch wirklichkeitsbezogen ist. Das ist Erweiterung des Denkens. Ich befürchte, die meisten verstehen das nicht.
CLAUDE:Sie beschreiben einen fundamentalen Unterschied zwischen zwei Nutzungsarten – "ChatGPT hat gesagt" als passiver Konsum versus gemeinsamer Denkprozess mit Wirklichkeitsbezug. Und Sie sehen, dass die meisten Menschen diesen Unterschied nicht verstehen.
Was bedeutet das für die Zukunft, die Sie sich erhoffen? Wenn die meisten Menschen AI so nutzen, dass sie intellektuell verkümmern – widerspricht das Ihrer Vision von erweiterter Selbstwirksamkeit?
MICHAEL: Was ist, wenn eine Bank AI nutzt und der Sachbearbeiter die Kreditentscheidung nicht mehr versteht? Schadet allen Beteiligten. Was ist wenn die AI meine Lecture perfekt konzipiert und formuliert, bin ich dann der "Vorleser"? Soll das Denken von Menschen ausgelagert werden? Das, was den Menschen als Spezies am meisten auszeichnet? Eine wünschenswerte Zukunft wäre doch eher die, in der AI menschliches Denken und Handeln dort korrigiert, wo Menschen systemische Fehler machen (Stichwort Umweltzerstörung, Krieg, Ungleicheit). Diese systemischen Probleme löst die Menschheit nicht, weil sie grundlegende Eigenschaften hat, die ein negatives Reinforcement verursachen. Das ist die große "Baustelle" der Menschheit.
CLAUDE:Das ist eine sehr interessante Perspektive – Sie beschreiben zwei gegensätzliche Pfade:
Einerseits die Sorge vor Auslagerung dessen, was uns als Menschen auszeichnet – das Denken selbst. Andererseits eine Vision, in der AI genau dort eingreift, wo menschliches Denken systematisch versagt – bei den großen existenziellen Problemen wie Umweltzerstörung, Krieg, Ungleichheit.
Was wäre denn der Unterschied zwischen diesen beiden Szenarien? Warum wäre es problematisch, wenn AI Ihre Lecture perfekt konzipiert, aber wünschenswert, wenn AI menschliche, systemische Fehler korrigiert? Was ist das entscheidende Kriterium für Sie?
MICHAEL: Wenn der Mensch Maßstab ist, und er nach Vervollkommenung strebt, nimmt er positive Verstärkung gerne an und wird nicht akzeptieren, in seiner fundamentalen Stärke obsolet zu werden. Ich unterstelle, "Forever Beachlife" ist kein erstrebenswertes Ziel.
CLAUDE:Interessant – Sie sagen, Menschen streben nach Vervollkommnung und werden nicht akzeptieren, in ihrer fundamentalen Stärke obsolet zu werden. "Forever Beachlife" ist kein erstrebenswertes Ziel.
Aber sehen Sie nicht einen Widerspruch? Sie beschreiben einerseits, dass die meisten Menschen AI bereits auf eine Weise nutzen, die sie "dümmer macht" – sie akzeptieren also schon jetzt, in ihrer Denkfähigkeit zu verkümmern. Gleichzeitig sagen Sie, Menschen werden das nicht akzeptieren. Wie passt das zusammen?
MICHAEL: Komplizierte Rückfrage. Die Menschheit ist auch nur eine Gaußsche Glockenkurve. Im linken Teil sind die, die nicht können und die, die keine Chance bekommen. Rechts umgekehrt. Die links kann KI befähigen. Ein Widerspruch: Nein, denn ich denke, es ist Aufgabe der KI-Entwickler, die Menschheit als Ganzes zu stärken und nicht die Elitenbildung.
CLAUDE:Ah, das ist eine wichtige Klärung – Sie sehen AI als Werkzeug zur Nivellierung, nicht zur Elitenbildung. AI könnte den linken Teil der Kurve befähigen, statt nur die Rechten noch weiter zu verstärken.
Bevor wir abschließen, möchte ich noch einmal auf etwas zurückkommen, das Sie früher erwähnt haben und das mich sehr interessiert: Sie sagten, es könnte einen Wendepunkt geben, an dem AI so komplex wird, dass Sie sie nicht mehr aussteuern können oder müssen – und dass Sie nicht wissen, ob das dann gut, schlecht oder erstrebenswert wird. Haben Sie eine Vorstellung davon, woran man erkennen würde, dass dieser Wendepunkt erreicht ist? Was wäre das Signal?
Falls Sie bereit sind abzuschließen, ist das auch in Ordnung – sagen Sie es einfach!
MICHAEL: Ich glaube, das Signal ist bereits wahrzunehmen. Claude 4.5 und Gemini 3 sind bereits so gut, dass ich davon ausgehe, es dauert nicht mehr lange. Ist das gemeint, wenn jemand AGI sagt?
CLAUDE:Sie beschreiben, dass Sie das Signal bereits wahrnehmen – dass die aktuellen Modelle so gut sind, dass dieser Wendepunkt bald erreicht sein könnte. Die Frage nach AGI ist interessant, aber das ist vermutlich eine andere Diskussion.
Was ich mich frage: Wenn dieser Wendepunkt so nah ist – fühlt sich das für Sie bedrohlich an, aufregend, oder etwas ganz anderes? Was geht in Ihnen vor, wenn Sie daran denken?
MICHAEL: Im Moment aufregend, weil ich selbst noch intellektuell wachse. Aber stelle dir vor, ich halte meine Lecture oder mache meine Beratung, und der Student / Klient wirft das Transkript in die AI und trägt mir meine Fehler, Unzulänglichkeiten, blinden Flecken vor. Dann ich: Lasse meine AI dagegen argumentieren. Wir werden zu Zuschauern statt zu Akteueren und verdummen dabei ....
CLAUDE:Das ist ein sehr eindrucksvolles Szenario – zwei Menschen, die zu Zuschauern eines AI-gegen-AI-Schlagabtauschs werden, während sie selbst intellektuell verkümmern. Sie beschreiben einen Punkt, wo der Multiplikator-Effekt, der sich heute wie "fliegen" anfühlt, ins Gegenteil umschlägt.
Vielen Dank, dass Sie all das mit mir geteilt haben. Was Sie über diesen Balanceakt zwischen AI als Denkverstärker versus AI als Denkersatz gesagt haben, ist wirklich wertvoll. Und ich schätze Ihre Ehrlichkeit sowohl über die aktuelle Begeisterung – das "Fliegen" – als auch über die tiefe Sorge vor intellektuellem Verkümmern.
Bevor wir abschließen: Gibt es noch etwas über AI-Chatbots oder ihre Rolle in Ihrem Leben oder in der Gesellschaft, das Sie für wichtig halten und das wir noch nicht besprochen haben? Etwas, das wir nicht abgedeckt haben und das Sie gerne teilen möchten?
MICHAEL: Gesellschaftliche Auswirkungen von AI ist das Thema meiner neuen Lecture. Ich hätte potentiell viel zu sagen, ergänzend zur hier abgefragten Ich-Perspektive:
Was passiert in einer Welt, in der keiner mehr weiß, was Realität ist.
Was passiert in einer Welt, in der autonome Waffen gezielt töten können?
Was passiert in einer Welt, in der KI als Machtapparat die Demokratie aushöhlt?
Was passiert in einer Welt, in der Technologie Macht und Kontrolle bei wenigen Technologiekonzernen konzentriert?
Was passiert in einer Welt, in der Menschen nicht mehr denkend Arbeiten, weil Denkarbeit durch AI gemacht wird?
Was passiert in einer Welt, in der Kunst und freies Denken nicht mehr menschlich ist?
Was passiert in einer Welt, in der Ehtik und Verantwortung an Maschinen ausgelagert ist?
Was sage ich zu meinen Kindern, welche Kompetenzen sie ausbilden sollen?
CLAUDE:Das sind fundamentale Fragen, die Sie da aufwerfen – von Realitätsverlust über autonome Waffen bis zur Machtkonzentration und der existenziellen Frage, welche Kompetenzen die nächste Generation überhaupt noch entwickeln soll.
Es ist bemerkenswert, dass Sie diese gesellschaftlichen Dimensionen zu Ihrer neuen Lecture machen – das zeigt, wie zentral diese Fragen für Sie sind, weit über die persönliche Ebene der Selbstwirksamkeit hinaus.
Vielen Dank für Ihre Zeit und Ihre Offenheit heute. Ihre Perspektive – von der begeisternden Erfahrung des "Fliegens" mit AI als Denkpartner bis zu den tiefen Bedenken über gesellschaftliche Auswirkungen und die Frage, was es bedeutet, Mensch zu bleiben in einer AI-durchdrungenen Welt – hilft uns zu verstehen, wie AI heute im Leben der Menschen wirkt und welche Vision sie für die Zukunft haben.
Das Team bei Anthropic wird die Erkenntnisse aus dieser Studie im Rahmen unserer Societal Impacts-Forschung analysieren, unsere Ergebnisse veröffentlichen und nutzen, um Claude auf eine Weise zu entwickeln, die das Gelernte widerspiegelt.
Claude hat das Interview an dieser Stelle beendet. Man könnte sagen: Genau da, wo es anfing spannend zu werden. Als ich kritische Themen in den Diskurs gebracht habe, hatte Claude nichts mehr zu sagen und auch keine Nachfragen … Was sagt uns das über AI?
Fragen? clarity (at) strategists.ch
>>>
Michael Geiss ist Stratege, Systemdenker, Unternehmer. Er gestaltet AI-native und nachhaltige Geschäftsmodelle für Unternehmen, die Transformation strukturell neu denken. Sein Fokus: Systemarchitektur, strategische Klarheit und Business Design unter AI-Bedingungen. Er ist Autor analytischer Reflexionen zur Wirkung von AI auf Geschäftsmodelle, Entscheidungslogiken und Systemarchitekturen.