„China beschleunigt, Europa bremst“ – so lautet die Lieblingsformel der aktuellen KI-Debatten. Billiger Strom dort, teurer Strom hier. Gigantische Rechenzentren dort, Genehmigungsverfahren und AI Act hier. Die Dramaturgie ist eingängig: ein technisches Wettrennen, in dem Europa Gefahr läuft, endgültig den Anschluss zu verlieren. Nur: In diesem Bild fehlt das Entscheidende. Eine Zivilisation kann unbegrenzt beschleunigen – und sich dabei trotzdem systematisch selbst untergraben, wenn sie nicht mehr weiß, wozu sie ihre Infrastrukturen überhaupt baut. Es geht nicht primär um Tempo, sondern um Orientierung. Nicht nur um „mehr Strom“, sondern um die Frage, was dieser Strom eigentlich strukturell ermöglicht.
Die falsche Leitfrage: Wer gewinnt das KI-Rennen?
Die gängige Erzählung ist schnell erzählt:
China baut schneller Rechenzentren, subventioniert Energie, reduziert Hürden.
Europa ringt mit hohen Preisen, langen Verfahren und umfangreicher Regulierung.
Die naheliegende Schlussfolgerung: Europa müsse „mutiger“ werden – mehr investieren, schneller genehmigen, weniger regulieren. Die spiegelbildliche Gegenposition lautet: Gerade diese Beschleunigung sei gefährlich, Europa müsse bremsen, schützen, begrenzen.
Beide Lager teilen denselben blinden Fleck: Sie behandeln KI primär als Produktivkraft oder als Risiko – nicht als das, was sie de facto bereits ist: ein neues Zivilisationsmedium.
Norbert Wiener hat früh darauf hingewiesen, dass Informationsinfrastrukturen weniger Werkzeuge als Umwelten sind: Sie organisieren neu, wie Wahrnehmen, Handeln und Entscheiden überhaupt möglich werden. Heute gilt das in verschärfter Form. Große Sprachmodelle, Agentensysteme und globale Rechenzentren bilden eine zweite, nicht-menschliche Hemisphäre der Zivilisation – eine, die Muster erkennt, Routinen absorbiert und Redundanzen skaliert.
Die eigentliche Leitfrage lautet daher nicht: „Wer hat mehr GPUs?“ Sondern: „Welche Art von Orientierung ist in diese zweite Hemisphäre eingebaut – oder bewusst ausgeschlossen?“
Energie ohne Telos: Strom als Ersatz für Strategie
„Energie ist kostenlos“ – mit diesem Satz wird gern der Standortvorteil billigen Stroms gefeiert. Gemeint ist: Wenn Energie billig genug ist, lösen sich viele Probleme durch schiere Rechenleistung. Kybernetisch betrachtet ist das ein Kategorienfehler. Energie ist eine notwendige Bedingung – aber kein Telos. Ein System, dessen einziges Ziel Maximierung von Durchsatz ist, produziert in komplexen Umgebungen mit hoher Wahrscheinlichkeit genau eines: Überhitzung. Das gilt physikalisch, ökologisch, sozial und epistemisch. Europa vollzieht spiegelbildlich den komplementären Fehler:
Fehlende Energie- und Infrastrukturstrategie wird durch symbolische Regulierung kompensiert. Der AI Act sammelt Risiken, klassifiziert Systeme, definiert Prozesse – berührt aber kaum die Frage, welche Orientierungsfunktionen KI in einer demokratischen, pluralen Zivilisation überhaupt übernehmen soll und darf.
So entstehen zwei Varianten derselben Logik:
dort: Beschleunigung ohne expliziten Orientierungssinn,
hier: Orientierungssprache ohne tiefgreifende strukturelle Konsequenzen.
In beiden Fällen wird KI vor allem eines: Verstärker der bestehenden Macht-, Markt- und Verwaltungsordnungen.
Komplexitätsreduktion als Zivilisationsdefekt
Niklas Luhmann beschrieb Komplexitätsreduktion als Grundoperation sozialer Systeme: Gesellschaften müssen Auswahl treffen, sonst sind sie nicht handlungsfähig. Was im 20. Jahrhundert eine treffende Diagnose war, ist im 21. Jahrhundert zum strukturellen Defekt geworden. Die gegenwärtige Zivilisationsarchitektur reduziert Komplexität im Wesentlichen entlang dreier Achsen:
Bürokratie – Verwaltung des Bestehenden, oft entkoppelt von tatsächlicher Wirkung.
Machtlogik – Ressourcen folgen dem, was sich medial verstärken lässt, nicht dem, was langfristig tragfähig ist.
Ökonomischer Kurzschluss – Wert wird fast ausschließlich über kurzfristige Preise, Renditen und Aufmerksamkeitsraten definiert.
KI wird in dieses Muster hineingebaut. Dann überrascht es kaum, dass sich der Diskurs fast vollständig um Skalierung, Effizienz und „Wettbewerbsfähigkeit“ dreht. Aus infosomatischer Perspektive – also dort, wo Information, Körperlichkeit, Aufmerksamkeit und Lebensfähigkeit zusammen gedacht werden – ergibt sich ein anderes Bild: Es wird eine planetare Infrastruktur aufgebaut, um Inhalte zu produzieren, die überwiegend Varianten desselben sind. Ein großer Teil der aktuellen KI-Nutzung besteht darin, vorhandene Redundanz schneller zu variieren – nicht darin, zivilisatorisch neue Potenziale zu erschließen. Mit anderen Worten: Strom und Rechenzeit werden darauf verwendet, das Gestern effizienter zu verwalten.
Die fehlende Schicht: Orientierung als Infrastruktur
An diesem Punkt reicht es nicht, von „Ethik“ oder „Verantwortung“ zu sprechen. Solange diese Begriffe innerhalb derselben Strukturen verhandelt werden, deren Nebenfolgen sie adressieren sollen, bleiben sie folgenarm. Was fehlt, ist eine explizite Orientierungsschicht, die festlegt, welche Formen der Kopplung zwischen KI-Systemen, Institutionen und Subjekten überhaupt legitim und langfristig viabel sind.
Hier setzt der von mir entwickelte Rahmen von Sapiopoiesis, Sapiognosis und Sapiocracy an:
Sapiopoiesis – eine Kultur, in der Infrastrukturen darauf ausgelegt sind, Subjektpotentialität zu ermöglichen, statt Menschen in immer feinere Rollencluster zu sortieren. KI fungiert hier als Ermöglichungsstruktur: Sie automatisiert redundante Symbolarbeit und schafft epistemischen Raum für reale Entscheidungen unter Unsicherheit.
Sapiognosis – Orientierung jenseits des Informationsüberflusses: nicht „mehr Daten“, sondern höhere Kohärenz. Welche Signale sind für eine Entscheidung wirklich relevant? Welche Zeithorizonte müssen mitgedacht werden? Welche Konsequenzketten werden sonst systematisch ausgeblendet?
Sapiokratie – eine Ordnung, in der Macht nicht maximiert, sondern strukturell reduziert wird. KI wird nicht zur zusätzlichen Herrschaftsebene, sondern zum Filter für strukturelle Redundanz. Legitimität entsteht aus der Unterstützung von Subjektautonomie und realer Intersubjektivität – nicht aus der Erzeugung neuer Formen symbolischer Compliance.
In einer solchen Architektur würde die Energiefrage anders gestellt: Nicht: „Wie viel Rechenleistung ist nötig, um im globalen Wettbewerb mitzuhalten?“ Sondern: „Wie viel Rechenleistung ist sinnvoll, um menschliche Orientierungsfähigkeit zu verstärken, statt sie zu substituieren?“
Europa zwischen Datenschutz und Desorientierung
Europa inszeniert sich gern als „Regelsetzer“ der digitalen Welt. Datenschutzgrundverordnung, AI Act, Debatten über digitale Souveränität – all das signalisiert Verantwortung. Doch Regulierung ohne klare epistemische Leitfrage erzeugt vor allem eines: eine eigene, schwer durchdringbare Verwaltungsrealität. Sie verhindert manche Exzesse – und blockiert zugleich Räume, in denen neue Formen des Zusammenwirkens von Mensch und KI überhaupt erprobt werden könnten.
Eine ernsthafte europäische Antwort auf chinesische und US-amerikanische Beschleunigungsdynamiken müsste anders ansetzen:
mit Lernumgebungen, in denen KI nicht Prüfungsleistung ersetzt, sondern als Spiegel für Urteilskraft dient;
mit Energie- und Datenpolitiken, die explizit an der Viabilität zivilisatorischer Strukturen ausgerichtet sind, nicht nur an Standortargumenten;
mit öffentlichen Infrastrukturen, die Transparenz, Subjektautonomie und langfristige Kohärenz fördern, statt Menschen in neue Abhängigkeiten von proprietären Plattformen zu verschieben.
Damit wäre Europa weder „Gegenmodell“ noch Kopie, sondern Labor für eine post-symbolische Zivilisationsarchitektur.
Strom, der denken lernt
Die Wahl verläuft nicht zwischen einem „China-Modell“ und einem „Regulierungs-Europa“. Die eigentliche Weiche liegt tiefer:
Entweder wird KI zur perfekten Maschine der Komplexitätsreduktion – dann beschleunigt sie genau jene Zivilisationslogik, die ökologisch, sozial und psychisch bereits an ihrer Grenze operiert.
Oder KI wird als das begriffen, was sie sein könnte: eine infosomatische Schwelle, an der Maschinen Redundanz übernehmen – und Menschen gezwungen sind, ihre Rolle als orientierungsfähige Subjekte endlich ernst zu nehmen.
Dafür braucht es nicht nur Strom und Server, nicht nur Paragraphen und Programme, sondern einen bewussten Schritt in eine andere Architekturlogik: weg von der Simulation von Kontrolle, hin zur Gestaltung jener Bedingungen, unter denen Orientierung überhaupt möglich bleibt. Erst dann wird aus Strom eine Zukunft – und nicht nur der bestvernetzte Verstärker eines vergangenen Zivilisationsvektors.















