Der Datenschutzdiskurs ist beeindruckend. Er kann Einwilligungen präzisieren, Rechtsgrundlagen sortieren, Speicherfristen begrenzen, Rechte durchsetzbar machen. Er kann „Daten“ schützen. Und gerade dadurch wird sein blinder Fleck sichtbar: Daten sind Objekte. Orientierung ist eine Bedingung.

In einer KI-durchdrungenen Umwelt entscheidet nicht mehr primär, wem Daten gehören, sondern wer den Takt setzt, in dem Menschen überhaupt noch entscheiden können. Das ist der Unterschied zwischen Eigentum und Steuerungsfähigkeit, zwischen „rechtlich korrekt“ und „zivilisatorisch wirksam“. Wer ihn unterschätzt, reguliert die Oberfläche und verliert den Untergrund.

Ontokybernetisch betrachtet ist das konsequent. Moderne Gesellschaften neigen dazu, das zu schützen, was sich zählen, speichern, auditieren lässt. Daten passen perfekt in diese Logik. Orientierung nicht. Orientierung ist kein Objekt, das man verwalten kann, sondern eine fragile Leistung, die nur dort entsteht, wo Aufmerksamkeit verfügbar bleibt, wo Ungewissheit nicht reflexhaft durch Stellvertreter ersetzt wird und wo ein Subjekt die Konsequenzen seiner Entscheidungen wieder an sich binden kann. Wenn diese Bindung reißt, helfen die saubersten Rechte nur noch dabei, den Verlust formal korrekt zu dokumentieren.

Der Kern des Problems ist banal und deshalb gefährlich: In einer informationsreichen Welt wird Aufmerksamkeit zur Engpassressource. Nicht als „Wert“ im Lifestyle-Sinn, sondern als Bedingung jeder Selbststeuerung. Ohne Aufmerksamkeit gibt es keine Urteilskraft, keine Priorisierung, keine Fähigkeit, eine Entscheidung unter Ungewissheit zu tragen. Was Aufmerksamkeit frisst, frisst nicht nur Zeit, sondern Handlungsspielraum.

Und genau hier kippt Datenschutz oft in eine beruhigende, aber zu kleine Erzählung. Er verteidigt Datenobjekte, während die eigentliche Steuerung längst woanders stattfindet: in Interfaces, Defaults, Friktionen, algorithmischen Priorisierungen, semantischen Vorschlagslandschaften. Dort wird nicht „überzeugt“. Dort wird still vorentschieden, was überhaupt als Option erscheint – und was als irrelevant verdunstet. Wer diese Schicht nicht sieht, diskutiert Privacy wie ein Eigentumsrecht, während in Wahrheit eine Taktungsökonomie entstanden ist, die Selbststeuerung als seltenes Gut behandelt. Das ist der Kategorienfehler: Man schützt Daten und verliert Entscheidungssituationen. Ein System kann datensparsam sein und trotzdem Orientierung beschädigen. Nicht durch Datendiebstahl, sondern durch Gestaltung. Durch permanentes Friktionsmanagement, das Zustimmung wahrscheinlicher macht als Abbruch. Durch Nudges, die nicht argumentieren, sondern routinisieren. Durch semantische Stellvertreterwelten, die nicht mehr repräsentieren, sondern ersetzen: nicht „so ist es“, sondern „so wird es dir angezeigt, bis du es für so hältst“. Dann ist das Subjekt formal geschützt und faktisch in fremde Rhythmen eingespannt.

Dass diese Ebene rechtsrelevant ist, ist kein radikaler Sonderblick. Die Regulatorik kennt das Problem längst, wenn sie deceptive design patterns, Dark Patterns und manipulative Interface-Muster adressiert. Der entscheidende Schritt ist nur, die Konsequenz zu ziehen: Das eigentliche Schutzgut ist nicht die Datenmenge, sondern die Integrität der Entscheidungslage; die Bedingungen, unter denen ein Subjekt unterscheiden, gewichten, verzichten, widersprechen und unter Ungewissheit stimmig handeln kann. Nennen wir das ohne Pathos: Orientierungsfähigkeit.

KI verschärft diese Wahrheit paradox. Sie ist nicht bloß ein Werkzeug, sondern ein Zivilisationsmedium: eine zweite, nicht-menschliche Hemisphäre, die Muster erkennt, Routinen absorbiert, Sprache verdichtet, Optionen simuliert, und dadurch neu definiert, was überhaupt noch als „Entscheidung“ erscheint. Die Frage lautet nicht mehr nur: „Was tue ich?“ Sie lautet immer öfter: „Was wird mir als naheliegend angeboten, bis ich es tue?“ Wer das unterschätzt, hält KI für Produktivität und übersieht, dass sie das Betriebssystem der Aufmerksamkeit verändert.

Hier entsteht die große Gabelung, an der sich zivilisatorische Qualität entscheidet. Für epistemisch integre Akteure kann KI zur Redundanzentzerrung werden: weniger symbolische Reibung, weniger Wiederholung, mehr frei werdende Aufmerksamkeit, mehr Raum für Urteilskraft. KI wird dann zur Ermöglichungsinfrastruktur, die das Subjekt nicht ersetzt, sondern entlastet, damit es wieder entscheiden kann.

Für logonisch konditionierte Effizienzmodi wirkt dieselbe KI als Fluch. Sie erhöht Durchsatz, verstärkt Kurzschlusslogiken, macht falsche Prioritäten effizient und tarnt das als Fortschritt. Das ist die elegante Form des Scheiterns: Man erledigt das Falsche schneller, und ist stolz auf die Geschwindigkeit. In Organisationen heißt das dann „Transformation“, obwohl es nur Beschleunigung ist. Kybernetisch gesprochen: Energie ohne Telos, Strom als Ersatz für Strategie. Das System überhitzt nicht nur technisch, sondern epistemisch: mehr Output bei weniger Urteilskraft.

Regulatorik reagiert darauf mit historischen Schritten. Der EU-AI-Act markiert den Übergang: KI wird nicht mehr nur als Innovation, sondern als Governance-Gegenstand behandelt. Fristen, Pflichten, Risikoklassen, Kompetenzanforderungen, all das ist notwendig. Und dennoch bleibt die entscheidende Frage erstaunlich oft implizit: Welche Orientierungsfunktionen darf KI in einer pluralen Gesellschaft übernehmen und welche dürfen ihr explizit nicht übertragen werden? Wenn diese Frage nicht beantwortet wird, bleibt Regulierung eine Mischung aus Prozesspflege und Symbolpolitik: korrekt, aber nicht ausreichend, um die neue Steuerungsebene zu adressieren.

Spätestens hier wird das Thema politisch, ohne parteipolitisch zu sein. Demokratien leben nicht primär von Datenrechten, sondern von orientierungsfähigen Subjekten. Wenn Aufmerksamkeit chronisch externalisiert wird, wird Urteilskraft zur Ausnahme. Politik degeneriert dann zur Verwaltung von Reiz-Reaktionsketten: schnell, schwarmfähig, moralisch überhitzt und zugleich erstaunlich unfähig, Komplexität auszuhalten. Das ist kein kulturkritischer Reflex, sondern die Konsequenz eines Mediums, das Entscheidung in Taktung übersetzt.

Wer KI ernst nimmt, muss in dieser Lage auch Sicherheit neu verstehen. Sicherheit ist nicht bloß ein IT-Thema, sondern eine Orientierungsbedingung. Denn Sicherheitslücken kompromittieren nicht nur Daten, sondern auch Wahrheitsbedingungen. Wenn Outputs manipulierbar sind, werden Entscheidungen manipulierbar. Wo Entscheidungen manipulierbar werden, wird Aufmerksamkeit zum Werkzeug anderer – selbst dann, wenn niemand „meine Daten“ besitzt. Infrastrukturelle Vertrauenswürdigkeit ist damit keine hübsche Zusatzanforderung, sondern die Voraussetzung, dass Orientierung überhaupt stabil bleiben kann.

Und dann kommt der unterschätzte Kern: Bildung. Aber nicht als Tool-Bildung. Nicht als Prompt-Schablonen, Zertifikatsrituale und das nächste Methoden-Theater. Entscheidend ist etwas Unbequemeres: Wortschatz, Fragekunst, präzise Artikulation, die Fähigkeit, mit Sprache tragfähige Constraints zu bauen, statt nur Wünsche zu tippen. Denn KI-Interaktion ist keine Bestellung. Sie ist Entscheidungsarchitektur in Sprache. Wer keine Begriffe für Nuancen hat, kann keine Nuancen steuern. Wer keine Nuancen steuern kann, wird in KI-Umgebungen steuerbar – selbst bei formal korrektem Datenschutz.

Damit verdichtet sich der Gedanke zu einer zivilisatorischen These, die in Boards und Politik unbequem, aber tragfähig ist: Datenschutz schützt Rechte – Aufmerksamkeitsschutz schützt Bedingungen. Rechte sind unverzichtbar. Bedingungen sind entscheidend. Ein „Orientierungsrecht“ im KI-Zeitalter wäre daher keine poetische Überschrift, sondern die nüchterne Anerkennung eines neuen Schutzguts: das Recht auf Entscheidungssituationen, in denen Autonomie nicht durch Taktung, Sog und semantische Stellvertreter unterlaufen wird. Datenschutz ohne Aufmerksamkeitsschutz ist ein höflicher Irrtum. KI ohne epistemische Integrität ist ein Beschleuniger des Bereits-Falschen.1

Quellen

Herbert A. Simon (1971), Designing Organizations for an Information-Rich World; DSGVO (EU) 2016/679, insbesondere Art. 25 „Data Protection by Design and by Default“.
European Data Protection Board (2023), Guidelines 03/2022 on Deceptive Design Patterns in Social Media Platform Interfaces (v2); Europäische Kommission.
AI Act – Application Timeline; ENISA (2021), Securing Machine Learning Algorithms sowie Cybersecurity of AI and Standardisation; ETSI (2025).
TS 104 223 – Securing Artificial Intelligence (Baseline Cyber Security Requirements for AI Models and Systems).

Anmerkungen

1 Dieser Essay dient der konzeptionellen Einordnung und ersetzt keine Rechtsberatung. Leon Tsvasman.