Notaufnahme, 03:17 Uhr. Eine AGI sortiert Fälle: Rot, Gelb, Grün. Die Trefferquote ist statistisch höher als die der Assistenzärzte. Ein Kind mit seltenem Symptom landet auf „beobachten“. Die Oberärztin interveniert, ordnet weitere Tests an – und liegt richtig. Wer trägt Verantwortung? Wer entscheidet beim nächsten Mal? Die eigentliche Revolution durch AGI ist keine Frage von Jobverlusten. Sie betrifft die Autorität. Wenn Entscheidungsvorbereitung nahezu kostenlos wird, fallen Preise und Löhne unten – während sich Macht bei wenigen Infrastrukturanbietern konzentriert. Vor allem aber entsteht eine Legitimationslücke: Je „richtiger“ Maschinen urteilen, desto stärker geraten demokratische Verfahren unter Druck. Produktivität ist billig. Legitimation ist teuer.

AGI ist mehr als ein weiteres Tool, das Texte schreibt oder Bilder erzeugt. Gemeint ist eine „allgemeine Intelligenz“, die zwischen Domänen wechselt, Wissen überträgt, Werkzeuge nutzt und Entscheidungen vorbereitet. Ungleich heutzutage gängiger KIs, welche meist auf einen Bereich wie das Erstellen von Bildern, Zahlen oder Texte spezialisiert sind, kann AGI zwischen Wissen- und Handlungsbereichen wechseln, Wissen kombinieren und daraus neue Lösungen ableiten – ähnlich einem Menschen, der aus Erfahrung, Kontext und Intuition schöpft.Sie analysiert Verträge, strukturiert Risiken, schlägt Diagnosen vor oder simuliert Einsatzpläne – ohne jedes Mal neu trainiert zu werden.

Nicht gemeint ist Science-Fiction-Bewusstsein. Auch nicht totale Autonomie in allen Lebensbereichen. AGI bezeichnet Systeme, die Entscheidungen skalieren und dabei Autorität verschieben. Relevanz erhält das Thema, weil die Grenzkosten der Entscheidungsvorbereitung rapide sinken. Inferenzzeiten werden kürzer, Standardfehler seltener, Iterationen billiger. Was früher Stunden dauerte, geschieht heute in Minuten. Damit rückt nicht die Leistungsfähigkeit der Maschine in den Mittelpunkt, sondern die Frage nach Haftung, Verantwortung und Vertrauen.

Exponentiell

„Exponentiell“ klingt oft nach Marketing. Doch wenn Systeme sich in Richtung AGI entwickeln, beschreibt es eine reale Dynamik: Die Kosten pro Entscheidung könnten in kurzer Zeit drastisch sinken. Aufgaben, die früher Stunden beanspruchten, würden in Minuten erledigt, bald vielleicht in Sekunden. Schon heutige KI zeigt die Tendenz: Verträge lassen sich grob vorsortieren, Bilder automatisch erkennen, Texte in Sekundenschnelle erzeugen. AGI würde diesen Trend verstärken – und ihn von einzelnen Domänen auf ein breites Spektrum übertragen.

Die entscheidende Veränderung wäre die Iterationsgeschwindigkeit. Prototypen, für die Entwickler früher Monate brauchten, könnten über Nacht entstehen. Rückkopplung würde zur Norm: Millionen Interaktionen fließen ein, Fehler werden schneller korrigiert, Verbesserungen beschleunigen sich selbst. Die Wirkung träfe nicht Forschungslabore allein, sondern zentrale Institutionen – Recht, Medizin, Verwaltung, Finanzwesen. Prozesse, die bisher an menschliche Zeit gebunden sind, würden zu einem kontinuierlichen Strom von Entscheidungen. Exponentialität bedeutet, dass sich Handlungsspielräume schneller schließen, weil sich die Geschwindigkeit der Veränderung selbst beschleunigt.

Wenn Entscheidungen nahezu kostenlos werden

Die eigentliche Revolution einer AGI läge nicht in der Informationsverarbeitung, sondern in der Vorbereitung von Entscheidungen. Während heutige Systeme einzelne Schritte unterstützen, könnte AGI-Routinen weitgehend selbst übernehmen – und damit die Grenzkosten für zusätzliche Entscheidungen fast auf null drücken.

In einer Rechtsabteilung etwa: Schon heute können KI-Tools Klauseln markieren. Eine echte AGI würde komplette Risikomatrizen erstellen, Alternativen vorschlagen und Standardfälle eigenständig abwickeln. Der Jurist würde nur noch eingreifen, wenn Besonderheiten auftreten, welche er/sie im täglichen Briefing erkennt.

Ähnliche Verschiebungen wären in Banken oder Kliniken denkbar. Kreditentscheidungen, die traditionell mehrere Ebenen der Prüfung durchliefen, könnten automatisiert vorstrukturiert werden. Radiologische Befunde, die Ärztinnen viel Zeit kosten, ließen sich innerhalb von Sekunden mit hoher Präzision klassifizieren. Die Folge wäre zweischneidig. Entscheidungen würden schneller, billiger, konsistenter – doch die Verantwortung bliebe beim Menschen, der die Maschine nur noch überblickt. Mit der Allgegenwart von Entscheidungen wüchse zugleich die Unsicherheit, wem die Verantwortung der Konsequenzen dieser Entscheidungen eigentlich zuzuschreiben sind.

Mögliche Marktstruktur: Deflation unten, Dominanz oben

Sollte AGI-Wirklichkeit werden, würde der Preisverfall bei Entscheidungen nicht nur einzelne Tätigkeiten verändern, sondern ganze Märkte. An der Basis entstünde Deflation: Dienstleistungen würden billiger, Routinen schneller, Margen kleiner. Gleichzeitig würde sich Macht bei den Infrastrukturanbietern konzentrieren. Die Wertschöpfungskette lässt sich heute schon erahnen: Rechenzentren, Chips, Energie und Daten bilden die Grundlage. Wer diese Ressourcen kontrolliert, wird auch den Markt kontrollieren. Die eigentlichen Gewinne entstünden nicht beim Mittelständler, der effizienter arbeitet, sondern bei den Plattformen, die Zugang zu Intelligenz verkaufen.

Das geschieht über APIs – Schnittstellen, über die Unternehmen Aufgaben an ein Modell auslagern. Jeder Aufruf („Analysiere diesen Vertrag“, „klassifiziere dieses Bild“) kostet Geld, das an den Anbieter fließt. Ein Szenario: Ein Unternehmen halbiert seine Backoffice-Kosten – also administrative oder Planung und Controlling bezogene Tätigkeiten im Hintergrund – mithilfe von AGI. Rechnungen, Verträge, Abrechnungen – alles läuft automatisiert. Die Preise sinken, doch die Marge wandert zu dem Konzern, der die API bereitstellt. Netzwerkeffekte und Skalenkosten würden die Konzentration verstärken. Open-Source-Modelle könnten gegensteuern, doch ohne Zugang zu Daten, Kapital und Energie blieben ihre Möglichkeiten begrenzt. Das strukturelle Muster wäre eine Schere: Deflation unten, Dominanz oben.

Arbeit & Identität: Vom Berufsbild zur Aufsicht

Heute unterstützen spezialisierte KI-Systeme einzelne Schritte – Bewerbungen vorsortieren, Formulare prüfen, Daten analysieren. Der Schritt zur AGI wäre größer: Routinetätigkeiten würden umfassend übernommen, während Menschen in die Rolle der Aufsicht rutschen.

Ein denkbares Szenario in der Verwaltung: Anträge werden von AGI komplett ausgefüllt, fehlende Unterlagen markiert, Bearbeitungsschritte vorgeschlagen. Beschäftigte prüfen nur noch Sonderfälle. In Banken könnte ein ähnliches Muster entstehen. Scoring-Modelle würden Bonität und Risiko automatisch bewerten. Der Mitarbeiter würde am Ende nur noch bestätigen oder Ausnahmen prüfen. In der Industrie ließe sich Wartung weitgehend automatisieren: Sensoren liefern Daten, AGI erstellt Pläne, Techniker greifen bei Abweichungen ein.

Das Muster wäre immer gleich: Routine wandert zur Maschine, Verantwortung bleibt beim Menschen. Damit verlören einfache Tätigkeiten an Wert, während neue Rollen höhere Qualifikation erforderten. Der Übergang wäre ungleich: Routinen verschwänden schnell, neue Aufgaben entstünden langsamer. Arbeit ist mehr als Einkommen. Sie stiftet Status und Selbstwert. Wenn Kompetenz externalisiert wird, bleibt der Mensch als Aufseher zurück – mit weniger Einfluss, aber voller Haftung.

Gesellschaftsvertrag 2.0

Die Entstehung von einer tatsächlich kompetenten „allgemeinen Intelligenz“ würde nicht nur Märkte und Institutionen verschieben, sondern ganz offenbar auch die Grundfrage des gesellschaftlichen Zusammenlebens. Entscheidungen, die bisher durch Menschen getroffen wurden, könnten von Maschinen vorbereitet oder vorweggenommen werden. Damit entstünde die Notwendigkeit, Grenzen neu zu ziehen. Eine dieser Grenzen betrifft Grundrechte. Kein System sollte über Freiheitseinschränkungen, medizinische Eingriffe oder den Einsatz staatlicher Gewalt allein entscheiden dürfen. Auch wenn Prognosen treffsicher sind, bleibt die Zumutbarkeit eine menschliche Abwägung.

Ebenso zentral wäre die Nachvollziehbarkeit bzw. eine Transparenz. Maschinelle Entscheidungen müssten protokolliert werden – Daten, Eingaben, Versionen des Modells. Nur so ließe sich prüfen, wie ein Urteil zustande kam und ob es korrigiert werden kann. Reversibilität wird zu einem Kernprinzip: Wer von einer Entscheidung betroffen ist, braucht die Möglichkeit des Widerspruchs. Haftung ist der dritte Pfeiler. Der Betreiber, der Anwender, die Institution – jeder muss in einer klaren Kette Verantwortung tragen. Ohne diese Zurechnung verliert das System Legitimität, selbst wenn es objektiv besser entscheidet als ein Mensch.

Der Gesellschaftsvertrag müsste also neu formuliert werden. AGI kann Entscheidungen vorbereiten, vielleicht schneller und konsistenter. Doch Autorität entsteht nicht aus Effizienz, sondern aus Verfahren, Haftung und dem Recht auf Widerspruch.

Roadmap

Wenn AGI Realität wird, darf die Gestaltung nicht dem Zufall überlassen bleiben. Politik und Unternehmen brauchen einen Fahrplan, bevor Systeme voll skaliert sind. Entscheidend ist, Legitimität parallel zur Technologie aufzubauen.

Der Ist-Zustand ist ernüchternd. Erste regulatorische Ansätze wie die EU-KI-Verordnung existieren, sie unterscheiden zwischen Risikoklassen und schreiben Transparenzpflichten vor. Doch Haftungsfragen sind weitgehend offen, und zentrale Infrastrukturen – von Chips bis Rechenzentren – liegen beinahe ausschließlich in wenigen und gebündelten Händen. Pilotprojekte in Verwaltungen liefern Erfahrungen, aber keine Verbindlichkeit. Ausbildungsprogramme für Aufsicht und Audit fehlen fast vollständig.

Das Soll sähe anders aus. Staaten müssten Haftungsketten eindeutig regeln, Protokollierungspflichten festschreiben und Widerspruchsrechte institutionalisieren. Öffentliche Infrastrukturen wie Rechenzentren oder Datenräume sollten als strategische Ressourcen betrachtet werden. Parallel dazu müssten Ausbildungsprogramme für Kontrollrollen geschaffen werden, damit Entscheidungen nicht stillschweigend an Maschinen übergehen. Unternehmen müssten Risikomapping verbindlich einführen, Human-in-the-Loop klar definieren, Anbieterabhängigkeiten reduzieren und gezielt in Weiterbildung investieren.

Doch jedes Soll birgt ein Dilemma. Wie im bereits verabschiedeten EU „AI-Act“ droht zu hohe Regulierung Innovation zu bremsen. Unternehmen könnten Systeme dann meiden, Forschung abwandern, Investitionen ausbleiben. Doch auch zu wenig Regulierung wiederum lässt Lücken, in denen sich Macht unkontrolliert konzentriert. Der Spielraum liegt dazwischen: Schutzmechanismen schaffen, ohne eine Markt-Dynamik abzuwürgen.

Die zentrale Lehre lautet: Je früher Leitplanken gesetzt werden, desto größer ist die Chance, dass AGI-Werkzeug bleibt und nicht selbst zur Instanz wird. Aber Leitplanken müssen so gestaltet sein, dass sie Sicherheit schaffen, ohne den Weg zu blockieren. Gestaltung bedeutet, Verfahren vor Technik zu stellen – mit Raum zum Experimentieren, Anpassen und Verbessen, statt mit starrem Korsett.

Produktivität ist billig, Legitimation ist teuer

Zurück in die Notaufnahme. Heute kann KI Bilder erkennen, Befunde vorschlagen, Formulare ausfüllen. Doch sie bleibt begrenzt, spezialisiert, fehleranfällig. Eine AGI hingegen würde Fälle domänenübergreifend bewerten, Muster kombinieren und Entscheidungen in hoher Geschwindigkeit vorbereiten. In beiden Szenarien gilt: Die Maschine liefert Daten, die Autorität liegt – zumindest noch – beim Menschen, der die Entscheidung erklärt und eben auch trägt.

Genau hier entscheidet sich die Zukunft. Effizienzgewinne sind sichtbar, auch ohne AGI. Doch ob eine Gesellschaft maschinelle Urteile akzeptiert, hängt nicht von ihrer technischen Richtigkeit ab, sondern davon, ob sie legitim sind – also nachvollziehbar, haftbar und durch Verfahren abgesichert, die Menschen anerkennen.

Die offenen Fragen bleiben: Wie viel „Richtigkeit“ darf Legitimation verdrängen? Wem gehören die Entscheidungsprotokolle? Und wie werden die Gewinne einer deflationären Ökonomie verteilt, wenn Intelligenz zur Infrastruktur wird?

Produktivität ist billig. Legitimation ist teuer. Und an dieser Stelle entscheidet sich, wie viel Autorität Menschen behalten – und wie viel sie an Maschinen abtreten.