Welche KI-Dosis verträgt die Welt?
Neulich beim Kamingespräch mit der KI: Ab wann erkennen wir die Welt nicht wieder? Die große Frage nach der starken KI (AGI) ist vielleicht ganz falsch gestellt. Lange Jahre stand genau das im Mittelpunkt der Überlegungen zu KI: „Wann kommt die Superintelligenz?“. Als gäbe es diesen einen magischen Moment, ab dem KI plötzlich alles übernimmt.
Ein 0/1-Schalter ist aber womöglich das ganz falsche Bild. Ein Schieberegler symbolisiert es besser: Ein Regler von 0 bis 100. Bei 0 gab es noch gar keine KI. Bei 100 haben wir AGI erreicht. Mit jedem neuen Problem, das KI löst, mit jeder neuen Domäne in der die KI Einfluß gewinnt, rückt der Regler einen kleinen Ruck weiter nach rechts Richtung Vollausschlag.
Die entscheidende Frage ist dann nicht, wann wir die 100 erreichen. Sondern vielmehr: Ab welchem Punkt erkennen wir unsere bisherige Welt nicht mehr wieder? Und dieser Punkt liegt möglicherweise schon viel näher, als wie wir es bisher einschätzen.
Die kritische Dosis
- 20%: KI übernimmt Routinearbeiten. Menschen merken es kaum.
- 30%: Erste Branchen beginnen zu kollabieren (Übersetzer, Grafikdesign, Schauspieler)
- 40%: Der Kipp-Punkt: KI übernimmt Entscheidungsfindung auf mittleren Managementebenen.
- > 40%: Gesellschaftliche Panik, weil klar wird: Es gibt längst keinen Weg mehr zurück.
- Wirtschaftliche Vorteile sind nicht linear
- Menschen sind resilient und anpassungsfähig
- Das „Endspiel“ ist ein Narrativ-Fehler
- Hören wir auf damit, auf AGI zu warten.
- Auf den Schieberegler achten.
- Widerstandsfähigkeit aufbauen.
- Die Ironie erkennen:
Chatbots im Kundenservice, automatische Übersetzungen, Bild-Tagging. Fühlt sich an wie normale technische Evolution.
Aber „das war ja schon immer so bei Technologieumbrüchen“.
Menschen realisieren plötzlich: „Moment, wer entscheidet hier eigentlich?“
Hiring-Entscheidungen, Kreditvergabe, Ressourcenallokation. Algorithmen entscheiden über Menschen, ohne dass Menschen es merken.
Die Zahlen sind willkürlich gewählt. Das Perfide bleibt: Bis zum Kipp-Punkt gewöhnen wir uns schleichend an jede Stufe. Wie der Frosch im heißen Wasser.
Keine Kaufkraft ohne Wertschöpfung
Ein aktuelles Paper („Gradual Disempowerment“) beschreibt den Mechanismus: KI übernimmt mehr und mehr von der Wertschöpfung, aber den Menschen geht in gleichen Maßen die damit verbundene Kaufkraft verloren.
Sollte das ein selbstverstärkender Mechanismus werden, dann könnte das „Endspiel“ so aussehen: Eine starke KI muss uns gar nicht mehr „beseitigen“ wie in so vielen Szenarien vermutet. Wir sind schon längst vorher irrelevant für das System geworden.
Wirtschaftlich zwingend: Wenn KI Wertschöpfung übernimmt, aber Menschen weiterhin Konsumenten sein sollen, kollabiert das bisherige System.
Wo stehen wir gerade?
ChatGPT war vielleicht 20%. KI Agenten und Coding Assistenten fühlen sich nach 25% an. Gleichzeitig geht die Normalisierung so rasend vor sich, dass wir die 30% schneller überschreiten könnten als es uns bewusst wird.
Vielleicht sind wir auch längst schon darüber hinaus und merken es nur noch nicht.
Wir fragen KI nach ihrer Meinung zu existenziellen Fragen – das ist bereits eine Form der Entscheidungsauslagerung. Wir bauen emotionale Beziehungen zu KI auf – kein Mensch findet uns rund um die Uhr so grossartig, hat immer ein offenes Ohr für unsere Probleme und hört uns so geduldig und umfassend zu. Wir schätzen das universelle Wissen der KI, ihren Rat und schnelle Lösungen zu komplizierten Fragen – es erspart uns die Dinge selbst zu hinterfragen, eigenständig und kritisch zu Denken.
Der Schieberegler bewegt sich leise, während wir hier diskutieren.
Drei Denkfehler bei der Bewertung
KI-Automatisierung bringt versteckte Kosten: Wartung, Retraining, Fehlerkosten, soziale Unruhen. Die Rechnung könnte sich schneller drehen als gedacht.
Schwarzmärkte, Parallelwährungen, neue Kooperationsformen. Menschen erfinden ständig Wege, Systeme zu umgehen oder neu zu definieren.
Systeme kollabieren nicht elegant – sie implodieren chaotisch. Bevor Menschen „irrelevant“ werden, würde es massive Disruption geben. Und im Chaos entstehen neue Ordnungen.
Die Open Business Perspektive
Hier wird es interessant für die Open Business Perspektive: Machen offene Ökosysteme Menschen widerstandsfähiger gegen graduelle Entmachtung oder beschleunigen sie diese sogar? Geschlossene KI-Systeme schaffen Abhängigkeiten – der Ausstieg fällt entsprechend schwer. Offene Strukturen dagegen ermöglichen Alternativen, Redundanzen, Migrationswege.
Offene Ökosysteme ermöglichen schnellere Anpassung. Geschlossene KI-Systeme schaffen Abhängigkeiten.
Communities wie der Innovationsbeirat oder die Betreute Intelligenz sind gleichzeitig Labor und Schutzschild: Sie erkennen Trends früh, testen neue Ansätze und entwickeln Gegenstrategien. Verteilte Intelligenz schlägt zentrale Abhängigkeit. Wer sich dagegen allein gegen systemische Risiken stellt, hat bereits verloren. Wer sich in offenen, aber strategischen Netzwerken organisiert, hat eine Chance.
Was bedeutet das praktisch?
Der Wandel passiert jetzt. Täglich. Weitgehend unbemerkt.
Wann merkt man, dass Entscheidungen nicht mehr von Menschen getroffen werden?
Communities, alternative Währungen, dezentrale Strukturen.
Während wir über KI-Entmachtung diskutieren, automatisieren wir munter weiter.
Der Punkt, an dem wir unsere Welt nicht mehr erkennen, kommt vermutlich früher als gedacht. Und während dieser Artikel entsteht, wirkt eine KI als Sparringspartner mit, übernimmt technische Details, recheriert, strukturiert vor und liest gegen. Der Schieberegler ist in Bewegung. Gerade jetzt in diesem Moment.
—
innovationsbeirat.de: open first manifest
80,000 hours blog: gradual disempowerment
knowledge science podcast: die schleichende entmachtung
entresol blog: betreute intelligenz – das ki meetup für macher
arxiv: gradual disempowerment – systemic existential risks paper