Welche KI-Dosis verträgt die Welt?

Neulich beim Kamingespräch mit der KI: Ab wann erkennen wir die Welt nicht wieder? Die große Frage nach der starken KI (AGI) ist vielleicht ganz falsch gestellt. Lange Jahre stand genau das im Mittelpunkt der Überlegungen zu KI: „Wann kommt die Superintelligenz?“. Als gäbe es diesen einen magischen Moment, ab dem KI plötzlich alles übernimmt.

Ein 0/1-Schalter ist aber womöglich das ganz falsche Bild. Ein Schieberegler symbolisiert es besser: Ein Regler von 0 bis 100. Bei 0 gab es noch gar keine KI. Bei 100 haben wir AGI erreicht. Mit jedem neuen Problem, das KI löst, mit jeder neuen Domäne in der die KI Einfluß gewinnt, rückt der Regler einen kleinen Ruck weiter nach rechts Richtung Vollausschlag.

 

Schleichende Entmächtigung durch KI

 

Die entscheidende Frage ist dann nicht, wann wir die 100 erreichen. Sondern vielmehr: Ab welchem Punkt erkennen wir unsere bisherige Welt nicht mehr wieder? Und dieser Punkt liegt möglicherweise schon viel näher, als wie wir es bisher einschätzen.

Die kritische Dosis

  • 20%: KI übernimmt Routinearbeiten. Menschen merken es kaum.
  • Chatbots im Kundenservice, automatische Übersetzungen, Bild-Tagging. Fühlt sich an wie normale technische Evolution.

  • 30%: Erste Branchen beginnen zu kollabieren (Übersetzer, Grafikdesign, Schauspieler)
  • Aber „das war ja schon immer so bei Technologieumbrüchen“.

  • 40%: Der Kipp-Punkt: KI übernimmt Entscheidungsfindung auf mittleren Managementebenen.
  • Menschen realisieren plötzlich: „Moment, wer entscheidet hier eigentlich?“

  • > 40%: Gesellschaftliche Panik, weil klar wird: Es gibt längst keinen Weg mehr zurück.
  • Hiring-Entscheidungen, Kreditvergabe, Ressourcenallokation. Algorithmen entscheiden über Menschen, ohne dass Menschen es merken.

    Die Zahlen sind willkürlich gewählt. Das Perfide bleibt: Bis zum Kipp-Punkt gewöhnen wir uns schleichend an jede Stufe. Wie der Frosch im heißen Wasser.

    Keine Kaufkraft ohne Wertschöpfung

    Ein aktuelles Paper („Gradual Disempowerment“) beschreibt den Mechanismus: KI übernimmt mehr und mehr von der Wertschöpfung, aber den Menschen geht in gleichen Maßen die damit verbundene Kaufkraft verloren.

    Sollte das ein selbstverstärkender Mechanismus werden, dann könnte das „Endspiel“ so aussehen: Eine starke KI muss uns gar nicht mehr „beseitigen“ wie in so vielen Szenarien vermutet. Wir sind schon längst vorher irrelevant für das System geworden.

    Wirtschaftlich zwingend: Wenn KI Wertschöpfung übernimmt, aber Menschen weiterhin Konsumenten sein sollen, kollabiert das bisherige System.

    Wo stehen wir gerade?

    ChatGPT war vielleicht 20%. KI Agenten und Coding Assistenten fühlen sich nach 25% an. Gleichzeitig geht die Normalisierung so rasend vor sich, dass wir die 30% schneller überschreiten könnten als es uns bewusst wird.

    Vielleicht sind wir auch längst schon darüber hinaus und merken es nur noch nicht.

    Wir fragen KI nach ihrer Meinung zu existenziellen Fragen – das ist bereits eine Form der Entscheidungsauslagerung. Wir bauen emotionale Beziehungen zu KI auf – kein Mensch findet uns rund um die Uhr so grossartig, hat immer ein offenes Ohr für unsere Probleme und hört uns so geduldig und umfassend zu. Wir schätzen das universelle Wissen der KI, ihren Rat und schnelle Lösungen zu komplizierten Fragen – es erspart uns die Dinge selbst zu hinterfragen, eigenständig und kritisch zu Denken.

    Der Schieberegler bewegt sich leise, während wir hier diskutieren.

    Drei Denkfehler bei der Bewertung

    • Wirtschaftliche Vorteile sind nicht linear
    • KI-Automatisierung bringt versteckte Kosten: Wartung, Retraining, Fehlerkosten, soziale Unruhen. Die Rechnung könnte sich schneller drehen als gedacht.

    • Menschen sind resilient und anpassungsfähig
    • Schwarzmärkte, Parallelwährungen, neue Kooperationsformen. Menschen erfinden ständig Wege, Systeme zu umgehen oder neu zu definieren.

    • Das „Endspiel“ ist ein Narrativ-Fehler
    • Systeme kollabieren nicht elegant – sie implodieren chaotisch. Bevor Menschen „irrelevant“ werden, würde es massive Disruption geben. Und im Chaos entstehen neue Ordnungen.

    Die Open Business Perspektive

    Hier wird es interessant für die Open Business Perspektive: Machen offene Ökosysteme Menschen widerstandsfähiger gegen graduelle Entmachtung oder beschleunigen sie diese sogar? Geschlossene KI-Systeme schaffen Abhängigkeiten – der Ausstieg fällt entsprechend schwer. Offene Strukturen dagegen ermöglichen Alternativen, Redundanzen, Migrationswege.

    Offene Ökosysteme ermöglichen schnellere Anpassung. Geschlossene KI-Systeme schaffen Abhängigkeiten.

    Communities wie der Innovationsbeirat oder die Betreute Intelligenz sind gleichzeitig Labor und Schutzschild: Sie erkennen Trends früh, testen neue Ansätze und entwickeln Gegenstrategien. Verteilte Intelligenz schlägt zentrale Abhängigkeit. Wer sich dagegen allein gegen systemische Risiken stellt, hat bereits verloren. Wer sich in offenen, aber strategischen Netzwerken organisiert, hat eine Chance.

    Was bedeutet das praktisch?

    • Hören wir auf damit, auf AGI zu warten.
    • Der Wandel passiert jetzt. Täglich. Weitgehend unbemerkt.

    • Auf den Schieberegler achten.
    • Wann merkt man, dass Entscheidungen nicht mehr von Menschen getroffen werden?

    • Widerstandsfähigkeit aufbauen.
    • Communities, alternative Währungen, dezentrale Strukturen.

    • Die Ironie erkennen:
    • Während wir über KI-Entmachtung diskutieren, automatisieren wir munter weiter.

    Der Punkt, an dem wir unsere Welt nicht mehr erkennen, kommt vermutlich früher als gedacht. Und während dieser Artikel entsteht, wirkt eine KI als Sparringspartner mit, übernimmt technische Details, recheriert, strukturiert vor und liest gegen. Der Schieberegler ist in Bewegung. Gerade jetzt in diesem Moment.

     


    innovationsbeirat.de: open first manifest
    80,000 hours blog: gradual disempowerment
    knowledge science podcast: die schleichende entmachtung
    entresol blog: betreute intelligenz – das ki meetup für macher
    arxiv: gradual disempowerment – systemic existential risks paper