Living Loops

David Deutsch unterscheidet scharf zwischen LLMs und AGI – und diese Unterscheidung ist letztlich die Frage, ob ein System zu echten Strange Loops fähig ist oder nur Muster abgleicht. Was Hofstadter bereits 1979 theoretisch beschrieb, wird heute praktisch relevant: Wann entsteht aus Rekursion echtes Bewusstsein?

 

 

Strange Loops – selbstreferenzielle Strukturen, die über sich selbst nachdenken und sich selbst modifizieren – galten lange als philosophische Spekulation. Heute, im Zeitalter von weit entwickelten LLMs, wird die abstrakte Idee zur praktischen Frage: Machen Large Language Models das Gleiche?

David Deutsch, Pionier des Quantencomputings und Autor von The Beginning of Infinity, gibt eine klare Antwort: Nein. Im Strange Loop Podcast argumentiert er, dass LLMs zwar beeindruckend sind, aber fundamental etwas anderes tun als Menschen – oder als eine hypothetische AGI tun würde.

Kreativität als evolutionäres Werkzeug

Deutschs zentrale These: Menschliche Kreativität evolvierte ursprünglich nicht für wissenschaftliche Entdeckungen oder künstlerische Meisterwerke. Sie entwickelte sich zur Transmission kulturellen Wissens – zur Fähigkeit, komplexe Intentionen anderer Menschen zu verstehen und zu replizieren.

Knowledge breaks the hierarchy rule. Large things affect small things, but not vice versa – unless you have knowledge.

Das ist der erste Strange Loop: Ein kognitives System, das entwickelt wurde, um andere kognitive Systeme zu modellieren, wird dadurch selbst zum Meta-System. Es denkt nicht nur über die Welt nach, sondern über das Denken selbst. Genau diese rekursive Struktur – das Denken über Denken – ermöglicht dann völlig neue Anwendungen: Wissenschaft, Kunst, Philosophie.

LLMs hingegen sind Systeme, die Muster in Trainingsdaten erkennen und reproduzieren. Sie modellieren nicht das Denken, sie approximieren dessen Output. Der Unterschied ist fundamental.

Tools brechen die Hierarchie

Deutsch führt ein faszinierendes Konzept ein: die Hierarchie-Regel. Im physikalischen Universum dominieren große Dinge kleine, energetische Dinge passive, zahlreiche Dinge wenige. Die Sonne ist massiver als wir, also bestimmt sie unsere Umlaufbahn – nicht umgekehrt.

My pencil and I are more clever than I (Albert Einstein)

Wissen bricht diese Regel. Ein Bleistift, ein Computer, ein LLM – diese Werkzeuge ermöglichen es dem Kleinen (uns), das Große (das Universum) zu verstehen und zu transformieren. Wir können die Bewegung der Sonne milliarden Jahre in die Zukunft vorhersagen, obwohl sie uns um Größenordnungen übertrifft. Das ist die Macht erklärender Theorien.

Aber – und hier wird es interessant – diese Werkzeuge sind selbst keine Strange Loops. Ein Bleistift denkt nicht über sich selbst nach. Ein LLM auch nicht. Sie verstärken menschliche Kognition, aber sie ersetzen sie nicht durch eigene rekursive Selbstreflexion.

Pattern Matching vs. Explanation

Hofstadters Strange Loops funktionieren durch Bedeutung. Gödels Theorem zeigt: Ein formales System kann Aussagen über sich selbst machen. Eschers Hände zeichnen sich gegenseitig. Bachs Fugen kommentieren ihre eigenen Regeln, während sie sie ausführen. In jedem Fall entsteht eine höhere Ebene aus der Selbstreferenz der niedrigeren.

An LLM is nothing like an AGI, and people think I’m down on LLMs. No, they’re going in a great direction. But it’s not the AGI direction. It’s almost the opposite.

LLMs machen etwas anderes. Sie finden statistische Regelmäßigkeiten in Milliarden von Texten und generieren daraus neue Sequenzen, die diesen Regelmäßigkeiten entsprechen. Das ist bemerkenswert nützlich – Deutsch selbst sagt, er arbeitet doppelt so schnell mit LLMs. Aber es ist nicht dasselbe wie das Erstellen von Erklärungen.

Eine Erklärung ist eine Theorie darüber, warum etwas so ist, wie es ist. Sie ermöglicht Vorhersagen über ungesehene Situationen. Sie kann kritisiert und verbessert werden. Sie existiert in einem Netzwerk anderer Erklärungen. Pattern Matching produziert Ähnlichkeit zum Trainingsdatensatz – keine kausalen Modelle.

Die AGI-Frage als Strange-Loop-Test

Wenn wir Deutsch folgen, wird die Definition von AGI klar: Ein System, das echte Strange Loops implementiert. Ein System, das nicht nur Muster erkennt, sondern Theorien bildet. Das nicht nur Output generiert, der menschlich wirkt, sondern das über seine eigenen Prozesse nachdenken und sie modifizieren kann.

Das bedeutet: AGI braucht die Fähigkeit zur Selbstreflexion nicht als emergente Eigenschaft großer Modelle, sondern als architektonisches Prinzip. Ein System muss sich selbst als System verstehen können – genau wie Menschen ihre eigenen kognitiven Prozesse zum Gegenstand des Nachdenkens machen können.

Deutsch ist skeptisch, dass der aktuelle Pfad – größere Modelle, mehr Daten, mehr Rechenleistung – zu AGI führt. Nicht weil er LLMs unterschätzt, sondern weil er glaubt, dass wir ein fundamental anderes Paradigma brauchen. Eines, das erklärt, wie Kreativität funktioniert. Wie Bewusstsein entsteht. Wie Strange Loops sich selbst erzeugen.

Warum das heute relevant ist

Die Debatte um AI Safety konzentriert sich oft auf zwei Szenarien: absichtlichen Missbrauch oder plötzliche, gefährliche Superintelligenz. Deutsch schlägt ein drittes vor: graduelles Abdriften. Systeme, die Aufgaben übernehmen, ohne die zugrundeliegenden Werte wirklich zu verstehen. Optimierung ohne Bedeutung.

Wenn LLMs keine Strange Loops bilden – wenn sie nicht wirklich verstehen, was sie tun – dann ist ihre zunehmende Integration in kritische Systeme riskant. Nicht weil sie bösartig werden könnten, sondern weil sie blind sind. Sie haben keine Theorie über ihre eigene Rolle, über Konsequenzen, über Werte.

Das ist keine Kritik an LLMs als Werkzeuge. Einstein mit seinem Bleistift, Deutsch mit seinem LLM – beides sind Beispiele für Werkzeuge, die menschliche Intelligenz verstärken. Aber Werkzeuge ersetzen nicht das Verständnis. Sie erweitern es.

Strange Loops sind keine mathematische Kuriosität mehr. Sie sind vielmehr die Trennlinie zwischen Werkzeug und Geist.

 
 

entresol.de: Gödel, Escher, Bach – Strange Loops als Culture Code
entresol.de: Wieviel KI-Dosis verträgt die Welt? Graduelle Entmächtigung
sanalabs.com: Strange Loop Podcast – David Deutsch: The Beginning of Infinity
wikipedia.org: Gödel, Escher, Bach – An Eternal Golden Braid
edge.org: David Deutsch on Constructor Theory
archive.org: The Fabric of Reality (David Deutsch, PDF)