From Swiss, with Love

Die Schweiz trainiert ein eigenes Large Language Model – komplett Open Source, mit öffentlichen Geldern, am nationalen Supercomputer. Während woanders noch geduldige Strategiepapiere zur digitalen Souveränität geschrieben werden, zeigt Apertus, wie man Alternativen zu den US-Plattformen an den Start bekommt.

Stille Infrastruktur-Revolution

Es gibt einen Moment, in dem du verstehen musst, was gerade passiert. Die Schweiz hat nicht einfach noch ein Open-Source-Modell gebaut – das gibt es ständig. Sie hat etwas anderes getan: Sie hat echte Infrastruktur gebaut. Mit Millionen aus dem öffentlichen Budget, drei Monate Training am National Supercomputing Centre in Lugano, mehrsprachig bis ins Rätoromanische.

 

 

Das 70-Milliarden-Parameter-Modell ist technisch beeindruckend, aber das ist nicht der Punkt. Sondern die reale Verfügbarkeit. Das Land kann jetzt sagen: Wenn wir ein eigenes KI-System brauchen, bauen wir es selbst. Nicht optimal. Nicht besser als GPT-4. Aber verfügbar.

Das ist nicht romantisch. Das ist Sicherheit.

Open Source gegen Abhängigkeit

Hier ist die erste Sache, die wir klären müssen: Die meisten Leute denken, Open Source bedeutet „kostenlos“ oder „von Enthusiasten gemacht“. Beides greift zu kurz.

Apertus ist nicht kostenlos – es hat der Schweiz erhebliche Summen gekostet. Und es ist nicht von Enthusiasten gemacht – es ist ein staatlich finanziertes Infrastruktur-Projekt. Open Source bedeutet vor allem: Transparenz über Abhängigkeit.

Transparenz steht für: ‚Du könntest es verstehen, wenn du wolltest. Du könntest es verändern, wenn du müsstest. Du bist nicht gefangen in Passivität.‘

Das ist der echte Unterschied zu ChatGPT, Gemini oder Claude. Bei diesen Systemen kannst du nicht inspizieren, was unter der Oberfläche passiert. Du kannst keine lokale Alternative starten. Du kannst nicht „nein danke“ sagen und trotzdem weitermachen. Du bist abhängig – im buchstäblichen Sinne. Abhängig von den Servern eines US-Unternehmens, abhängig von deren Policies, abhängig von deren Alignment-Entscheidungen.

Mit Apertus veränderst du diese Asymmetrie nicht vollständig – das 70B-Modell ist immer noch zu groß für normale Hardware. Aber du machst sie verhandlungsbar. Du hast eine Option. Und Optionen sind die Grundlage von Verhandlungsmacht.

Das Transparenz-Paradox

Ja, die meisten werden Apertus nicht lokal laufen lassen. Es ist zu groß, zu komplex, zu ressourcenhungrig.

Das ist nicht aber das Problem. Das ist die Pointe.

Jemand in einer Universität, in einer Behörde, in einem Unternehmen könnte sagen: „Wir schauen uns den Code an. Wir verstehen, wie das Modell trainiert wurde. Wir wissen, welche Daten reingegangen sind. Und basierend auf diesem Verständnis machen wir eine lokale, kleinere Version für unseren Use-Case.“ Das können sie mit ChatGPT nicht. Das ist der Punkt von Open Source – nicht dass jeder alles selber bauen kann, sondern dass niemand dich zwingt, etwas zu nutzen, das du nicht verstehen darfst.

Das ist eine radikale Umkehrung von Asymmetrie. Nicht absolut – aber radikal.

Und hier verbindet sich etwas Interessantes mit deinem ganzen Denken über schleichende Entmachtung (gradual disempowerment): Wenn alle kritischen KI-Systeme nur von außen kommen – schwarz, undurchsichtig, von Konzernen kontrolliert – dann haben Gesellschaften, Organisationen, Staaten nie wirklich ein „opt out“. Sie können nicht sagen „nein“. Sie können nur miteinander konkurrieren um den Zugang zu den gleichen US-Plattformen. Das ist das Gegenteil von Souveränität. Das ist vollständige Abhängigkeit.

Warum das jetzt wichtig wird

Die Schweiz trainiert Apertus nicht um ChatGPT zu ersetzen. Sie tun es, weil sie die Möglichkeit haben wollen, nein zu sagen. Das ist eine subtile, aber kritische Unterscheidung.

In wenigen Jahren werden LLMs in kritische gesellschaftliche Infrastruktur eindringen: Behörden, Gerichte, Schulen, Krankenhäuser. Dann wird es relevant, ob ein Land die technische und intellektuelle Kapazität hat, seine eigenen Systeme zu betreiben. Nicht weil sie besser sind – sondern weil Abhängigkeit in kritischen Systemen ein fundamentales Sicherheitsrisiko ist.

Europa könnte sagen: Alle Länder trainieren ihre eigenen Modelle. Dezentral, transparent, spezialisiert auf lokale Anforderungen. Ein föderales Netzwerk souveräner KI-Infrastruktur. Das hätte Konsequenzen – nicht nur technisch, sondern auch wirtschaftlich und politisch.

Die Schweiz zeigt mit Apertus: Das ist machbar. Nicht besser. Nicht schneller. Aber machbar.

Ein klares Signal

Was Apertus nicht macht: es löst nicht das KI-Alignment-Problem. Es macht Europa nicht zu einem KI-Supermacht. Es ersetzt nicht die Forschungskapazität von OpenAI oder DeepMind.

Was Apertus macht: Es zeigt, dass die Debatte nicht „Wer baut die beste KI?“ sein sollte. Die Debatte sollte sein „Wer kann entscheiden, wie KI in seinen Systemen verwendet wird?“

Das ist die echte Innovation hier. Nicht technologisch, sondern politisch.

With love, from Switzerland. Und mit einem sehr klaren Kalkül.

 
 

swiss-ai.org: Apertus – Das Projekt
huggingface.co: Apertus Modelle (8B und 70B)
publicai.co: Public AI Initiative
heise.de: Apertus im Praxistest – Technische Analyse
NZZ Quantensprung Podcast: Schweizer KI-Strategie
entresol.de: Graduelle Entmächtigung – Warum KI-Integration ein Sicherheitsrisiko ist
entresol.de: Strange Loops und Selbstreferenz – Wie wir Intelligenz verstehen
arxiv.org: The Open-Source Advantage in Large Language Models