Schweiz veröffentlicht 100% offenes AI-Modell

Stellen Sie sich vor, ein Land setzt ein klares Zeichen für Transparenz und Innovation in der Künstlichen Intelligenz (KI): Die Schweiz hat mit der Veröffentlichung von „Apertus“ ein vollständig offenes Sprachmodell geschaffen, das nicht nur technisch beeindruckend ist, sondern auch ethische Standards setzt. Dieses Modell, entwickelt von führenden Institutionen wie der ETH Zürich, der EPFL Lausanne und dem Schweizerischen Nationalen Supercomputing-Zentrum (CSCS), markiert einen Meilenstein in der AI-Forschung. Es ist zu 100 Prozent offen – von der Architektur über die Trainingsdaten bis hin zum Quellcode – und bietet eine Alternative zu den oft geschlossenen Modellen großer Tech-Konzerne wie OpenAI oder Google. In einer Zeit, in der KI die Welt verändert, von der Wirtschaft bis zur Gesellschaft, kommt Apertus genau zum richtigen Moment. Es stärkt die digitale Souveränität der Schweiz und könnte globale Standards für offene KI setzen. In diesem detaillierten Artikel werfen wir einen umfassenden Blick auf die Entstehung, die technischen Details, die Auswirkungen und die Zukunftsperspektiven dieses bahnbrechenden Projekts. Wir greifen auf aktuelle Berichte, Expertenzitate und Statistiken zurück, um zu zeigen, warum Apertus nicht nur ein technisches Meisterwerk ist, sondern auch ein Statement für verantwortungsvolle KI-Entwicklung. Der globale AI-Markt wächst rasant: Bis 2030 könnte er 1,8 Billionen US-Dollar erreichen, und offene Modelle wie Apertus spielen eine zunehmend wichtige Rolle in diesem Ökosystem. /Quelle/

Die Entstehung von Apertus: Ein Schweizer Meisterwerk der Zusammenarbeit

Die Geschichte von Apertus beginnt mit der Swiss AI Initiative, einer ambitionierten Kooperation, die im Dezember 2023 von der EPFL und der ETH Zürich ins Leben gerufen wurde. Diese Initiative, die von mehr als zehn akademischen Institutionen in der Schweiz unterstützt wird, zielt darauf ab, offene und vertrauenswürdige KI zu fördern. Mit über 800 Forschenden und Zugang zu mehr als 20 Millionen GPU-Stunden pro Jahr ist sie eines der größten Open-Science-Projekte weltweit. /Quelle/ Finanziert wird sie vom ETH-Rat, dem strategischen Leitungsgremium des ETH-Bereichs, für die Periode 2025 bis 2028. Der Name „Apertus“ – lateinisch für „offen“ – spiegelt den Kern der Initiative wider: Transparenz und Zugänglichkeit für alle.

Die Entwicklung begann mit der Nutzung des Supercomputers „Alps“ am CSCS in Lugano. Dieser Hochleistungsrechner, der speziell für KI-Anwendungen gebaut wurde, ermöglichte das Training des Modells mit 100 Prozent kohlenstoffneutraler Energie. Die Zusammenarbeit mit Partnern wie NVIDIA und HPE/Cray, die über 15 Jahre andauert, war entscheidend für die Skalierbarkeit. Im Spätsommer 2025, genauer gesagt am 2. September, wurde Apertus veröffentlicht – ein Datum, das in der Schweizer Tech-Szene als Meilenstein gefeiert wird. Joshua Tan, ein führender Befürworter öffentlicher KI-Infrastruktur, beschreibt es so: „Apertus ist der führende öffentliche AI-Modell: Gebaut von öffentlichen Institutionen für das öffentliche Interesse. Es ist der beste Beweis, dass KI eine öffentliche Infrastruktur sein kann, wie Autobahnen, Wasser oder Strom.“. /Quelle/

Apertus ist der führende öffentliche AI-Modell: Gebaut von öffentlichen Institutionen für das öffentliche Interesse. Es ist der beste Beweis, dass KI eine öffentliche Infrastruktur sein kann, wie Autobahnen, Wasser oder Strom.

Die Motivation hinter Apertus ist klar: Die Schweiz will ihre digitale Souveränität stärken. In einer Welt, in der KI-Modelle aus den USA oder China dominieren, bietet Apertus eine europäische Alternative, die den strengen Datenschutz- und Urheberrechtsgesetzen der EU und der Schweiz entspricht. Es wurde ausschließlich mit öffentlich verfügbaren Daten trainiert, und die Crawler respektierten maschinell lesbare Opt-out-Anfragen von Websites. /Quelle/ Das unterscheidet es von Kontroversen um Modelle wie ChatGPT, die mit urheberrechtlich geschützten Inhalten trainiert wurden und Klagen nach sich zogen.

Technische Details: Was macht Apertus so besonders?

Apertus ist kein gewöhnliches KI-Modell – es ist ein Large Language Model (LLM) mit zwei Varianten: Eine mit 8 Milliarden Parametern und eine mit 70 Milliarden Parametern. Es wurde von Grund auf neu trainiert, ohne auf bestehende Modelle wie Llama oder Mistral zurückzugreifen, was es zu einem echten Original macht. Das Training umfasste beeindruckende 15 Billionen Tokens – das sind Datenfragmente, die aus Texten extrahiert werden – über mehr als 1.000 Sprachen. Besonders hervorzuheben ist die Multisprachigkeit: 40 Prozent der Daten stammen aus nicht-englischen Sprachen, inklusive Schweizerdeutsch und Rätoromanisch, was Apertus zu einem der vielfältigsten Modelle macht. /Quelle/

Die Offenheit ist absolut: Nicht nur die Model Weights (Gewichte), sondern auch die Architektur, die Trainingsdaten, der Quellcode und sogar Zwischen-Checkpoints sind unter der Apache 2.0-Lizenz verfügbar. Das erlaubt kommerzielle Nutzung, Forschung und Bildung ohne Einschränkungen. Im Vergleich zu Modellen wie Grok von xAI oder Claude von Anthropic, die nur teilweise offen sind, setzt Apertus neue Standards. Es ist vergleichbar mit Meta’s Llama 3 aus 2024, aber mit einem Fokus auf Transparenz und europäische Compliance.

Technisch basiert Apertus auf Transformer-Architekturen, die für generative KI standardmäßig sind. Es kann Chatbots, Übersetzungstools, Bildungsanwendungen und mehr erstellen. Swisscom, als strategischer Partner, integriert es bereits in seine sovereign AI-Plattform, wo es für Unternehmen verfügbar ist. Für Entwickler ist es über Hugging Face herunterladbar, und Hackathons während der Swiss {ai} Weeks (bis 5. Oktober 2025) bieten Testmöglichkeiten. Internationale Nutzer können es über das Public AI Inference Utility zugreifen.

Ein rares Detail: Das Training auf „Alps“ nutzte über 10.000 NVIDIA GH200 GPUs, was die Effizienz ermöglichte. Die Entwickler betonen, dass Apertus Halluzinationen minimiert und Bias reduziert, da die Daten sorgfältig kuratiert wurden – ein Aspekt, der in Fachforen wie Reddit diskutiert wird, wo Nutzer die Offenheit loben.

Globale Auswirkungen: Warum Apertus die AI-Landschaft verändert

Apertus ist mehr als ein nationales Projekt – es hat globale Relevanz. In einer Zeit, in der AI-Monopole von US-Firmen wie OpenAI (mit ChatGPT) oder Google (mit Gemini) die Debatte dominieren, bietet die Schweiz eine ethische Alternative. Es adressiert Bedenken zu Datenschutz, Urheberrecht und Bias. Die Schweizer Bankenvereinigung sieht großes Potenzial, da es den lokalen Bankgeheimnis- und Datenschutzregeln entspricht. /Quelle/ Unternehmen, die EU-Regulierungen wie die AI Act einhalten müssen, könnten Apertus bevorzugen, da es transparent ist und keine versteckten Risiken birgt.

Weltweit boomt der offene AI-Markt: Open-Source-Modelle wie Llama oder Mistral haben gezeigt, dass sie Innovation fördern. Apertus geht weiter, indem es die gesamte Trainingskette offenlegt, was Reproduzierbarkeit ermöglicht – ein seltener Einblick in die „Black Box“ von KI. In Asien, wo Modelle wie DeepSeek aus China dominieren, könnte Apertus als neutrale Option dienen. In Europa stärkt es die digitale Souveränität, wie es die Schweizer Regierung betont.

Statistiken unterstreichen den Impact: Der globale LLM-Markt wächst mit 30 % CAGR bis 2030, und offene Modelle machen 40 % der Adoption aus. In der Schweiz selbst könnte Apertus die Wirtschaft ankurbeln: KI könnte bis 2030 15 % des BIP beitragen. Experten wie Leandro von Werra von Hugging Face nennen es „eine der ambitioniertesten Open-Source-Modelle“. /Quelle/

Ein globaler Aspekt: In Entwicklungsregionen wie Afrika könnte Apertus durch seine Multisprachigkeit Inklusion fördern, z. B. in Bildungstools für unterversorgte Sprachen. Im Vergleich zu Chinas Qwen oder Frankreichs Mistral ist Apertus der erste „öffentliche“ Modell, gebaut für das Gemeinwohl.

Herausforderungen und Kritik: Nicht alles ist perfekt

Trotz der Euphorie gibt es Herausforderungen. Apertus ist ressourcenintensiv: Zum Ausführen braucht man Server oder Cloud-Ressourcen, was für Hobbyisten schwierig ist. In Tests zeigt es Stärken in Sprachvielfalt, aber Schwächen in Logikaufgaben, wie ein Testbericht von 20 Minuten berichtet. /Quelle/ Kritiker bemängeln, dass es trotz Offenheit Bias erben könnte, da Trainingsdaten aus dem Web stammen – ein Problem, das in UNESCO-Berichten diskutiert wird.

Regulatorisch: Die Schweiz muss mit EU-Regeln wie der DSGVO balancieren, was den Export erleichtert, aber Haftungsfragen aufwirft. Dennoch überwiegen die Vorteile: Als Open-Source-Modell kann die Community es verbessern, was zu schnellerer Innovation führt.

Zukunftsperspektiven: Was kommt als Nächstes?

Apertus ist der Anfang: Zukünftige Versionen sollen effizienter sein, domänenspezifische Anpassungen (z. B. für Recht, Klima, Gesundheit) integrieren und Multimodalität (Bilder, Video) hinzufügen. /Quelle/ Die Swiss AI Initiative plant Erweiterungen, finanziert durch weitere Investitionen. Bis 2030 könnte der Markt für offene KI 7,2 Billionen USD erreichen, und Apertus könnte ein Vorreiter sein.

Zitat: „Apertus verändert, wie wir KI als öffentliches Gut sehen“, sagt Thomas Schulthess, Direktor des CSCS.

Zusammenfassend: Apertus macht KI zugänglich und ethisch, von der Schweiz für die Welt. Es birgt Risiken, aber die Chancen überwiegen. Haben Sie Erfahrungen damit? Teilen Sie in den Kommentaren!

Vorheriger Artikel

Googles AI-Suche stellt Web-Publisher auf den Kopf

Nächster Artikel

Wissenschaftliche Durchbrüche in AI und Tech: Anfang September 2025

Kommentar schreiben

Hinterlasse einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert