Alleinstellungsmerkmal der Schweizer KI Apertus: Transparenz und nochmals Transparenz
Nun hat auch die Schweiz ihre eigene Künstliche Intelligenz KI. „Apertus“ heisst die neue KI aus dem Alpenland und wurde von der ETH Zürich und der EPFL veröffentlicht. „Apertus“ bedeutet in Latein „offen“. Und das ist auch das Zentrale der Schweizer KI: Sie ist komplett transparent und quelloffen. Auch die Trainingsdaten wurden veröffentlicht und, und das ist das besondere der gesetzestreuen Schweizer KI: Sie respektiert den Schutz von Websites und Inhalten, die nicht als Teil der KI verwurstet werden möchten.
15 Billionen Token als Training
Das sogenannte Large Language Model LLM wurde auf dem Schweizer Supercomputer ALPS am CSCS „Centro Svizzero di Calcolo Scientifico“ in Lugano trainiert und gehostet. ALPS wurden 15’000 Milliarden Token verfüttert um Apertus zu trainieren. 60% davon englischsprachig, 40% nicht-englischsprachig.
Apertus spricht Schweizerdeutsch – wirklich?
Zum Beispiel wurde auch Schweizerdeutsch und sogar Rätoromanisch in das Training der KI eingebaut um die Swissness des Projekts zu betonen und sich etwas von den anderen US-KI’s abzugrenzen. In der Praxis scheint das noch etwas zu happern mit dem Schweizerdeutsch, aber das Gute an der Künstlichen Intelligenz ist ja, dass sie ständig dazulernt. Es kann also nur noch besser werden. Trainieren Sie Apertus fleissig auf Schweizerdeutsch und hauen Sie der KI Ihre abgedrehtesten Mundartbegriffe um die Ohren, bis die Server glühen damit das Sprachmodell möglichst viele Schweizerdeutsche Inputs erhält 🙂
Auch die KI Apertus mag HappyTimes und findet positive Nachrichten toll
Wir haben den Test ja schon mit der führenden ChatGPT in der neusten Version 5 durchgeführt, und sie gefragt, ob sie HappyTimes gut findet, und eine äusserst positive Rückmeldung der führenden Künstlichen Intelligenz erhalten (hier nachlesen). Und auch von der Schweizer KI wollten wir wissen, was sie denn vom Konzept der Nur-Guten-Nachrichten hält. Und: Auch Apertus findet HappyTimes einzigartig! Lesen Sie die Antwort der schlauen Schweizer KI selbst:

Liste der meistgenutzten KI Programme 2025
Die Schweizer KI Apertus tritt an in den Ring gegen folgende Herausforderer an:
- ChatGPT – von Open AI
2,4 Mia. Nutzer / Monat, 48% Anteil des gesamten AI Traffics
Website ChatGPT KI: https://chat.openai.com/ - Copilot – Microsoft
Website Copilot KI: https://copilot.microsoft.com/ - Meta AI – Meta (Facebook, Whatsapp, Instagram)
700 Mio. Nutzer
Integriert in Meta-Programme - Google Gemini / Bard – Google
400 Mio. Nutzer
Website Bard KI: https://bard.google.com/ - Claude – Anthropic
300 Mio. Nutzer / Monat
https://www.anthropic.com/ (Registrierung) - DeepSeek – DeepSeek, China
Website zum Ausprobieren: 230 Mio. Nutzer / Monat, 2,74 Mia. Nutzer pro Jahr
Website DeepSeek KI Deutsch: https://deepseek.de/ - Perplexity – Perplexity AI
Website Perplexity KI: https://www.perplexity.ai - Grok – xAI (Elon Musk)
Website Grok KI: https://x.ai/ - Ernie Bot – Baidu, China
300 Mio. Nutzer
(Erst auf Chinesisch: ai.baidu.com) - Apertus, Public AI, ETH Zürich, Schweiz
Website Apertus: https://publicai.co/chat
KI Schweiz Apertus in zwei Varianten
Die neue Schweizer KI steht in zwei Varianten zur Verfügung. Die einfachere Variante mit 8 Milliarden Parametern und die Profi-Variante mit 70 Milliarden Parameter, die für jede Antwort hinzugezogen werden können.
Apertus KI nutzen – Online-Chat Website
Die neue Schweizer KI „Apertus“ kann direkt, kostenlos und ohne Registrierung über die Website von Public AI aufgerufen und ausgetestet werden:
Apertus KI download – lokal installieren
Alternativ kann man die KI auch lokal installieren und über das Entwicklerportal „Hugging Face“ herunterladen.
Quellen:
- ETH Medienmitteilung „Apertus: Ein vollständig offenes, transparentes und mehrsprachiges Sprachmodell“
- Artikel von Samuel Buchmann in Galaxus „Apertus – die Schweizer KI ist da“
Titelbild: © CSCS Centro Svizzero di Calcolo Scientifico Lugano, X / Twitter










Es gibt keine Cloud. Deine Daten sind nur auf dem Computer von jemand anderem gespeichert.