Mehrsprachige KI aus der Schweiz fördert die digitale Autonomie im Gesundheitssektor.

Alps

Veröffentlicht 04.08.2025 10:40, Kai Wehrs

Die ETH Zürich und die EPFL veröffentlichen ein offenes, mehrsprachiges Großes Sprachmodell (LLM), das auf dem Supercomputer «Alps» des CSCS trainiert wurde und Innovationen in Wissenschaft, Gesellschaft und Wirtschaft fördert.

Diese Woche trafen sich in Genf rund 50 führende globale Initiativen und Organisationen, die sich für offene LLMs und vertrauenswürdige KI einsetzen, am International Open-Source LLM Builders Summit. Die von den KI-Zentren der EPFL und der ETH Zürich ausgerichtete Veranstaltung war ein wichtiger Schritt zum Aufbau eines dynamischen und kollaborativen internationalen Ökosystems für offene Basismodelle. Offene Sprachmodelle (LLMs) werden zunehmend als vertrauenswürdige Alternative zu kommerziellen Systemen erachtet, von denen die meisten in den USA oder China in nicht-nachvollziehbaren Prozessen entwickelt werden.

Die Teilnehmenden des Gipfels erhielten einen Ausblick auf die bevorstehende Veröffentlichung eines vollständig offenen und in transparenten Prozessen entwickelten LLM. Entwickelt haben es Forschende der EPFL, der ETH Zürich und anderer Schweizer Universitäten in enger Zusammenarbeit mit Ingenieurinnen und Ingenieuren des CSCS. Nach letzten Tests, die aktuell stattfinden, wird es möglich sein, das Modell unter einer Open-Source Lizenz herunterzuladen. Das Modell richtet den Fokus auf Transparenz, mehrsprachige Performance und breite Zugänglichkeit.

Das Modell wird vollständig offen sein: Quellcode und Gewichte werden öffentlich verfügbar sein, und die Trainingsdaten werden transparent und reproduzierbar sein. Diese Offenheit unterstützt die Verbreitung und Anwendung in Wissenschaft und Bildung sowie im öffentlichen und privaten Bereich. Dieser Ansatz soll sowohl die Innovation als auch das Vertrauen in KI fördern.

«Völlig offene Modelle ermöglichen Anwendungen, die ein hohes Mass an Vertrauenswürdigkeit gewährleisten, und sie sind notwendig, um die Forschung zu den Risiken und Chancen der KI voranzutreiben. Transparente Prozesse ermöglichen auch die Einhaltung der Rechtsvorschriften», sagt Imanol Schlag, Forscher am ETH AI Center, der das LLM-Projekt zusammen mit Antoine Bosselut und Martin Jaggi, Professoren der EPFL und Mitglieder des EPFL AI Center leitet.

Von Grund auf mehrsprachig

Ein charakteristisches Merkmal dieses LLM ist, dass es über 1000 Sprachen beherrscht. «Wir haben von Anfang an Wert darauf gelegt, dass die Modelle konsequent mehrsprachig sind», sagt Antoine Bosselut.

Das Basismodell wurde mit einem grossen Textdatensatz von über 1500 Sprachen trainiert – etwa 60 Prozent waren Englisch und 40 Prozent andere Sprachen – hinzukamen Code- und Mathematikdaten. Da Inhalte aus allen Sprachen und Kulturen vertreten sind, punktet das resultierende Modell mit einer hohen globalen Anwendbarkeit.

Konzipiert für Grösse und Inklusion

Das Modell wird in zwei Grössen – mit 8 Milliarden und mit 70 Milliarden Parametern – veröffentlicht werden und damit die Bedürfnisse eines breiten Spektrums an Nutzer:innen erfüllen. Die grössere Version wird zu den leistungsstärksten, vollständig offenen Modellen weltweit gehören. Die Anzahl der Parameter spiegelt dabei die Fähigkeit eines Modells wider, zu lernen und komplexe Antworten zu erzeugen.

Das Modell erreicht eine hohe Zuverlässigkeit, da es mit mehr als 15 Billionen qualitativ hochwertiger Trainingstoken trainiert wird (das sind Einheiten, die jeweils ein Wort oder einen Wortteil repräsentieren): Dieses Vorgehen ermöglicht ein robustes Sprachverständnis und vielseitige Anwendungsfälle.

Verantwortungsvoller Umgang mit Daten

Bei der Entwicklung des LLM werden die schweizerischen Datenschutzgesetze, das schweizerische Urheberrecht und die Transparenzverpflichtungen im Rahmen der KI-Verordnung der EU (EU AI Act) berücksichtigt. In einer externe Seite aktuellen Studie haben die Projektleitenden nachgewiesen, dass es für die meisten alltäglichen Aufgaben und den allgemeinen Wissenserwerb praktisch keine Leistungseinbussen mit sich bringt, wenn bei der Datengewinnung die sogenannten Opt-outs für Web-Crawling respektiert werden — und damit gewisse Web-Inhalte nicht eingelesen werden.

Supercomputer als Wegbereiter für unabhängige KI

Das Modell wird auf dem Supercomputer «Alps» des Swiss National Supercomputing Centre CSCS in Lugano trainiert, einer der weltweit fortschrittlichsten KI-Plattformen, die mit über 10 000 NVIDIA Grace Hopper Superchips ausgestattet ist. Dank der Grösse und der Architektur des Systems war es möglich, das Modell effizient zu 100 Prozent mit klimaneutralem Strom zu trainieren.

Die erfolgreiche Realisierung von «Alps» wurde wesentlich durch die seit über 15 Jahren bestehende Zusammenarbeit mit den Technologieunternehmen NVIDIA und HPE/Cray erleichtert. Diese Partnerschaft hat entscheidend dazu beigetragen, die technischen Möglichkeiten von «Alps» zu entwickeln und sicherzustellen, dass er die hohen Anforderungen grosser KI-Workloads erfüllt, einschliesslich des Pre-Trainings komplexer LLMs.

«Das Trainieren dieses Modells ist nur dank unserer strategischen Investition in ‹Alps› möglich, einen speziell für KI konzipierten Supercomputer», sagt Thomas Schulthess, Direktor des CSCS und Professor an der ETH Zürich. «Unsere langfristige Zusammenarbeit mit NVIDIA und HPE ist ein Beispiel dafür, wie gemeinsame Anstrengungen von öffentlichen Forschungseinrichtungen und branchenführenden Unternehmen eine unabhängige Infrastruktur vorantreiben und offene Innovation fördern können – nicht nur für die Schweiz, sondern für Wissenschaft und Gesellschaft weltweit.»

Öffentlicher Zugang und globale Wiederverwendung

Das LLM wird in diesem Spätsommer unter der Apache-2.0-Lizenz veröffentlicht. Die Modellarchitektur, die Trainingsmethoden und die Nutzungsrichtlinien werden in einer begleitenden Dokumentation ausführlich beschrieben, um eine transparente Wiederverwendung und Weiterentwicklung zu ermöglichen. «Als Wissenschaftler:innen von öffentlichen Institutionen wollen wir offene Modelle voranbringen und damit Organisationen befähigen, auf diesen Modellen ihre eigenen Anwendungen aufzubauen», sagt Antoine Bosselut.

«Dadurch, dass wir auf volle Offenheit setzen, während kommerzielle Modelle hinter verschlossenen Türen entwickelt werden, wird unser Ansatz über multinationale Kooperationen, wie wir hoffen, die Innovation in der Schweiz und in ganz Europa vorantreiben. Ausserdem ist dies ein wichtiger Faktor, um Spitzentalente zu gewinnen und zu fördern», sagt EPFL-Professor Martin Jaggi.

Im Spätsommer 2025 wird ein öffentlich entwickeltes Large Language Model (LLM) erscheinen — gemeinsam entwickelt haben es Forschende der EPFL, der ETH Zürich und des Schweizer Supercomputer-Zentrums CSCS.

Dieses LLM wird vollständig offen sein. Die Offenheit soll eine breite Nutzung ermöglichen und Innovationen in Wissenschaft, Gesellschaft und Industrie fördern.
Ein herausragendes Merkmal des Modells ist seine mehrsprachige Kompetenz in über 1000 Sprachen.

Über die Schweizer KI-Initiative

Die externe Seite Swiss AI Initiative wurde im Dezember 2023 von der EPFL und der ETH Zürich lanciert und wird von mehr als zehn wissenschaftlichen Institutionen in der ganzen Schweiz getragen. Mit über 800 beteiligten Forschenden und dem Zugang zu über 20 Millionen GPU-Stunden pro Jahr auf dem Supercomputer «Alps» am CSCS ist es das weltweit grösste Open-Science- und Open-Source-Projekt zu KI-Basismodellen.

Die Schweizer KI-Initiative erhält für den Zeitraum 2025 bis 2028 finanzielle Unterstützung vom ETH-Rat, dem strategischen Führungs- und Aufsichtsorgan des ETH-Bereichs (ETH, EPFL, PSI, WSL, Empa, Eawag).

Über ELLIS

Die Schweizer KI-Initiative wird von Forschenden am EPFL AI Center und am ETH AI Center geleitet, die beide als regionalen Einheiten des ELLIS (European Laboratory for Learning and Intelligent Systems) agieren, eines gesamteuropäischen KI-Netzwerks, das sich mit Grundlagenforschung im Bereich der vertrauenswürdigen KI, technischer Innovation und den gesellschaftlichen Auswirkungen von KI innerhalb der offenen Gesellschaften Europas beschäftigt.

Über das CSCS

Das Swiss National Supercomputing Centre (CSCS) ist Mitglied und Partner des LUMI-Konsortiums, das Forschenden aus der Schweiz den Zugang zu einer führenden Infrastruktur in Kajaani, Finnland, ermöglicht. Dies steht im Einklang mit der Strategie des CSCS, die darauf abzielt, durch multinationale Kooperationen künftige, deutlich grössere Recheninfrastrukturen im Extremmassstab in Regionen mit reichlich vorhandener Wasserkraft und natürlichen Kühlressourcen zu errichten. Damit wird die Forschung und Innovation im KI-Bereich so positioniert, dass sich regionale Wirkung mit globaler Relevanz verbinden.

Bild: (KI generiert)Forschende der EPFL, der ETH Zürich und des CSCS haben von Grund auf ein offenes, grosses Sprachmodell entwickelt, das im Spätsommer 2025 veröffentlicht werden soll.
Quelle: ©Eidgenössische Technische Hochschule Zürich


Lesen Sie mehr zum Thema "Künstliche Intelligenz"

Lesen Sie hier die neuesten Beiträge

Diese Webseite verwendet Cookies.   Mehr Info.      oder