<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>apertus Archive - RENE.KI</title>
	<atom:link href="https://reneki.de/tag/apertus/feed/" rel="self" type="application/rss+xml" />
	<link>https://reneki.de/tag/apertus/</link>
	<description>Aktuelles aus der Welt der künstliche Intelligenz (KI)</description>
	<lastBuildDate>Thu, 11 Sep 2025 16:09:16 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://reneki.de/wp-content/uploads/2026/04/cropped-logo-reneki-512x512-1-32x32.png</url>
	<title>apertus Archive - RENE.KI</title>
	<link>https://reneki.de/tag/apertus/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Apertus: Ein vollständig offenes, transparentes und mehrsprachiges Sprachmodell aus der Schweiz</title>
		<link>https://reneki.de/apertus-ein-vollstaendig-offenes-transparentes-und-mehrsprachiges-sprachmodell-aus-der-schweiz/?pk_campaign=&#038;pk_source=</link>
		
		<dc:creator><![CDATA[rene]]></dc:creator>
		<pubDate>Thu, 11 Sep 2025 15:13:49 +0000</pubDate>
				<category><![CDATA[KI News]]></category>
		<category><![CDATA[Videos]]></category>
		<category><![CDATA[apertus]]></category>
		<category><![CDATA[LMM]]></category>
		<category><![CDATA[Sprachmodell]]></category>
		<guid isPermaLink="false">https://reneki.de/?p=3981</guid>

					<description><![CDATA[<p>Die EPFL, die ETH Zürich und das schweizerische Supercomputing-Zentrum CSCS haben Apertus veröffentlicht: Das erste umfangreiche, offene und mehrsprachige Sprachmodell aus der Schweiz.</p>
<p>Der Beitrag <a href="https://reneki.de/apertus-ein-vollstaendig-offenes-transparentes-und-mehrsprachiges-sprachmodell-aus-der-schweiz/">Apertus: Ein vollständig offenes, transparentes und mehrsprachiges Sprachmodell aus der Schweiz</a> erschien zuerst auf <a href="https://reneki.de">RENE.KI</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe hcb-fetch-image-from="https://www.youtube.com/watch?v=atObT7Xnbdk" title="APERTUS: A FULLY OPEN, TRANSPARENT, MULTILINGUAL LANGUAGE MODEL" width="1200" height="675" src="https://www.youtube.com/embed/atObT7Xnbdk?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p><strong>Was ist Apertus?</strong></p>



<p>Ein vollständig offenes, mehrsprachiges LLM der EPFL, ETH Zürich und des CSCS (Swiss National Supercomputing Centre). Veröffentlichung am 2. September 2025; Ziel: Transparenz, Compliance und digitale Souveränität. Verfügbar über Hugging Face und Partnerplattformen.<br></p>



<p><strong>Varianten &amp; Lizenz</strong></p>



<p>Zwei Größen: 8B und 70B Parameter. Lizenz Apache-2.0; zusätzlich gilt eine Acceptable Use Policy (AUP).<br></p>



<p><strong>Sprachen</strong></p>



<p>Training auf > 1.000 Sprachen (40 % nicht-englisch), inkl. Schweizerdeutsch und Rätoromanisch. Die Model-Cards nennen 1.811 „nativ unterstützte Sprachen“ – je nach Quelle also „> 1.000“ bis „~1.800+“.<br></p>



<p><strong>Architektur &amp; Training</strong></p>



<p>Decoder-only-Transformer, 15 Billionen Tokens Vortraining (Web/Code/Mathe, gestuftes Curriculum). xIELU-Aktivierung, AdEMAMix-Optimizer; Post-Training via SFT und QRPO. Kontextlänge: bis 65.536 Tokens; Tool-Use/Agent-Hooks vorgesehen.<br></p>



<p><strong>Recheninfrastruktur</strong></p>



<p>Training u. a. auf 4096 × NVIDIA GH200 (bf16) auf dem CSCS-Supercomputer Alps. Die Finanzierung nennt > 10 Mio. GPU-Stunden.<br></p>



<p><strong>Benchmarks (Auszug, Pretraining-Phase)</strong></p>



<p>Apertus-70B liegt beim gemittelten Wert ~67,5 % (ARC/HellaSwag/WinoGrande/XNLI/XCOPA/PIQA), in Reichweite offener Top-Modelle wie Llama 3.1-70B (~67,3 %). Vollständige Tabellen siehe Model-Card/Tech-Report.<br></p>



<p><strong>Transparenz &amp; Compliance</strong></p>



<p>Offene Gewichte, Daten-Pipelines, Trainingsrezepte &amp; Zwischen-Checkpoints – vollständig dokumentiert.<br></p>



<p>Training auf öffentlich zugänglichen Daten mit Respektierung von Robots/Opt-out; Ausrichtung an EU-AI-Act-Transparenz.<br></p>



<p><strong>Verfügbarkeit &amp; Einsatz</strong></p>



<p>Hugging Face (Apertus-8B/70B &amp; Instruct-Varianten). Läuft out-of-the-box mit Transformers ≥ v4.56, vLLM, SGLang sowie MLX (Apple/on-device).<br></p>



<p>Swisscom Swiss AI-Plattform (Business-Zugriff in CH) und Public AI Inference Utility (globaler Zugriff).<br></p>



<p><strong>Wofür besonders geeignet?</strong></p>



<p>Öffentlicher Sektor &amp; regulierte Branchen: Hohe Nachvollziehbarkeit/Compliance, EU-konform.<br></p>



<p>Mehrsprachige Anwendungen: Chatbots, Übersetzung, Bildung/Onboarding – v. a. für unterrepräsentierte Sprachen.<br></p>



<p>Forschung &amp; Open-Source-Ökosystem: Reproduktion, Fine-tuning, Ableitungen/Quantisierung (8B für Edge/On-Prem).<br></p>



<p><strong>Grenzen / Hinweise</strong></p>



<p>Leistungsfähig, aber (noch) nicht auf Niveau der stärksten proprietären Modelle; die Projektziele sind Vertrauen &amp; Souveränität, nicht Bench-Siege. Nutzung erfordert kritische Prüfung der Ausgaben (Bias/Halluzinationen).</p>



<p></p>



<p>Weiter Informationen unter:</p>



<p><a href="https://ethz.ch/content/dam/ethz/main/news/eth-news/2025/09/250902-llm/MM_Apertus_LLM_de.pdf" target="_blank" rel="noreferrer noopener nofollow">https://ethz.ch/content/dam/ethz/main/news/eth-news/2025/09/250902-llm/MM_Apertus_LLM_de.pdf</a></p>



<div class="wp-block-essential-blocks-text  root-eb-text-mmsa8"><div class="eb-parent-wrapper eb-parent-eb-text-mmsa8 "><div class="eb-text-wrapper eb-text-mmsa8" data-id="eb-text-mmsa8"><p class="eb-text"><a href="https://huggingface.co/swiss-ai/Apertus-70B-2509" target="_blank" rel="noreferrer noopener nofollow">https://huggingface.co/swiss-ai/Apertus-70B-2509</a></p></div></div></div>



<p></p>
<p>Der Beitrag <a href="https://reneki.de/apertus-ein-vollstaendig-offenes-transparentes-und-mehrsprachiges-sprachmodell-aus-der-schweiz/">Apertus: Ein vollständig offenes, transparentes und mehrsprachiges Sprachmodell aus der Schweiz</a> erschien zuerst auf <a href="https://reneki.de">RENE.KI</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
