Qwen3-235B-A22B

Flaggschiff-Modell mit 235 Milliarden Parametern

Fokus auf Leistung und Komplexität

Das Qwen3-235B-A22B Modell im Überblick

Qwen3-235B-A22B ist das Flaggschiffmodell der Qwen3-Serie – entwickelt von Alibaba Cloud für den Einsatz in hochkomplexen, leistungsintensiven KI-Szenarien. Mit 235 Milliarden Parametern in der modernen A22B-Architektur gehört es zu den größten und fortschrittlichsten öffentlich zugänglichen Sprachmodellen überhaupt.

Das Modell kombiniert außergewöhnliche Sprachverarbeitungsfähigkeiten mit tiefem Kontextverständnis, präzisem Tool-Use und starker Multilingualität. Durch moderne Trainingsmethoden, inklusive RLHF und DPO, wurde Qwen3-235B-A22B gezielt auf Hilfsbereitschaft, Sicherheit und Skalierbarkeit optimiert – und steht unter Apache 2.0 Lizenz für den kommerziellen Einsatz bereit.

Name:

Qwen3-235B-A22B (Teil der Qwen3-Modellfamilie)

Entwickler:

Qwen Team (Alibaba Group)

Veröffentlichung:

29. April 2025

Lizenz:

Apache 2.0 License (Open Source, kommerzielle Nutzung gestattet)

Modelltyp:

Mixture-of-Experts (MoE) Causal Language Model auf Transformer-Basis.

Parameter:

Gesamt: 235 Milliarden, aktiviert pro Token: 22 Milliarden, ohne Embedding: 234 Milliarden

Tokenizer:

Qwen2 Tokenizer (Tiktoken-basiert), Vokabulargröße: 151.936. Kompatibel mit aktueller Hugging Face transformers Library (Chat-Template für Instruct/Chat-Varianten verfügbar).

Schichten:

94 Transformer-Layer

Attention-Köpfe:

64 Query-Köpfe, 4 Key/Value-Köpfe (Grouped-Query Attention - GQA).

Experten (MoE):

Gesamtzahl der Experten: 128, aktivierte Experten pro Token: 8

Kontextlänge:

Nativ: 32.768 Token (32K), mit YaRN-Skalierung: Bis zu 131.072 Token

Variationen der Qwen3 Reihe

Die Qwen3 Serie umfasst verschiedene Modellgrößen, sowohl dichte als auch MoE-Modelle:

  • Dense-Modelle: Qwen3-0.6B, Qwen3-1.7B, Qwen3-4B, Qwen3-8B, Qwen3-14B, Qwen3-32B
  • MoE-Modelle: Qwen3-30B-A3B, Qwen3-235B-A22B

Verfügbare Varianten umfassen Basismodelle („Base“), instruktionsfeinabgestimmte Modelle („Instruct“) und Chat-Modelle („Chat“).

Spezialitäten des Qwen3-32B Modells

"Thinking Mode" und "Non-Thinking Mode"

Unterstützt einen Mechanismus (z.B. über den /think Token oder den enable_thinking Parameter bei Instruct-Modellen), um das Modell anzuleiten, vor der Antwort „nachzudenken“, was die Leistung bei komplexen Aufgaben wie Tool-Nutzung und Function Calling verbessern kann. Umschaltung zwischen „Thinking Mode“ und „Non-Thinking Mode“. Instruct/Chat-Varianten sind für das Befolgen von Anweisungen und Konversationen feinabgestimmt (SFT und RLHF/DPO).

Multilinguale Unterstützung

Gute Unterstützung für über 100 Sprachen und Dialekte, mit starker Fähigkeit zur Befolgung mehrsprachiger Anweisungen und Übersetzung.

Agentic/Tools-Fähigkeit

Optimiert für Integrationen in Agents und Tool-Calling, insbesondere die Instruct-Varianten (z.B. mit Qwen-Agent).

Kompatible Inferenz-Frameworks

Hugging Face Transformers (>=4.51.0 für MoE-Modelle), SGLang (>=0.4.6.post1), vLLM (>=0.8.5), Ollama, LMStudio, MLX-LM, llama.cpp, KTransformers und weitere.
Individuelle KI-Beratung

Ist Qwen3-235B-A22B das passende Modell
für Sie?

Gerne beraten wir Sie individuell dazu, welches KI-Modell zu Ihren Anforderungen passt. Vereinbaren Sie direkt ein unverbindliches Erstgespräch mit unseren KI-Experten und nutzen Sie das volle Potenzial von KI für Ihr Projekt!

Die Post-Training Pipeline für Qwen3-235B-A22B

Trainingsdaten & Trainingsprozess

Qwen3-235B-A22B wurde – wie alle Modelle der Qwen3-Serie – auf einem umfassenden, sorgfältig kuratierten Datensatz mit über 3,5 Billionen Token vortrainiert. Die Daten stammen aus einer vielfältigen Mischung öffentlich zugänglicher Webinhalte, Programmcode, Fachliteratur, Büchern und wissenschaftlichen Arbeiten. Ein mehrstufiger Aufbereitungsprozess stellte sicher, dass nur hochwertige, relevante und sichere Inhalte in das Training einflossen – mit dem Ziel, ein Modell mit maximaler Sprachkompetenz, Robustheit und Skalierbarkeit zu schaffen.

Im Anschluss an das Pretraining wurde das Modell für Instruct- und Chat-Anwendungen weiter verfeinert: Zunächst durch ein Supervised Fine-Tuning (SFT) auf umfangreichen Instruktionsdatensätzen, anschließend durch Reinforcement Learning from Human Feedback (RLHF). Dabei kam unter anderem Direct Preference Optimization (DPO) zum Einsatz, um das Modell gezielt auf menschliche Präferenzen, hilfreiches Verhalten und kontrollierbare Ausgabequalität auszurichten.

Hardware-Anforderungen (Inferenz)

  • GPU: Erfordert High-End GPU-Beschleuniger mit erheblichem VRAM.
    • Die genauen Anforderungen hängen von der Quantisierung, Batch-Größe und Kontextlänge ab.
    • FP16-Gewichte benötigen mehrere hundert GB VRAM (z.B. 8x NVIDIA H100 80GB oder äquivalent).
    • Tensor Parallelism (TP) wird für die Inferenz empfohlen (z.B. tp=8 für SGLang).
  • RAM: Sehr hoher RAM-Bedarf, wenn nicht vollständig auf GPUs geladen. Für quantisierte Versionen (z.B. GGUF) auf CPU immer noch erheblich (mind. 128GB RAM wird in der PDF für das größte Qwen je nach Quantisierung erwähnt).
  • Hinweis: Dies ist ein sehr großes Modell, dessen Betrieb erhebliche Rechenressourcen erfordert.
Vielseitig & leistungsstark

Empfohlene Anwendungsfälle für Qwen3-235B-A22B

Ist Qwen3-235B-A22B das richtige KI-Modell für Ihren individuellen Anwendungsfall? Wir beraten Sie gerne umfassend und persönlich.

Anspruchsvolle mehrsprachige Assistenten und Dialogsysteme
Mit tiefem Verständnis.
Komplexes Reasoning, Mathematik, Codegenerierung
und Problemlösung
Hochentwickelte Agentic Use Cases
Mit komplexer Tool-Integration und Function Calling.
Verarbeitung und Analyse langer Texte
Mit YaRN-Skalierung.
Kreatives Schreiben, Rollenspiele und komplexe Multi-Turn-Dialoge
Forschung und Entwicklung
Im Bereich State-of-the-Art LLMs und MoE-Architekturen.
Qwen3-235B-A22B

Stärken & Schwächen des
Qwen3-235B-A22B Modells

Stärken

Herausragende Leistungsfähigkeit in Reasoning, Mathematik und Codegenerierung.

Exzellente Anpassung an menschliche Präferenzen für natürliche Konversationen.

Führende Fähigkeiten im Bereich Agentic Use und Tool-Calling.

Sehr starke mehrsprachige Unterstützung (über 100 Sprachen).

Möglichkeit zur Verarbeitung langer Kontexte mit YaRN (bis zu 131K Token).

„Thinking Mode“ für verbesserte Leistung bei komplexen Aufgaben.

Vollständig Open Source unter Apache 2.0 Lizenz (sowohl Code als auch Modellgewichte), was kommerzielle Nutzung ermöglicht.

Teil einer umfassenden Modellfamilie (Qwen3).

Schwächen & Einschränkungen

Extrem hohe Hardware-Anforderungen für Inferenz, die typischerweise nur in professionellen Umgebungen oder Cloud-Infrastrukturen verfügbar sind.

Komplexität der MoE-Architektur kann die Inferenz-Optimierung erschweren.

Standard-Nachteile von LLMs: Potenzial für Halluzinationen, Bias und mangelnde Transparenz.

Die Leistung bei kürzeren Texten kann potenziell beeinträchtigt werden, wenn statisches YaRN für lange Kontexte aktiviert ist.

Energieverbrauch ist aufgrund der Modellgröße und der benötigten Hardware beträchtlich.

Qwen3-235B-A22B: Spitzenleistung für Ihre KI-Vorhaben

Bereit für Open-Source-KI in ihrer stärksten Form?

Mit Qwen3-235B-A22B steht Ihnen eines der leistungsfähigsten Open-Source-Sprachmodelle weltweit zur Verfügung – ideal für komplexe Anwendungen, fortschrittliche Assistenzsysteme oder großskalige Forschungsvorhaben. Wir begleiten Sie bei Auswahl, Integration und Hosting – ob lokal, in Ihrer Cloud oder auf unserer sicheren GPU-Infrastruktur in Deutschland.
Nutzen Sie unser Expertenwissen für die Umsetzung Ihrer KI-Strategie – effizient, sicher und zukunftsfähig.

FAQ - Häufige Fragen

Wissenswertes zu Qwen3-235B-A22B

Theoretisch ja, mit extremen Quantisierungsgraden (z.B. über llama.cpp GGUF) und sehr viel RAM (deutlich über 128GB). Die Performance wäre jedoch für interaktive Nutzung wahrscheinlich unzureichend. Primär ist dieses Modell für den GPU-beschleunigten Betrieb ausgelegt.

Für FP16-Inferenz werden mehrere GPUs mit insgesamt hunderten GB VRAM benötigt (z.B. 8 x NVIDIA H100 80GB, was 640GB VRAM entspricht). Genaue Zahlen hängen von der Konfiguration und Quantisierung ab. Selbst mit 4-Bit-Quantisierung ist der Bedarf noch sehr hoch.

Ja, sowohl der Code als auch die Modellgewichte von Qwen3-235B-A22B sind unter der Apache 2.0 Lizenz veröffentlicht, welche die kommerzielle Nutzung gestattet.

Das Modell unterstützt nativ 32K Token. Für längere Kontexte (bis zu 131K) kann die YaRN-Skalierungsmethode in kompatiblen Frameworks (wie transformers, vLLM, SGLang, llama.cpp) aktiviert werden. Beachten Sie die Hinweise zur potenziellen Leistungsbeeinträchtigung bei kürzeren Texten, wenn statisches YaRN verwendet wird.

Möchten Sie individuell beraten werden?

Unsere KI-Experten sind für Sie da!