Model as a Service –
Zentrale AI-Modell-Verwaltung
mit deutschem Proxy

Weißes partimus Logo. Ein P und ein L, die ineinander sind.

DSGVO-konformer Zugang zu Spitzenmodellen

Ihre Vorteile mit dem MaaS Proxy

Sicherheit, Komfort und strategische
Freiheit bei der Modellauswahl

Mit dem MaaS Proxy von partimus schaffen Sie eine zentrale, sichere und effiziente Grundlage für den produktiven Einsatz moderner KI-Modelle in Ihrer Organisation. Die Lösung vereinfacht nicht nur die Anbindung unterschiedlicher Anwendungen an verschiedene Sprachmodelle, sondern schafft auch Klarheit bei Kosten, Governance und Datenschutz. Durch standardisierte Schnittstellen, volle Kontrolle über den Datenfluss und die Möglichkeit zur Integration eigener Modelle entsteht eine flexible und zukunftsfähige Infrastruktur – optimiert für den geschäftlichen Einsatz.

Ihre Vorteile bei partimus

🏛️ Deutscher Proxy-Service

DSGVO‑konformer, einheitlicher Zugang über deutsche Rechenzentren.

🇩🇪 Lokales Hosting verfügbar

Open‑Source‑Modelle (z. B. DeepSeek R1, GLM 4.5) können komplett in Deutschland betrieben werden.

🎯 Zentrale Budgetverwaltung mit Spending Limits

Tägliche, wöchentliche und monatliche Limits pro Team oder Entwickler. Transparente Euro‑Preise ohne versteckte Kosten.

🔧 Ein API für alle Modelle

OpenAI‑kompatible Schnittstelle: Wechseln Sie zwischen GPT‑4o, Grok 4 oder Qwen3‑Coder ohne Code‑Änderungen.

⚡ Sofortige Verfügbarkeit

Keine Wartelisten oder zusätzliche Registrierung – starten Sie in Minuten mit Prototypen bis zu Production.

🛡️ Enterprise‑Grade Sicherheit

ISO 27001‑zertifizierte Infrastruktur, End‑to‑End‑Verschlüsselung und zentrale Zugriffskontrollen.

Ihre KI – Ihr Modellportfolio

Breite Modellvielfalt – flexibel und zukunftssicher

Der MaaS Proxy unterstützt eine Vielzahl leistungsfähiger Sprachmodelle – von Open-Source-LLMs wie LLaMA, Qwen, DeepSeek oder Mistral bis hin zu Modellen von OpenAI, Google oder Anthropic. Sie entscheiden, welche Modelle Sie nutzen, priorisieren oder blockieren möchten – ganz nach Ihrem Anwendungsfall und den Anforderungen Ihrer Organisation. Eigene Modelle lassen sich ebenso integrieren wie externe APIs, sodass Sie Ihre KI-Infrastruktur jederzeit flexibel anpassen und erweitern können. Neue Releases lassen sich zentral verwalten und bereitstellen – ohne manuellen Anpassungsaufwand in den Fachanwendungen.

Premium-Modelle (via Proxy)

  • GPT‑5 (OpenAI) – Next‑Generation‑Flaggschiff, 1 M Token Context
  • GPT‑4o (OpenAI) – Multimodal, 128 K Context
  • Gemini 2.5 Pro (Google) – Thinking Model, 1 M Token Context
  • Grok 4 (xAI) – Real‑time Reasoning, 256 K Context

Code‑Spezialisierte Modelle (via Proxy)

  • Qwen3‑Coder (Alibaba) – 480 B Parameter MoE für agentische Programmierung

Effiziente Modelle (Proxy & optionales lokales Hosting)

  • DeepSeek R1 (DeepSeek) – Kostengünstiges Reasoning‑Modell
  • GLM 4.5 (Zhipu AI)) – 355 B Parameter Hybrid Reasoning
  • GPT OSS 120B (OpenAI)) – Open‑Source Reasoning
  • Kimi K2 (Moonshot AI)) – 1 T Parameter Agentic Intelligence

Jetzt zentral, sicher & effizient KI nutzen

Testen Sie den partimus MaaS Proxy unverbindlich

Profitieren Sie von zentraler Modellverwaltung, DSGVO-konformem Zugriff auf führende LLMs und maximaler Kontrolle über Ihre KI-Nutzung – ohne technische Einstiegshürden. Mit dem partimus MaaS Proxy integrieren Sie Sprachmodelle wie OpenAI, Mistral oder LLaMA über eine einheitliche Schnittstelle in Ihre Systeme – sicher gehostet in Deutschland.

Die technische Umsetzung

Einheitliches API-Gateway für alle Modelle

Der partimus MaaS Proxy ist so konzipiert, dass Sie Ihre vorhandenen Anwendungen schnell und unkompliziert um KI-Funktionalität erweitern können. Dank standardisierter REST-API, OpenAI-kompatibler Endpunkte und voller Multi-Provider-Unterstützung lässt sich der Proxy in bestehende Tools, Backends oder Benutzeroberflächen integrieren – ohne Anpassung der Modell-API. Auch Self-hosted LLMs lassen sich nahtlos einbinden.

AI Proxy in Deutschland

Alle Anfragen laufen über einen zentralen Gateway-Service in deutschen Rechenzentren mit höchstem Sicherheits- und Datenschutzstandard. So behalten Sie die volle Kontrolle über Datenfluss, Sicherheit und Infrastruktur – DSGVO-konform und performant.

Multi Provider Anbindung

Nutzen Sie mit einem einzigen Zugang verschiedenste KI-Anbieter wie OpenAI, Google, xAI, Alibaba und weitere. Der Proxy übernimmt das Routing und die Verwaltung – ganz ohne Anpassungen an der jeweiligen API.

Optionales Local Hosting

Setzen Sie Open Source Modelle wie LLaMA, Mistral oder Qwen direkt in Ihrer eigenen Infrastruktur ein. Der Proxy ermöglicht die nahtlose Einbindung lokaler Modelle über dieselbe Schnittstelle wie bei Cloud-Anbietern.

Zentrale Kostenverwaltung

Behalten Sie Ihre Ausgaben im Griff – mit automatischer Budgetverteilung pro Team, Modell oder Anwendung. Umfangreiche Analytics und Reports helfen Ihnen, die Nutzung transparent zu analysieren und zu optimieren.

Code-Beispiel

import openai

client = openai.OpenAI(
    api_key="<Ihr-partimus-api-key>",
    base_url="https://maas.partimus.com/v1"
)

response = client.chat.completions.create(
    model="gpt-4o",  # oder grok-4, qwen3-coder, gemini-2.5-pro, etc.
    messages=[{"role": "user", "content": "Hallo Welt!"}]
)

print(response.choices[0].message.content)
Transparente Abrechnung – nutzungsbasiert oder pauschal

Flexible Preismodelle für jedes Szenario

Ob Startup, Forschungsteam oder Konzern – unser Pricing passt sich Ihrem Bedarf an. Wählen Sie zwischen nutzungsbasierter Abrechnung pro Token, pauschalen Monatsplänen für bestimmte Anbieter oder individuell vereinbarten Enterprise-Modellen. Sie zahlen nur, was Sie wirklich nutzen – bei voller Kostenkontrolle und klarer Übersicht.

*Alle Preise verstehen sich als monatliche/einmalige Gebühren zuzüglich Mehrwertsteuer. Unser Angebot richtet sich ausschließlich an Gewerbetreibende.

Model-Preise

partimus gmbh openai logo
OpenAI
Model Kosten pro 1M Input Tokens Kosten pro 1M Output Tokens
openai/gpt-5 1,40€ 10,50€
openai/gpt-5-mini 0,30€ 2,10€
openai/gpt-5-nano 0,10€ 0,50€
openai/gpt-oss-20b 0,20€ 0,60€
openai/gpt-oss-120b 0,20€ 0,80€
partimus gmbh moonshot ai logo
MoonShotAI
Model Kosten pro 1M Input Tokens Kosten pro 1M Output Tokens
moonshotai/kimi-k2-instruct 1,10€ 3,20€
partimus gmbh meta logo
Meta
Model Kosten pro 1M Input Tokens Kosten pro 1M Output Tokens
meta/llama-4-maverick-17b 0,30€ 0,70€
meta/llama3-70b 0,70€ 0,90€
meta/llama3-8b 0,10€ 0,10€
partimus gmbh logo google
Google
Model Kosten pro 1M Input Tokens Kosten pro 1M Output Tokens
gemini/gemini-2.5-pro 1,40€ 10,50€
gemini/gemini-2.5-flash 0,40€ 2,70€
partimus gmbh logo
XAI
Model Kosten pro 1M Input Tokens Kosten pro 1M Output Tokens
xai/grok-4 3,20€ 15,80€
xai/grok-code-fast 0,30€ 1,60€
partimus gmbh qwen logo
QWEN
Model Kosten pro 1M Input Tokens Kosten pro 1M Output Tokens
qwen/qwen3-coder-480b-a35b-instruct 0,50€ 1,70€
qwen/qwen3-235b-a22b-thinking 0,20€ 0,70€
partimus gmbh logo zai
ZAI
Model Kosten pro 1M Input Tokens Kosten pro 1M Output Tokens
zai/glm-4.5 0,60€ 2,10€
zai/glm-4.5-air 0,30€ 1,20€
partimus gmbh logo deepseek
DeepSeek
Model Kosten pro 1M Input Tokens Kosten pro 1M Output Tokens
deepseek/deepseek-v3.1 0,40€ 1,10€
deepseek/deepseek-r1-0528 0,60€ 2,30€
partimus gmbh logo anthropic
Anthropic
Model Kosten pro 1M Input Tokens Kosten pro 1M Output Tokens
anthropic/claude-opus-4.1 15,80€ 78,60€
anthropic/claude-sonnet-4 6,30€ 15,80€
anthropic/claude-haiku-3.5 0,90€ 4,20€
Fundiert & praxisnah

Der partimus KI-Einführungs­workshop

Sie möchten moderne KI-Tools sicher, effizient und praxisnah in Ihrem Arbeitsalltag nutzen? In unserem Workshop erhalten Sie nicht nur einen fundierten Überblick über aktuelle Sprachmodelle und die Nutzung des zentralen Proxy-Zugangs, sondern lernen auch gezielt praxisbewährte Tools wie RooCode und Chatbox kennen. Gemeinsam setzen wir individuelle Use Cases um und zeigen Ihnen, wie Sie KI reibungslos und datenschutzkonform in Ihre Prozesse integrieren.

In interaktiven Übungen arbeiten Sie aktiv mit den Tools, erstellen eigene Chatbots und automatisierte Workflows und profitieren von konkreten Best Practices zur Kosten- und Budgetsteuerung. Nach nur einem Tag sind Sie bereit, KI verantwortungsvoll und produktiv in Ihrem Unternehmen einzusetzen.

Buchen Sie jetzt Ihren Workshop und machen Sie Ihr Team fit für den KI-Einsatz.

Inhalte des Workshops

Einführung in moderne KI-Modelle

Grundlagen zu aktuellen Sprachmodellen, Einsatzmöglichkeiten und Trends.

Praxisnahe Tool-Einführung (RooCode & Chatbox)

Vorstellung bewährter Tools für kollaboratives Coden und Workflow-Automatisierung.

Interaktive Übungsphasen mit konkreten Use Cases

Eigene Anwendungsfälle umsetzen und Tools praxisnah erleben.

Schritt-für-Schritt-Anleitungen für typische Einsatzszenarien

Klar verständliche Leitfäden für die Umsetzung im Arbeitsalltag.

Fehlervermeidung & Best Practices im KI-Einsatz

Praktische Tipps zur sicheren und effizienten Anwendung.

Datenschutz & Compliance im Alltag

Rechtssicherer Umgang mit KI in Ihrem Unternehmen.

Kosten- und Budgetsteuerung in KI-Tools

Strategien zur Kostenoptimierung und Ressourcenkontrolle.

Ihre Vorteile auf einen Blick

Jetzt Platz sichern!
Veranstaltungsort
Online
Preis
1.800€ / Teilnehmer
DSGVO-konform, auditierbar und unter Ihrer Hoheit

Maximale Sicherheit & volle Kontrolle

Der MaaS Proxy wurde speziell für höchste Datenschutzanforderungen entwickelt. Alle Anfragen werden über unsere Infrastruktur in deutschen Rechenzentren verarbeitet – ohne Umwege über Drittstaaten. Durch umfangreiche Logging-, Audit- und Kontrollmechanismen behalten Sie jederzeit die Übersicht über Datenflüsse und Zugriffe. Auf Wunsch können sensible Modelle auch vollständig lokal gehostet werden – für volle Souveränität über Ihre KI-Anwendungen.

Deutscher Proxy-Server

mit deutschen Rechenzentren und Logging/Monitoring.

Optionales Deutschland-Hosting

für maximale Datensouveränität.

ISO 27001-Zertifizierung

für unser Informations‑Sicherheits‑Management­system.

Zentrale Zugriffssteuerung

mit striktem Berechtigungs- und Rollenmanagement.

partimus gmbh maas proxy 3
Zentrale Modellnutzung – sicher, effizient und flexibel

Vielfältige Einsatz­möglichkeiten für Ihre Teams

Mit dem MaaS Proxy stellen Sie leistungsstarke KI-Modelle gezielt dort bereit, wo sie echten Mehrwert schaffen. Ob Entwicklung, Support oder Marketing – Ihr gesamtes Team profitiert von einem zentral gesteuerten, datenschutzkonformen Zugriff auf führende Modelle.

Software-Entwicklung

Erstellen Sie automatisiert sauberen Code, lassen Sie sich beim Debugging unterstützen oder generieren Sie technische Dokumentation – direkt aus Ihrer Entwicklungsumgebung. Modelle wie Qwen3 Coder oder GPT OSS 120B lassen sich über den Proxy nahtlos integrieren.

Customer Support

Nutzen Sie fortschrittliche KI-Modelle wie GPT-4o oder Grok 4, um dynamische, mehrsprachige Chatbots zu realisieren. Antworten auf aktuelle Fragen werden in Echtzeit aus verknüpften Wissensquellen generiert.

Content-Marketing

Erstellen Sie kreative, markenkonforme Inhalte in Sekunden – von Blogposts über Social Media bis hin zu Produkttexten. Gemini 2.5 Pro unterstützt Ihre Redaktionsprozesse mit überzeugender Qualität und konsistentem Stil.

partimus kennenlernen

Starten Sie mit partimus

Nutzen Sie die Gelegenheit, Ihre IT-Infrastruktur zu optimieren und Ihr Unternehmen voranzubringen – kontaktieren Sie uns noch heute, um mehr über die maßgeschneiderten Vorteile zu erfahren, die partimus Ihnen bieten kann.

FAQ - Häufige Fragen

Fragen und Antworten zum MaaS Proxy

Mit dem MaaS Proxy erhalten Sie eine zentrale Plattform zur Verwaltung aller KI-Zugriffe – unabhängig vom Provider. Sie profitieren von einheitlicher Authentifizierung, zentralem Monitoring, Kostenkontrolle, DSGVO-Konformität und der Möglichkeit, auch lokale Modelle sicher zu integrieren.

Beides ist möglich. Der Proxy unterstützt sowohl gängige Provider-Modelle als auch den lokalen Betrieb eigener Open Source Modelle – z. B. auf einer Inferenzlösung von partimus oder auf Ihrer eigenen Infrastruktur.

Der gesamte Proxy-Service wird in deutschen Rechenzentren betrieben und ist ISO 27001-zertifiziert. Sie behalten die volle Kontrolle über Datenflüsse, Nutzungsrechte und Speicherorte – inklusive Protokollierung und rollenbasiertem Zugriff.

Ja, insbesondere durch die flexible Kostenkontrolle, einfache Einbindung in bestehende Systeme und die zentrale Modellverwaltung ist der Proxy auch für kleinere Organisationseinheiten geeignet. So können Sie skalieren, ohne komplexe Infrastruktur aufzubauen.

Sie erhalten monatlich eine konsolidierte Abrechnung aller Anfragen – unabhängig davon, ob sie an OpenAI, Google, Mistral oder ein lokales Modell gingen. Budgets und Limits lassen sich flexibel pro Team, Projekt oder Nutzer festlegen.

Sie haben Interesse an unserem MaaS Proxy?
Wir beraten Sie gerne!
Anmeldung zum KI-Einführungs­workshop
Ihre Anfrage wurde abgeschickt!