Model as a Service –
Zentrale AI-Modell-Verwaltung
mit deutschem Proxy
DSGVO-konformer Zugang zu Spitzenmodellen
Die Nutzung leistungsfähiger KI-Modelle wie GPT-4o, Gemini 2.5 oder Grok 4 stellt Unternehmen vor neue Herausforderungen: Datenschutz, Budgetkontrolle, technischer Zugang und Modellvielfalt. Mit dem MaaS Proxy von partimus greifen Sie über eine zentrale API auf führende Modelle zu – abgesichert durch deutsche Infrastruktur, flexible Budgetverwaltung und optionalem Hosting für Open-Source-Lösungen. Entwickeln, skalieren und integrieren Sie KI-Anwendungen mit maximaler Sicherheit und Kontrolle – ohne Wartelisten, versteckte Kosten oder Compliance-Risiken.
- DSGVO-konform gehostet in Deutschland
- Zentrale Budgetkontrolle & API-Zugang
- Sofort startklar – keine Wartezeit
Sicherheit, Komfort und strategische
Freiheit bei der Modellauswahl
Mit dem MaaS Proxy von partimus schaffen Sie eine zentrale, sichere und effiziente Grundlage für den produktiven Einsatz moderner KI-Modelle in Ihrer Organisation. Die Lösung vereinfacht nicht nur die Anbindung unterschiedlicher Anwendungen an verschiedene Sprachmodelle, sondern schafft auch Klarheit bei Kosten, Governance und Datenschutz. Durch standardisierte Schnittstellen, volle Kontrolle über den Datenfluss und die Möglichkeit zur Integration eigener Modelle entsteht eine flexible und zukunftsfähige Infrastruktur – optimiert für den geschäftlichen Einsatz.
🏛️ Deutscher Proxy-Service
DSGVO‑konformer, einheitlicher Zugang über deutsche Rechenzentren.
🇩🇪 Lokales Hosting verfügbar
Open‑Source‑Modelle (z. B. DeepSeek R1, GLM 4.5) können komplett in Deutschland betrieben werden.
🎯 Zentrale Budgetverwaltung mit Spending Limits
Tägliche, wöchentliche und monatliche Limits pro Team oder Entwickler. Transparente Euro‑Preise ohne versteckte Kosten.
🔧 Ein API für alle Modelle
OpenAI‑kompatible Schnittstelle: Wechseln Sie zwischen GPT‑4o, Grok 4 oder Qwen3‑Coder ohne Code‑Änderungen.
⚡ Sofortige Verfügbarkeit
Keine Wartelisten oder zusätzliche Registrierung – starten Sie in Minuten mit Prototypen bis zu Production.
🛡️ Enterprise‑Grade Sicherheit
ISO 27001‑zertifizierte Infrastruktur, End‑to‑End‑Verschlüsselung und zentrale Zugriffskontrollen.
Breite Modellvielfalt – flexibel und zukunftssicher
Der MaaS Proxy unterstützt eine Vielzahl leistungsfähiger Sprachmodelle – von Open-Source-LLMs wie LLaMA, Qwen, DeepSeek oder Mistral bis hin zu Modellen von OpenAI, Google oder Anthropic. Sie entscheiden, welche Modelle Sie nutzen, priorisieren oder blockieren möchten – ganz nach Ihrem Anwendungsfall und den Anforderungen Ihrer Organisation. Eigene Modelle lassen sich ebenso integrieren wie externe APIs, sodass Sie Ihre KI-Infrastruktur jederzeit flexibel anpassen und erweitern können. Neue Releases lassen sich zentral verwalten und bereitstellen – ohne manuellen Anpassungsaufwand in den Fachanwendungen.
- GPT‑5 (OpenAI) – Next‑Generation‑Flaggschiff, 1 M Token Context
- GPT‑4o (OpenAI) – Multimodal, 128 K Context
- Gemini 2.5 Pro (Google) – Thinking Model, 1 M Token Context
- Grok 4 (xAI) – Real‑time Reasoning, 256 K Context
- Qwen3‑Coder (Alibaba) – 480 B Parameter MoE für agentische Programmierung
- DeepSeek R1 (DeepSeek) – Kostengünstiges Reasoning‑Modell
- GLM 4.5 (Zhipu AI)) – 355 B Parameter Hybrid Reasoning
- GPT OSS 120B (OpenAI)) – Open‑Source Reasoning
- Kimi K2 (Moonshot AI)) – 1 T Parameter Agentic Intelligence
Testen Sie den partimus MaaS Proxy unverbindlich
Profitieren Sie von zentraler Modellverwaltung, DSGVO-konformem Zugriff auf führende LLMs und maximaler Kontrolle über Ihre KI-Nutzung – ohne technische Einstiegshürden. Mit dem partimus MaaS Proxy integrieren Sie Sprachmodelle wie OpenAI, Mistral oder LLaMA über eine einheitliche Schnittstelle in Ihre Systeme – sicher gehostet in Deutschland.
Einheitliches API-Gateway für alle Modelle
Der partimus MaaS Proxy ist so konzipiert, dass Sie Ihre vorhandenen Anwendungen schnell und unkompliziert um KI-Funktionalität erweitern können. Dank standardisierter REST-API, OpenAI-kompatibler Endpunkte und voller Multi-Provider-Unterstützung lässt sich der Proxy in bestehende Tools, Backends oder Benutzeroberflächen integrieren – ohne Anpassung der Modell-API. Auch Self-hosted LLMs lassen sich nahtlos einbinden.
Alle Anfragen laufen über einen zentralen Gateway-Service in deutschen Rechenzentren mit höchstem Sicherheits- und Datenschutzstandard. So behalten Sie die volle Kontrolle über Datenfluss, Sicherheit und Infrastruktur – DSGVO-konform und performant.
Nutzen Sie mit einem einzigen Zugang verschiedenste KI-Anbieter wie OpenAI, Google, xAI, Alibaba und weitere. Der Proxy übernimmt das Routing und die Verwaltung – ganz ohne Anpassungen an der jeweiligen API.
Setzen Sie Open Source Modelle wie LLaMA, Mistral oder Qwen direkt in Ihrer eigenen Infrastruktur ein. Der Proxy ermöglicht die nahtlose Einbindung lokaler Modelle über dieselbe Schnittstelle wie bei Cloud-Anbietern.
Behalten Sie Ihre Ausgaben im Griff – mit automatischer Budgetverteilung pro Team, Modell oder Anwendung. Umfangreiche Analytics und Reports helfen Ihnen, die Nutzung transparent zu analysieren und zu optimieren.
Code-Beispiel
import openai
client = openai.OpenAI(
api_key="<Ihr-partimus-api-key>",
base_url="https://maas.partimus.com/v1"
)
response = client.chat.completions.create(
model="gpt-4o", # oder grok-4, qwen3-coder, gemini-2.5-pro, etc.
messages=[{"role": "user", "content": "Hallo Welt!"}]
)
print(response.choices[0].message.content)
Flexible Preismodelle für jedes Szenario
Ob Startup, Forschungsteam oder Konzern – unser Pricing passt sich Ihrem Bedarf an. Wählen Sie zwischen nutzungsbasierter Abrechnung pro Token, pauschalen Monatsplänen für bestimmte Anbieter oder individuell vereinbarten Enterprise-Modellen. Sie zahlen nur, was Sie wirklich nutzen – bei voller Kostenkontrolle und klarer Übersicht.
- Entwickler-Accounts
- AI-Credit
- Proxy-Zugang
- Analytics
- Team-Management
- Support
- Custom SLAs
- Lokales Hosting
- Dedicated Infrastructure
- Preis
Unbegrenzt
Individuell
Advanced mit Reports
24/7 Premium Support
Individuell
*Alle Preise verstehen sich als monatliche/einmalige Gebühren zuzüglich Mehrwertsteuer. Unser Angebot richtet sich ausschließlich an Gewerbetreibende.
Model-Preise

Model | Kosten pro 1M Input Tokens | Kosten pro 1M Output Tokens |
---|---|---|
openai/gpt-5 | 1,40€ | 10,50€ |
openai/gpt-5-mini | 0,30€ | 2,10€ |
openai/gpt-5-nano | 0,10€ | 0,50€ |
openai/gpt-oss-20b | 0,20€ | 0,60€ |
openai/gpt-oss-120b | 0,20€ | 0,80€ |

Model | Kosten pro 1M Input Tokens | Kosten pro 1M Output Tokens |
---|---|---|
moonshotai/kimi-k2-instruct | 1,10€ | 3,20€ |

Model | Kosten pro 1M Input Tokens | Kosten pro 1M Output Tokens |
---|---|---|
meta/llama-4-maverick-17b | 0,30€ | 0,70€ |
meta/llama3-70b | 0,70€ | 0,90€ |
meta/llama3-8b | 0,10€ | 0,10€ |

Model | Kosten pro 1M Input Tokens | Kosten pro 1M Output Tokens |
---|---|---|
gemini/gemini-2.5-pro | 1,40€ | 10,50€ |
gemini/gemini-2.5-flash | 0,40€ | 2,70€ |

Model | Kosten pro 1M Input Tokens | Kosten pro 1M Output Tokens |
---|---|---|
xai/grok-4 | 3,20€ | 15,80€ |
xai/grok-code-fast | 0,30€ | 1,60€ |

Model | Kosten pro 1M Input Tokens | Kosten pro 1M Output Tokens |
---|---|---|
qwen/qwen3-coder-480b-a35b-instruct | 0,50€ | 1,70€ |
qwen/qwen3-235b-a22b-thinking | 0,20€ | 0,70€ |

Model | Kosten pro 1M Input Tokens | Kosten pro 1M Output Tokens |
---|---|---|
zai/glm-4.5 | 0,60€ | 2,10€ |
zai/glm-4.5-air | 0,30€ | 1,20€ |

Model | Kosten pro 1M Input Tokens | Kosten pro 1M Output Tokens |
---|---|---|
deepseek/deepseek-v3.1 | 0,40€ | 1,10€ |
deepseek/deepseek-r1-0528 | 0,60€ | 2,30€ |

Model | Kosten pro 1M Input Tokens | Kosten pro 1M Output Tokens |
---|---|---|
anthropic/claude-opus-4.1 | 15,80€ | 78,60€ |
anthropic/claude-sonnet-4 | 6,30€ | 15,80€ |
anthropic/claude-haiku-3.5 | 0,90€ | 4,20€ |
Der partimus KI-Einführungsworkshop
Sie möchten moderne KI-Tools sicher, effizient und praxisnah in Ihrem Arbeitsalltag nutzen? In unserem Workshop erhalten Sie nicht nur einen fundierten Überblick über aktuelle Sprachmodelle und die Nutzung des zentralen Proxy-Zugangs, sondern lernen auch gezielt praxisbewährte Tools wie RooCode und Chatbox kennen. Gemeinsam setzen wir individuelle Use Cases um und zeigen Ihnen, wie Sie KI reibungslos und datenschutzkonform in Ihre Prozesse integrieren.
In interaktiven Übungen arbeiten Sie aktiv mit den Tools, erstellen eigene Chatbots und automatisierte Workflows und profitieren von konkreten Best Practices zur Kosten- und Budgetsteuerung. Nach nur einem Tag sind Sie bereit, KI verantwortungsvoll und produktiv in Ihrem Unternehmen einzusetzen.
Buchen Sie jetzt Ihren Workshop und machen Sie Ihr Team fit für den KI-Einsatz.
Inhalte des Workshops
Grundlagen zu aktuellen Sprachmodellen, Einsatzmöglichkeiten und Trends.
Vorstellung bewährter Tools für kollaboratives Coden und Workflow-Automatisierung.
Eigene Anwendungsfälle umsetzen und Tools praxisnah erleben.
Klar verständliche Leitfäden für die Umsetzung im Arbeitsalltag.
Praktische Tipps zur sicheren und effizienten Anwendung.
Rechtssicherer Umgang mit KI in Ihrem Unternehmen.
Strategien zur Kostenoptimierung und Ressourcenkontrolle.
Ihre Vorteile auf einen Blick
- Praxisnahes Online-Webinar (1 Tag) für Entwickler und Anwender
- Einführung in moderne KI-Modelle und Unternehmens-Anwendungen
- Schritt-für-Schritt-Anleitung zur Nutzung des AI-Proxys und der Budgetverwaltung
- Schulung in Best Practices für Produktion, Sicherheit und Compliance
- Aktive Tool-Demos: Umgang mit RooCode und Chatbox live erproben
- Eigenständige Übungen & individuelle Fragen direkt im Workshop
- Handout mit allen Workflows & Checklisten zur direkten Anwendung in Ihrem Team
- Teilnahmezertifikat für alle Teilnehmenden
Maximale Sicherheit & volle Kontrolle
Der MaaS Proxy wurde speziell für höchste Datenschutzanforderungen entwickelt. Alle Anfragen werden über unsere Infrastruktur in deutschen Rechenzentren verarbeitet – ohne Umwege über Drittstaaten. Durch umfangreiche Logging-, Audit- und Kontrollmechanismen behalten Sie jederzeit die Übersicht über Datenflüsse und Zugriffe. Auf Wunsch können sensible Modelle auch vollständig lokal gehostet werden – für volle Souveränität über Ihre KI-Anwendungen.
mit deutschen Rechenzentren und Logging/Monitoring.
für maximale Datensouveränität.
für unser Informations‑Sicherheits‑Managementsystem.
mit striktem Berechtigungs- und Rollenmanagement.

Vielfältige Einsatzmöglichkeiten für Ihre Teams
Mit dem MaaS Proxy stellen Sie leistungsstarke KI-Modelle gezielt dort bereit, wo sie echten Mehrwert schaffen. Ob Entwicklung, Support oder Marketing – Ihr gesamtes Team profitiert von einem zentral gesteuerten, datenschutzkonformen Zugriff auf führende Modelle.
Erstellen Sie automatisiert sauberen Code, lassen Sie sich beim Debugging unterstützen oder generieren Sie technische Dokumentation – direkt aus Ihrer Entwicklungsumgebung. Modelle wie Qwen3 Coder oder GPT OSS 120B lassen sich über den Proxy nahtlos integrieren.
Nutzen Sie fortschrittliche KI-Modelle wie GPT-4o oder Grok 4, um dynamische, mehrsprachige Chatbots zu realisieren. Antworten auf aktuelle Fragen werden in Echtzeit aus verknüpften Wissensquellen generiert.
Erstellen Sie kreative, markenkonforme Inhalte in Sekunden – von Blogposts über Social Media bis hin zu Produkttexten. Gemini 2.5 Pro unterstützt Ihre Redaktionsprozesse mit überzeugender Qualität und konsistentem Stil.
Analysieren Sie große Datenmengen schnell und effizient mit Modellen wie DeepSeek R1 oder GLM 4.5 – ganz ohne teure eigene GPU-Infrastruktur. So erhalten Sie fundierte Insights für bessere Entscheidungen im Business-Alltag.
Starten Sie mit partimus
Nutzen Sie die Gelegenheit, Ihre IT-Infrastruktur zu optimieren und Ihr Unternehmen voranzubringen – kontaktieren Sie uns noch heute, um mehr über die maßgeschneiderten Vorteile zu erfahren, die partimus Ihnen bieten kann.
Fragen und Antworten zum MaaS Proxy
Sie überlegen, wie der MaaS Proxy in Ihre Infrastruktur passt, welche Modelle Sie integrieren können oder wie es um Datenschutz steht? Unsere FAQ geben Ihnen einen schnellen Überblick über die wichtigsten Themen. Für individuelle Fragen stehen wir Ihnen gerne persönlich per E-Mail oder Telefon zur Verfügung.
Welche Vorteile bietet der MaaS Proxy gegenüber einer direkten API-Nutzung bei OpenAI, Google & Co.?
Mit dem MaaS Proxy erhalten Sie eine zentrale Plattform zur Verwaltung aller KI-Zugriffe – unabhängig vom Provider. Sie profitieren von einheitlicher Authentifizierung, zentralem Monitoring, Kostenkontrolle, DSGVO-Konformität und der Möglichkeit, auch lokale Modelle sicher zu integrieren.
Können wir eigene Open Source Modelle einbinden oder ausschließlich auf Cloud-Anbieter zugreifen?
Beides ist möglich. Der Proxy unterstützt sowohl gängige Provider-Modelle als auch den lokalen Betrieb eigener Open Source Modelle – z. B. auf einer Inferenzlösung von partimus oder auf Ihrer eigenen Infrastruktur.
Wie hilft der Proxy bei der Einhaltung von Datenschutz und Compliance-Vorgaben?
Der gesamte Proxy-Service wird in deutschen Rechenzentren betrieben und ist ISO 27001-zertifiziert. Sie behalten die volle Kontrolle über Datenflüsse, Nutzungsrechte und Speicherorte – inklusive Protokollierung und rollenbasiertem Zugriff.
Ist der Einsatz des Proxys auch für kleinere Teams oder einzelne Abteilungen sinnvoll?
Ja, insbesondere durch die flexible Kostenkontrolle, einfache Einbindung in bestehende Systeme und die zentrale Modellverwaltung ist der Proxy auch für kleinere Organisationseinheiten geeignet. So können Sie skalieren, ohne komplexe Infrastruktur aufzubauen.
Wie funktioniert die Abrechnung bei Nutzung mehrerer Modelle und Anbieter?
Sie erhalten monatlich eine konsolidierte Abrechnung aller Anfragen – unabhängig davon, ob sie an OpenAI, Google, Mistral oder ein lokales Modell gingen. Budgets und Limits lassen sich flexibel pro Team, Projekt oder Nutzer festlegen.
Wir beraten Sie gerne!