Vendor Lock-in - Digitale Abängigkeit und die Strategien zur Vermeidung
Vendor Lock-in (Anbieterbindung) bezeichnet die Abhängigkeit von spezifischen Hard- oder Softwareanbietern, die den Wechsel zu Alternativen erschwert.
Die KIVA-Plattform für die Öffentliche Verwaltung ist so entworfen, dass sie Lock-in systematisch vermeidet und damit die digitale Souveränität der Verwaltung stärkt.
Beispiele für Ursachen von Lock-in: - Proprietäre Schnittstellen oder Datenformate - Lizenzabhängige Software-Komponenten - Fehlende Interoperabilität zwischen Systemen - Hohe Migrationskosten durch komplexe Datenmodelle oder proprietäre APIs - Langfristige Vertragsbindungen mit eingeschränkten Exit-Optionen
Solche Strukturen führen zu Kostensteigerungen, fehlender Innovationsfähigkeit und Abhängigkeit von externen Anbietern.
KIVA: Souveränität durch offene Architektur
Die KIVA-Plattform für die Öffentliche Verwaltung ist so konzipiert, dass sie Vendor Lock-in systematisch vermeidet. Sie setzt auf Modularität, Open Source, Containerisierung und offene Standards, um eine zukunftssichere und unabhängige digitale Infrastruktur zu gewährleisten. Strategien zur Reduzierung von Anbieterbindung umfassen den gezielten Einsatz von offenen Standards, offenen Schnittstellen, modularen Architekturen, Containerisierung und Datenportabilität.
Wichtig ist dabei nicht nur der technologische, sondern auch der organisatorische Ansatz: Verträge, Governance und Community-getriebene Entwicklung müssen die Unabhängigkeit aktiv fördern.
1. Modulare Architektur als Fundament
Die Plattform basiert auf einem strikt modularen Aufbau, der die jederzeitige Austauschbarkeit einzelner Komponenten ermöglicht. Neue technologische Entwicklungen können so zeitnah integriert werden, ohne dass die gesamte Systemarchitektur angepasst werden muss. Diese Flexibilität sichert langfristig die technische Unabhängigkeit.
2. Open Source als strategische Entscheidung
Durch den konsequenten Einsatz von Open-Source-Komponenten und die Nutzung hochwertiger Modelle mit offenen Lizenzen entsteht eine echte Alternative zu proprietären Cloud-Diensten. Die Verwaltung kann die Plattform gemeinschaftlich weiterentwickeln und dabei ihre digitale Souveränität bewahren.
3. Datenhoheit durch On-Premises-Betrieb
Die Plattform ist für den Betrieb in eigenen Rechenzentren optimiert. Sensible Verwaltungsdaten verlassen niemals die kontrollierten Infrastrukturen, was datenschutzrechtliche Anforderungen erfüllt und gleichzeitig volle Kontrolle über die Datenverarbeitung gewährleistet.
4. Containerisierung für maximale Flexibilität
Die gesamte Architektur basiert auf moderner Container-Technologie (Docker/Kubernetes), was eine cloud-agnostische Bereitstellung ermöglicht. Diese Containerisierung bietet die Freiheit, zwischen verschiedenen Infrastruktur-Anbietern zu wählen – sei es On-Premises oder bei deutschen Cloud-Providern wie STACKIT (der Cloud-Provider der Schwarz Gruppe mit Rechenzentren in Deutschland und Österreich) oder IONOS (Deutschlands führender Anbieter für IaaS/PaaS-Lösungen mit BSI-zertifizierten Rechenzentren).
Beide Anbieter garantieren die Einhaltung der DSGVO und speichern Daten ausschließlich in Europa, wodurch die digitale Souveränität auch beim Einsatz externer Cloud-Infrastrukturen gewahrt bleibt. IONOS ist sogar der erste deutsche Cloud-Anbieter, der sowohl das C5-Testat als auch die IT-Grundschutz-Zertifizierung des BSI erhalten hat, während STACKIT als einzige Messenger mit Freigabeempfehlung durch das BSI für die Kommunikation von "Verschlusssachen – Nur für den Dienstgebrauch" ausgezeichnet wurde.
Die technische Umsetzung
Die Architektur gliedert sich in drei wesentliche Schichten, die jeweils zur Entkopplung und Flexibilität beitragen:
Der Inference-Layer: Intelligente Modellverwaltung Das Herzstück bildet ein LLM-Gateway, das als zentrale Schnittstelle fungiert. Es kapselt verschiedene KI-Modelle und Backends durch eine einheitliche API (basierend auf dem OpenAI-Standard). Diese Abstraktionsebene ermöglicht es, verschiedene Inference-Backends parallel zu betreiben und bei Bedarf nahtlos zwischen ihnen zu wechseln – sei es zwischen On-Premise-Lösungen wie vLLM oder externen Anbietern.
Der Services-Layer: Flexible Funktionsbausteine Aufbauend auf dem Inference-Layer bietet diese Schicht spezialisierte Services wie RAG-Systeme, intelligente Agenten und aufgabenspezifische Dienste. Diese zustandslosen Komponenten lassen sich über ein API-Gateway flexibel zu komplexen Use Cases kombinieren. Das Model Context Protocol (MCP) sorgt dabei für einen standardisierten Zugriff auf Datenquellen und Tools, ohne Abhängigkeiten zu schaffen.
Der Infrastructure-Layer: Container-basierte Deployment-Freiheit Die Container-Orchestrierung mittels Kubernetes ermöglicht eine nahtlose Migration zwischen verschiedenen Umgebungen. Ob in eigenen Rechenzentren, bei STACKIT mit seiner bewährten Cloud- und Colocation-Infrastruktur für die Schwarz Gruppe, oder bei IONOS, das bereits einen Großauftrag der Bundesverwaltung für eine besonders sichere Cloud-Lösung erhalten hat – die Plattform bleibt portabel und unabhängig.