Manchmal kommt der Moment, in dem eine Technologie von „nice to have“ zu „muss man haben“ wird, schneller als man denkt. Ein aktuelles Projekt mit einem Kunden aus dem Finanzsektor hat uns genau das gezeigt. Es ging darum, eine containerisierte Anwendung in einer VMware-Umgebung zu betreiben – und schnell wurde klar: Kubernetes ist nicht mehr optional.
Die Herausforderung: Eine schnelle Lösung reicht nicht
Der Kunde hatte eine klare Vorstellung davon, wie die Anwendung laufen sollte – und auch der Softwareanbieter hatte eine Lösung parat. Doch schnell wurde klar, dass die ursprüngliche Idee des Softwareanbieters, zwei Single-Node-Kubernetes-Cluster (einen für Tests und einen für die Produktion), in der Praxis nicht ausreichen würde.
Was zunächst nach einer schnellen Lösung aussah, entpuppte sich als riskanter Schritt: Ohne Ausfallsicherheit, ohne echtes Monitoring und ohne eine klare Sicherheitsstrategie war das Ganze besonders im stark regulierten Finanzumfeld nicht zu betreiben.
Unser Ansatz: Mehr als nur eine kurzfristige Lösung
Als wir ins Boot kamen war es unsere Aufgabe, nicht nur eine stabile technische Lösung zu schaffen, sondern vor allem eine, die auch langfristig zuverlässig und einfach skalierbar ist. In enger Zusammenarbeit mit dem Kunden haben wir die Architektur so geplant, dass sie auch in Zukunft den steigenden Anforderungen gerecht wird und gleichzeitig die nötige Sicherheit und Effizienz gewährleistet.
Unsere Überlegungen in der Planungsphase:
- Hochverfügbare Kubernetes-Cluster auf VMware
Anstelle der Single-Node-Cluster haben wir hochverfügbare Kubernetes-Cluster vorgeschlagen. So stellen wir sicher, dass der Kunde nicht nur von den Vorteilen von Kubernetes profitiert, sondern auch von einer stabilen und belastbaren Infrastruktur, die im laufenden Betrieb keine Schwächen zeigt.
- Ausfallsicherheit durch Redundanz
Ein Single-Node-Cluster ohne Redundanz hätte einfach nicht gereicht. Deshalb haben wir die Architektur so aufgebaut, dass auch im Falle eines Ausfalls schnell und ohne Unterbrechung weitergearbeitet werden kann.
- Klare Trennung der Verantwortlichkeiten
Besonders wichtig in einem solchen Projekt war es, klare Zuständigkeiten und Verantwortlichkeiten festzulegen. So war sofort erkennbar, wer für welchen Teil der Infrastruktur zuständig ist, was nicht nur den Betrieb vereinfacht, sondern auch die Sicherheit erhöht.
Echte Zusammenarbeit als Basis für ein gelungenes Ergebnis
Unser Team arbeitete eng und partnerschaftlich mit dem Kunden zusammen – sowohl auf technischer als auch auf zwischenmenschlicher Ebene. Der Dialog war geprägt von Offenheit, Vertrauen und einer kontinuierlichen Abstimmung, die es uns ermöglichte, gemeinsam passende Lösungen zu entwickeln. In einer Reihe kollaborativer Workshops konnten wir gemeinsam die Anforderungen und Bedürfnisse detailliert erarbeiten.
Dabei entstanden unter anderem:
✅ Ein erweitertes Netzwerkkonzept, das auf die spezifischen Anforderungen des Kunden abgestimmt ist
✅ Dedizierte Maschinen für Loadbalancer & Datenbanken, um die Performance und Skalierbarkeit zu optimieren
✅ Eine zentrale Container Registry, die einen sicheren und effizienten Zugriff auf die Container-Images ermöglicht
✅ Ein modernes CI/CD-Setup, welches den gesamten Deploymentprozess automatisiert und die Wartungsfenster deutlich verkürzt
✅ Anbindung aller Systeme an unsere cloudopserve-Managementplattform, die eine zentrale und transparente Verwaltung sowie Monitoring aller Komponenten gewährleistet
Im nächsten Teil des Blogs gehen wir dann genauer darauf ein, wie wir die Kubernetes-Infrastruktur umgesetzt haben und welche Herausforderungen wir dabei gemeistert haben. Bleiben Sie gespannt!