Aus dem Projektalltag: Stabiler Betrieb statt Kubernetes-Chaos - Unser Managed Service in der Praxis (Teil 3 –Kubernetes-Betrieb)

Mit dem Go-Live ist das Projekt keineswegs abgeschlossen – im Gegenteil: Jetzt beginnt der entscheidende Teil. Denn erst im laufenden Betrieb zeigt sich, ob eine Lösung nicht nur technisch durchdacht, sondern auch nachhaltig tragfähig ist. Genau hier entfaltet unsere Plattform ihre volle Stärke.

Unser Operations-Team übernimmt den laufenden Betrieb der gesamten Umgebung – zuverlässig, vorausschauend und entlastend für den Kunden. Dabei geht es nicht nur darum, „die Lichter am Leuchten“ zu halten, sondern um einen professionellen Service, der Betriebsrisiken minimiert und gleichzeitig volle Transparenz schafft.

Unsere Aufgaben im Betrieb auf einen Blick:

  • Überwachung der Infrastruktur, Proaktive Fehlererkennung
    Wir behalten alle zentralen Komponenten im Blick – von den Kubernetes-Clustern über Datenbanken und Loadbalancer bis hin zur Container Registry. Auffälligkeiten erkennen wir frühzeitig, bevor sie zu einem Problem werden.
  • Applikationsmonitoring auf Endpunkt-Ebene
    Auch die Anwendung selbst wird aktiv überwacht. So stellen wir sicher, dass sie jederzeit wie erwartet funktioniert – mit Fokus auf Performance, Verfügbarkeit und Benutzererfahrung.
  • Patchmanagement & Konfigurationspflege
    Sicherheitsupdates und Systemanpassungen werden regelmäßig und kontrolliert eingespielt – immer abgestimmt mit dem Kunden und dokumentiert nach klaren Prozessen.

Transparenz und Vertrauen

Ein zentraler Bestandteil unseres Managed Services ist die transparente Kommunikation. Alle Aktivitäten im Betrieb werden revisionssicher dokumentiert. Der Kunde erhält regelmäßig:

• Monatliche Betriebsreports mit allen relevanten Kennzahlen

• Nachweise zur Einhaltung der vereinbarten SLAs

• Ein umfassendes Betriebsführungshandbuch, das jederzeit nachvollziehbar macht, wie die Plattform aufgebaut und betrieben wird

So bleibt der Betrieb nicht nur stabil, sondern auch nachvollziehbar – gerade im regulierten Umfeld ein entscheidender Vorteil.

Mehr als nur „Managed Kubernetes“

Unsere Lösung geht bewusst über den klassischen Managed Kubernetes-Service hinaus. Wir kümmern uns nicht nur um das Cluster selbst, sondern betreiben die komplette Plattform – inklusive aller angrenzenden Dienste und Prozesse:

✅ Betrieb der gesamten Umgebung – von Infrastruktur bis Anwendung
✅ Full-Service für Datenbanken, Loadbalancer & Container Registry
✅ CI/CD & Security – durchgängig integriert
✅ Vollständige Betreuung der Applikation, inklusive Monitoring und operativer Verantwortung

Fazit: Fokus auf das Wesentliche

Für unseren Kunden bedeutet das: weniger technischer Aufwand, weniger Betriebsrisiken und mehr Fokus auf das eigene Kerngeschäft. Die IT läuft zuverlässig im Hintergrund – modern, sicher und skalierbar.

Und genau das ist unser Anspruch: eine Lösung, die nicht nur technisch überzeugt, sondern im Alltag einfach funktioniert.


Aus dem Projektalltag: Von der Theorie in den Betrieb (Teil 2 - Die Umsetzung)

Die größte Herausforderung bei der Umsetzung war die Tatsache, dass die neue Infrastruktur parallel zur bestehenden produktiven Umgebung aufgebaut werden musste, ohne dabei den laufenden Betrieb des Kunden zu stören. In einer solchen Situation ist sorgfältige Planung und exakte Koordination unerlässlich, um einen nahtlosen Übergang zu gewährleisten.

Um diese Herausforderung zu meistern, stellte unser Team dem Kunden ein speziell angepasstes VMware-Image zur Verfügung. Dieses war bereits optimiert, um sich problemlos in unsere bestehende Plattform zu integrieren. Dadurch konnten wir Sicherheits- und Monitoring-Komponenten direkt und automatisch implementieren – ohne manuelle Eingriffe oder Verzögerungen. Die Anpassungen an der Infrastruktur wurden so schnell und effizient vorgenommen, dass der Kunde keine Ausfallzeiten oder Unterbrechungen im Betrieb erleben musste.

Parallel dazu haben wir in enger Zusammenarbeit mit dem Softwarehersteller den gesamten Delivery-Prozess modernisiert. Dabei legten wir besonderen Wert darauf, eine strukturierte und wiederholbare Pipeline zu schaffen, die den zukünftigen Betrieb erleichtert und beschleunigt:

  • Einheitliches Tagging von Container Images & Helm Charts
    Durch ein konsistentes Tagging konnten wir sicherstellen, dass alle Container-Images und Helm Charts jederzeit klar identifizierbar und versioniert sind. Diese Methode gewährleistet nicht nur eine transparente Verwaltung, sondern auch eine einfache Nachverfolgung und Wiederverwendbarkeit im gesamten System.
  • Umstellung auf ein Stage-unabhängiges Build
    Der Umstieg auf ein stage-unabhängiges Build ermöglichte es uns, den Entwicklungs- und Deployment-Prozess zu vereinheitlichen. So konnten wir schneller auf Änderungen reagieren und sicherstellen, dass alle Umgebungen – sei es in der Entwicklung, im Test oder in der Produktion – konstant und fehlerfrei arbeiten.
  • Bereinigung von Altlasten & Secrets
    In einem weiteren Schritt haben wir überflüssige Daten und nicht mehr benötigte "Altlasten" entfernt und die Handhabung von Secrets optimiert. Dies half nicht nur, die Systemkomplexität zu verringern, sondern auch, potenzielle Sicherheitslücken zu schließen und das System insgesamt sauberer und stabiler zu machen.
  • Implementierung von Monitoring-Endpunkten
    Um die neue Infrastruktur direkt unter Kontrolle zu haben, haben wir umfangreiche Monitoring-Endpunkte eingebaut. Diese sorgen dafür, dass wir sofort informiert werden, wenn es in der neuen Umgebung zu Problemen kommt, und können bei Bedarf schnell reagieren.

Die eigentliche Migration der Applikation verlief dann in klar definierten, einfach nachvollziehbaren Schritten:

  • Zuerst wurde die Applikation auf der alten Plattform gestoppt, im Anschluss haben wir alle relevanten Daten in Form von Datenbank-Dumps gesichert.
  • Diese Daten wurden dann in der neuen Umgebung wiederhergestellt, sodass keine wichtigen Informationen verloren gingen.
  • Nach der erfolgreichen Bereitstellung und einem abschließenden Funktionstest wurde die DNS-Umschaltung vorgenommen.

Dank der detaillierten Vorabplanung und einer präzisen Ausführung konnten wir den gesamten Prozess innerhalb weniger Stunden abschließen – und das alles mit einem sehr kurzen Wartungsfenster.

Im nächsten Teil des Blogs gehen wir dann auf den Betrieb der Plattform ein. Es bleibt spannend.


Aus dem Projektalltag: Kubernetes als Must-Have - Wie wir die richtige Lösung für ein komplexes Projekt fanden (Teil1 - Einstieg und Planung)

Manchmal kommt der Moment, in dem eine Technologie von "nice to have" zu "muss man haben" wird, schneller als man denkt. Ein aktuelles Projekt mit einem Kunden aus dem Finanzsektor hat uns genau das gezeigt. Es ging darum, eine containerisierte Anwendung in einer VMware-Umgebung zu betreiben – und schnell wurde klar: Kubernetes ist nicht mehr optional.

 

Die Herausforderung: Eine schnelle Lösung reicht nicht

Der Kunde hatte eine klare Vorstellung davon, wie die Anwendung laufen sollte – und auch der Softwareanbieter hatte eine Lösung parat. Doch schnell wurde klar, dass die ursprüngliche Idee des Softwareanbieters, zwei Single-Node-Kubernetes-Cluster (einen für Tests und einen für die Produktion), in der Praxis nicht ausreichen würde.

Was zunächst nach einer schnellen Lösung aussah, entpuppte sich als riskanter Schritt: Ohne Ausfallsicherheit, ohne echtes Monitoring und ohne eine klare Sicherheitsstrategie war das Ganze besonders im stark regulierten Finanzumfeld nicht zu betreiben.

 

Unser Ansatz: Mehr als nur eine kurzfristige Lösung

Als wir ins Boot kamen war es unsere Aufgabe, nicht nur eine stabile technische Lösung zu schaffen, sondern vor allem eine, die auch langfristig zuverlässig und einfach skalierbar ist. In enger Zusammenarbeit mit dem Kunden haben wir die Architektur so geplant, dass sie auch in Zukunft den steigenden Anforderungen gerecht wird und gleichzeitig die nötige Sicherheit und Effizienz gewährleistet.

 

Unsere Überlegungen in der Planungsphase:

  • Hochverfügbare Kubernetes-Cluster auf VMware

Anstelle der Single-Node-Cluster haben wir hochverfügbare Kubernetes-Cluster vorgeschlagen. So stellen wir sicher, dass der Kunde nicht nur von den Vorteilen von Kubernetes profitiert, sondern auch von einer stabilen und belastbaren Infrastruktur, die im laufenden Betrieb keine Schwächen zeigt.

  • Ausfallsicherheit durch Redundanz

Ein Single-Node-Cluster ohne Redundanz hätte einfach nicht gereicht. Deshalb haben wir die Architektur so aufgebaut, dass auch im Falle eines Ausfalls schnell und ohne Unterbrechung weitergearbeitet werden kann.

  • Klare Trennung der Verantwortlichkeiten

Besonders wichtig in einem solchen Projekt war es, klare Zuständigkeiten und Verantwortlichkeiten festzulegen. So war sofort erkennbar, wer für welchen Teil der Infrastruktur zuständig ist, was nicht nur den Betrieb vereinfacht, sondern auch die Sicherheit erhöht.

 

Echte Zusammenarbeit als Basis für ein gelungenes Ergebnis

Unser Team arbeitete eng und partnerschaftlich mit dem Kunden zusammen – sowohl auf technischer als auch auf zwischenmenschlicher Ebene. Der Dialog war geprägt von Offenheit, Vertrauen und einer kontinuierlichen Abstimmung, die es uns ermöglichte, gemeinsam passende Lösungen zu entwickeln. In einer Reihe kollaborativer Workshops konnten wir gemeinsam die Anforderungen und Bedürfnisse detailliert erarbeiten.

 

Dabei entstanden unter anderem:

✅ Ein erweitertes Netzwerkkonzept, das auf die spezifischen Anforderungen des Kunden abgestimmt ist

✅ Dedizierte Maschinen für Loadbalancer & Datenbanken, um die Performance und Skalierbarkeit zu optimieren

✅ Eine zentrale Container Registry, die einen sicheren und effizienten Zugriff auf die Container-Images ermöglicht

✅ Ein modernes CI/CD-Setup, welches den gesamten Deploymentprozess automatisiert und die Wartungsfenster deutlich verkürzt

✅ Anbindung aller Systeme an unsere cloudopserve-Managementplattform, die eine zentrale und transparente Verwaltung sowie Monitoring aller Komponenten gewährleistet

 

Im nächsten Teil des Blogs gehen wir dann genauer darauf ein, wie wir die Kubernetes-Infrastruktur umgesetzt haben und welche Herausforderungen wir dabei gemeistert haben. Bleiben Sie gespannt!