Wie eine Kombination aus SIEM, VMaaS und SOC die IT-Sicherheitsstrategie unterstützt
Die zunehmende Vernetzung der Welt ermöglicht es Unternehmen einfacher IT-Services anzubieten, zu nutzen und zu kommunizieren. Leider ermöglicht die Vernetzung auch Cyberangriffe mit zunehmender Komplexität und Häufigkeit. Die Sicherheit der IT-Infrastruktur ist für Unternehmen daher wichtiger denn je. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnt regelmäßig vor der zunehmenden Bedrohungslage. Laut dem BSI-Lagebericht 2023 verzeichneten Unternehmen eine deutliche Zunahme von Cyberangriffen, wobei insbesondere Ransomware-Angriffe stark angestiegen sind. In diesem Kontext tauchen Begriffe wie SIEM, VMaaS und SOC immer wieder auf. Doch was bedeuten sie genau? Und warum ist ein Managed SOC für viele Unternehmen eine attraktive Option? In diesem Artikel klären wir diese Fragen und beleuchten, wie VMaaS zur Sicherheit eines Unternehmens beiträgt.
Was ist SIEM?
SIEM steht für Security Information and Event Management. Diese Technologie ermöglicht die Echtzeit-Überwachung und Analyse von Sicherheitswarnungen, die durch Anwendungen und Netzwerkinfrastrukturen generiert werden. SIEM-Lösungen kombinieren zwei zentrale Funktionen: Das Sammeln und Analysieren von Sicherheitsdaten aus Logs und Datenbanken sowie die Echtzeit-Überwachung und Korrelation von Ereignissen, um sicherheitsrelevante Vorfälle zu erkennen. Durch den Einsatz von SIEM können Unternehmen potenzielle Bedrohungen frühzeitig identifizieren und entsprechende Gegenmaßnahmen ergreifen.
Was ist VMaaS?
VMaaS steht für Vulnerability Management as a Service. Hierbei handelt es sich um eine Dienstleistung, die das Scannen, Bewerten und Beheben von Schwachstellen in der IT-Infrastruktur eines Unternehmens umfasst. Anbieter von VMaaS-Diensten liefern regelmäßig aktualisierte Informationen über neue Bedrohungen und Sicherheitslücken und unterstützen Unternehmen dabei, ihre Systeme stets auf dem neuesten Stand zu halten.
Was ist ein SOC?
Ein SOC, oder Security Operations Center, ist eine zentrale Einheit, die für die Überwachung, Erkennung und Reaktion auf Sicherheitsvorfälle verantwortlich ist. Ein SOC besteht aus einem Team von Sicherheitsexperten, die mithilfe verschiedener Technologien und Prozesse die Sicherheit der IT-Infrastruktur eines Unternehmens gewährleisten.
Vorteile eines Managed SOC
Ein ausgelagertes SOC, auch Managed SOC genannt, bietet zahlreiche Vorteile. Zum einen ist es kosteneffizient: Der Aufbau und Betrieb eines internen SOC kann schwer abzuschätzende Aufwände erfordern, während ein Managed SOC planbare Nutzungskosten, ohne hohe Investitionskosten ermöglicht. Außerdem profitieren Unternehmen von Expertenwissen: Managed SOCs verfügen über Teams von Sicherheitsexperten, die stets auf dem neuesten Stand der Technologie und Bedrohungslandschaft sind. Ein weiterer Vorteil ist die Rund-um-die-Uhr-Überwachung. Ein ausgelagertes SOC bietet auf Wunsch eine 24/7-Überwachung und Reaktion auf Sicherheitsvorfälle, was besonders für Unternehmen mit begrenzten internen Ressourcen von Vorteil ist. Zudem sind die Reaktionszeiten schneller: Durch die Nutzung fortschrittlicher Erkennungstechnologien und eingespielter Prozesse können Bedrohungen schneller identifiziert und abgewehrt werden. Nicht zuletzt ist die Skalierbarkeit ein großer Vorteil: Ein Managed SOC kann flexibel an die Anzahl der zu überwachenden Assets eines Unternehmens angepasst werden.
Wie VMaaS zur Sicherheit des Unternehmens beiträgt
VMaaS spielt eine entscheidende Rolle bei der Sicherung der IT-Infrastruktur eines Unternehmens. Durch regelmäßige Schwachstellenanalysen und -bewertungen können Unternehmen proaktiv ihre Sicherheit stärken. Bekannte Schwachstellen können so identifiziert und behoben werden, bevor sie von Angreifern ausgenutzt werden können. Darüber hinaus hilft VMaaS Unternehmen, strenge Sicherheitsvorschriften zu erfüllen und Nachweise über durchgeführte Sicherheitsmaßnahmen zu erbringen. Dies ist besonders wichtig, da viele Branchen strengen Compliance-Vorgaben unterliegen. Die kontinuierliche Überwachung und Behebung von Schwachstellen reduziert das Risiko von Sicherheitsvorfällen erheblich. Schließlich ermöglicht die Nutzung eines Managed VMaaS internen IT-Teams, sich auf andere kritische Aufgaben zu konzentrieren und dadurch effizienter zu arbeiten.
Strategische Sicherheit
Die Kombination aus SIEM, VMaaS und einem SOC ermöglicht Unternehmen die Umsetzung einer robusten Sicherheitsstrategie. Bei cloudopserve bieten wir für alle Kundensysteme SIEM-, VMaaS und SOC-Leistungen an, die operativ auf Ihre Sicherheitsstrategie einzahlen. Zudem können wir effektiv die Bedrohungslage für Ihre Assets bewerten und im Rahmen unserer Operations-Leistungen angemessene Maßnahmen vorschlagen und umsetzen. Unsere regelmäßigen Reports ermöglichen es darüber hinaus wichtige Kennzahlen zu bewerten und Compliance-Vorgaben nachzuweisen. Durch die Kombination der Services ermöglichen wir es Unternehmen ihre IT-Infrastruktur effektiv schützen und sich gegen die ständig wachsenden Cyberbedrohungen zu wappnen. Sprechen Sie uns daher gerne unverbindlich an. Wir beraten Sie gerne zu den genannten Möglichkeiten.
Die DORA-Verordnung stärkt die digitale Resilienz im Finanzsektor
Um das Finanzsystem besser gegenüber Cyberangriffen zu schützen, steht die Einführung der Digital Operational Resilience Act (DORA)-Verordnung vor der Tür. Diese neue Verordnung markiert einen bedeutenden Schritt zur Stärkung der digitalen Widerstandsfähigkeit des Finanzsektors in der EU. Die Verordnung gilt ab dem 17.Januar 2025, nachdem diese am 17. Januar 2023 mit einem Umsetzungsfrist von 24 Monaten in Kraft getreten ist.
In diesem Blogbeitrag möchten wir einen umfassenden Überblick über die DORA-Verordnung geben, ihre wichtigsten Bestimmungen erläutern, aufzeigen, welche Auswirkungen sie auf Finanzinstitute und ihre Dienstleister haben wird und darstellen, wie cloudopserve Sie bei der Umsetzung der Verordnung unterstützen kann.
Hintergrund und Ziele von DORA
In einer zunehmend digitalisierten Welt ist der Schutz vor Cyberbedrohungen und die Sicherstellung der kontinuierlichen Verfügbarkeit von Dienstleistungen von entscheidender Bedeutung. Die DORA-Verordnung zielt darauf ab, die betriebliche Resilienz von Finanzunternehmen zu verbessern, indem sie einheitliche Anforderungen an das Risikomanagement im Bereich der Informations- und Kommunikationstechnologie (IKT) einführt.
Wesentliche Bestimmungen der DORA-Verordnung sind dabei folgende:
Die DORA-Verordnung umfasst mehrere zentrale Bestimmungen, die Finanzinstitute und ihre Dienstleister beachten müssen:
- Risikomanagement-Rahmenwerk: Finanzinstitute müssen ein umfassendes IKT-Risikomanagement-Rahmenwerk implementieren, das die Identifikation, Bewertung und Minderung von IKT-Risiken umfasst. Dazu gehören auch die regelmäßige Überprüfung und Aktualisierung dieses Rahmenwerks. Dora lehnt orientiert sich dabei auch an gängigen Anforderungen aus ISO 27001 und ITIL.
- Meldepflichten: Die Verordnung verpflichtet Finanzinstitute, bedeutende IKT-Vorfälle innerhalb eines bestimmten Zeitraums an die zuständigen Aufsichtsbehörden zu melden. Dazu muss ein entsprechender Prozess aufgesetzt werden. Dies soll eine schnelle Reaktion und eine bessere Koordination bei der Bewältigung von Cybervorfällen ermöglichen.
- Dienstleistermanagement: Unternehmen müssen sicherstellen, dass ihre IKT-Dienstleister den Anforderungen der DORA-Verordnung entsprechen. Dies umfasst die Bewertung der Risiken, die von Drittanbietern ausgehen, sowie die Implementierung geeigneter Kontrollmechanismen.
- Widerstandsfähigkeitstests: Finanzinstitute sind verpflichtet, regelmäßige Tests durchzuführen, um ihre digitale Widerstandsfähigkeit zu bewerten. Diese Tests sollen Schwachstellen aufdecken und Maßnahmen zur Verbesserung der Resilienz identifizieren.
- Governance und Überwachung: Die DORA-Verordnung legt fest, dass die Leitungsorgane der Finanzinstitute eine aktive Rolle im IKT-Risikomanagement spielen müssen. Sie sind verantwortlich für die Überwachung und Steuerung der Risikomanagementprozesse.
Auswirkungen auf Finanzinstitute und Dienstleister
Die Einführung der DORA-Verordnung bringt erhebliche Änderungen für Finanzinstitute und ihre Dienstleister mit sich - auch in Anbetracht der noch verbleibenden Umsetzungszeit. Finanzinstitute müssen ggf. erhebliche Ressourcen in die Implementierung der neuen Anforderungen investieren, was die Anpassung bestehender Prozesse und Systeme sowie die Schulung der Mitarbeiter umfasst. Zudem werden die Anforderungen an das Drittparteimanagement strenger. Dadurch müssen ggf. Verträge und Überwachungsprozesse für IKT-Dienstleister überarbeitet werden, was zu einer intensiveren Zusammenarbeit mit den Dienstleistern führen kann. Durch die Meldepflichten und die aktive Rolle der Leitungsorgane im Risikomanagement wird eine größere Transparenz und Verantwortlichkeit innerhalb der Finanzinstitute geschaffen. Langfristig sollen diese neuen Anforderungen zu einer verbesserten Cybersicherheit und einer höheren Widerstandsfähigkeit gegen digitale Bedrohungen führen.
Fazit
Die DORA-Verordnung stellt einen bedeutenden Fortschritt für die Stärkung der digitalen Widerstandsfähigkeit des Finanzsektors in der EU dar. Sie bringt erhebliche Änderungen und Anforderungen mit sich, die sowohl Finanzinstitute als auch ihre Dienstleister betreffen. Während der Umsetzungsaufwand beträchtlich sein kann, bieten die verbesserten Sicherheitsstandards und die einheitlichen Regelungen langfristige Vorteile in Form von erhöhter Sicherheit und Stabilität.
Für Finanzinstitute ist es nun von entscheidender Bedeutung, die Anforderungen der DORA-Verordnung sorgfältig zu analysieren und frühzeitig Maßnahmen zu ergreifen, um die Compliance sicherzustellen. Nur so können sie die neuen Herausforderungen meistern und gleichzeitig die Chancen nutzen, die sich aus einer stärkeren digitalen Widerstandsfähigkeit ergeben.
cloudopserve ist dabei Ihr ITK-Dienstleister, der sich auch im Rahmen von DORA nahtlos und zeitnah in das Management von Finanzinstituten integrieren lässt. cloudopserve unterstützt Kunden bei der Umsetzung neuer und geänderter Anforderungen durch DORA. Auch auf betriebsebene bietet cloudopserve umfassende Services, die es ermöglichen den Anforderungen von DORA gerecht zu werden. Sprechen Sie uns daher gerne unverbindlich an. Wir sind für Sie da.
Disaster Recovery-Plan: ein wichtiger Baustein im Business Continuity Management (BCM)
Ohne IT-Systeme laufen viele Prozesse in Unternehmen heutzutage nicht mehr. Die Bedrohungen der digitalen Prozesse und damit verbundener Daten nehmen allerdings stetig zu. Hierbei spielen z.B. Cyberangriffe, IT-Ausfälle oder häufiger werdende extreme Wetterereignisse und Naturkatastrophen eine wichtige Rolle. Die Allianz stuft diese Bedrohungen im Ranking in der aktuellen Ausgabe des Risiko Barometers als entsprechend hoch ein.
Um das Unternehmen zu schützen ist es unerlässlich, dass Unternehmen Maßnahmen ergreifen, um ihre Geschäftskontinuität zu gewährleisten, insbesondere angesichts potenzieller IT-Notfälle, die den IT-Betrieb und damit den Geschäftsbetrieb beeinträchtigen oder gänzlich unmöglich machen können.
Um Maßnahmen zu ergreifen, welche die Auswirkungen von IT-Ausfällen minimieren können, empfiehlt sich im ersten Schritt eine Business Impact Analyse (BIA) durchzuführen. Mit einer solchen Analyse sollen die Teile der IT-Landschaft identifiziert werden, die besonders kritisch sind. Ein mögliches Ergebnis dieser Analyse ist oftmals auch die Erkenntnis, dass die zentrale Datenspeicherung und Verarbeitung im Unternehmen nicht die nötigen Redundanzen aufweisen, wenn es um den Ausfall zentraler Serverräume geht. Bei der Bewältigung dieser Herausforderungen setzen Unternehmen oft auf effektive Disaster-Recovery-Strategien, um sicherzustellen, dass sie nach einem schwerwiegenden Ereignis schnell wieder auf die Beine kommen können.
Warum ist Disaster Recovery nach einem IT-Notfall wichtig?
Die Folgen eines größeren IT-Ausfalls können für Unternehmen verheerend sein, sowohl finanziell als auch operativ. Ein Ausfall der IT-Infrastruktur kann zu erheblichen finanziellen Verlusten führen, während ein schwerwiegender Vorfall wie ein Naturereignis die Existenz eines Unternehmens bedrohen kann. Darüber hinaus haben Unternehmen ggf. Verpflichtungen, Pläne für Disaster Recovery und BCM zu haben, um Compliance-Vorschriften zu erfüllen.
Was ist der Unterschied zwischen Disaster Recovery und Business Continuity?
Obwohl diese beide Konzepten oft miteinander verwechselt werden, gibt es klare Unterschiede. Während Business Continuity darauf abzielt, den Geschäftsbetrieb unabhängig von den Umständen aufrechtzuerhalten, konzentriert sich Disaster Recovery speziell auf die Wiederherstellung von IT-Services nach einem Vorfall.
Elemente einer Disaster-Recovery-Strategie
Eine effektive Disaster-Recovery-Strategie erfordert eine gründliche Analyse der Risiken und Auswirkungen (BIA) sowie die Festlegung von Schutz- und Wiederherstellungszielen. Dazu gehören die Bestimmung des maximal akzeptablen Datenverlusts (RPO) und der maximal akzeptablen Ausfallzeit (RTO), sowie die Auswahl geeigneter Standorte und Technologien für die Wiederherstellung.
So funktioniert Disaster Recovery
DR-Initiativen basieren oft auf der Nutzung von Cloud- und Virtualisierungstechnologien, um die Wiederherstellung von IT-Systemen zu erleichtern. Unternehmen können interne, externe oder Cloud-basierte Standorte für ihre DR-Anforderungen wählen, abhängig von ihren spezifischen Bedürfnissen und Ressourcen.
Insgesamt ist ein effektives Disaster-Recovery-Programm unerlässlich, um die Widerstandsfähigkeit eines Unternehmens zu stärken. Durch die Implementierung und regelmäßige Überprüfung von Disaster-Recovery-Plänen können Unternehmen sicherstellen, dass sie für wichtige Ausfall-Szenarien gewappnet sind und ihre Geschäftskontinuität aufrechterhalten können.
Bei cloudopserve verstehen wir die Bedeutung eines robusten Disaster-Recovery-Plans für unsere Kunden. Daher bieten wir neben unseren anderen Dienstleistungen auch einen dedizierten DR-Standort an. Unser DR-Standort in Frankfurt ermöglicht, dass Ihre Systeme und Daten auch im Falle eines schwerwiegenden Vorfalls weiterhin verfügbar und wiederherstellbar sind. Durch modernste Sicherheitsvorkehrungen und direkte Anbindung an unser Hauptrechenzentrum gewährleistet dieser Standort höchste Sicherheit und Zuverlässigkeit.
Planen Sie die Absicherung Ihres Unternehmens durch einen Disaster Recovery-Standort so stehen wir Ihnen gerne für ein unverbindliches Erstgespräch zur Verfügung.
Weitere Informationen: Hier geht es zu den Ergebnissen des Allianz Risiko Barometers 2024 und weiteren Informationen zum Thema BCM.
Bedrohungspotential minimieren durch automatisierte Härtungsmaßnahmen mit Puppet - Teil 2
Um Angriffsvektoren durch Cyberkriminalität für uns und unsere Kunden zu minimieren, setzen wir beispielsweise auf die Härtung von Systemen. Wie im letzten Beitrag (Teil 1) bereits erwähnt, kann man Puppet als Administrationsprogramm für das Configuration-Management einsetzen. In diesem Beitrag möchten wir einen Einblick geben wie Puppet in diesem Anwendungsfall sehr einfach eingesetzt werden kann.
Wie kann Puppet eingesetzt werden?
Als Puppet Master kann beispielsweise eine virtuelle Maschine (VM) eingesetzt werden, auf der die Open Source Software Foreman installiert ist. Dabei handelt es sich eigentlich um ein Lifecycle Management Tool, das Systeme installiert, konfiguriert und Patches verwalten kann. Für den Einsatzzweck System-Hardening eignet sich das Tool auch bestens als Frontend für Puppet Code Management.
Um die Anbindung an Puppet sicherzustellen, ist es sinnvoll, bei der Bereitstellung von IT-Systemen automatisch den Puppet Agenten mit auszurollen. Beispielsweise lässt sich dies im Image-Prozess der Bereitstellungs-Images berücksichtigen. Beim initialen Start eines neuen Systems muss dann der Agent mit dem zugehörigen Puppet-Master konfiguriert werden.
Um sicherzustellen, dass Konfigurationsanpassungen valide sind und um diese vorab testen zu können, ist es sinnvoll, den Puppet-Code über verschiedene Stages zu verwalten. Um den Code in Entwicklungs-, Test- und Produktions-Stages zu verwalten, kann jeweils ein eigenes Environment pro Stage genutzt werden. Der Anpassungs- und Staging-Prozess sollte dabei in bestehende Change-Prozesse voll integriert sein.
Unabhängig davon können die Puppet-Module und Klassen genutzt werden, um verschiedenen Systemen passende Konfigurationen zuzuweisen. So kann beispielsweise ein Datenbankserver eine andere Konfiguration bekommen als ein Webserver. Die Zuweisung von Modulen bzw. Klassen zu den Systemen (Hosts) findet schließlich im Foreman statt. Dieser dient als ENC (external node classifier), sodass der Agent weiß, welchen Katalog er ausführen soll.
Wie funktioniert das technisch?
Als technisches Setup werden die folgenden Komponenten benötigt:
- Puppet Master mit r10k
- ein GitLab Server mit
- einem Control Repository (git) für dynamische Environments
- git Repositories für Puppet Module
Alle Puppet Module, also der gesamte Code, muss auf dem Puppet Master zur Verfügung stehen. Dabei ist es unpraktisch, die gesamte Verwaltung des Codes und die Verteilung auf die einzelnen Environments per Hand auf dieser Maschine durchzuführen. Zu diesem Zweck kann auf dem Puppet Master das Tool r10k genutzt werden. Dieses Tool liest git Repositories aus und erstellt automatisch Puppet Environments inklusive der Puppet Module.
Empfehlenswert ist es ein Control Repository zu etablieren, in dem jeder Branch dazu führt, dass ein r10k daraus ein Environment erzeugt. In diesem Szenario liegt zusätzlich in jedem Branch ein so genanntes Puppetfile. Dieses definiert, welche Module in welcher Version in diesem Environment ausgerollt werden sollen.
Das bringt folgende Vorteile:
- zentrales Code-Management und Nachvollziehbarkeit der Änderungen
- hohe Reproduzierbarkeit von Environments
- Schutz der Environments vor ungewollten Änderungen (Merge Requests und Approvals)
- einfache Wiederverwendung von bereits geschriebenen Modulen
Wie kommt CI/CD ins Spiel?
Empfehlenswert ist es, das GitOps-Prinzip zu etablieren. Dabei wird jede Änderung erst im Code prozessiert, bevor es auf die Systeme ausgerollt wird. Mit jeder Änderung am Control Repository in diesem Szenario wird eine Pipeline gestartet, die den gewünschten Zustand des Environments mittels r10k auf dem Puppet-Master ausrollt. Dabei ist darauf zu achten, dass das jeweils nur für den angepassten Branch passiert und nicht für das gesamte Repository und somit alle Environments.
Im Puppetfile referenziert man auf die anderen Repositories, die die Puppet-Module enthalten. Dabei setzt man auf ein Version-Pinning, sodass eine Änderung am Puppet-Modul-Repository nicht automatisch bewirkt, dass diese auch direkt auf die Umgebungen ausgerollt wird. Durch diesen Mechanismus kann man das erwähnte Staging gewährleisten.
Zusammenfassung
Zusammenfassend kann man festhalten, dass es mit den genannten Tools möglich ist, eine effektive Systemhärtung umzusetzen. Dabei weist man mittels Foreman den Hosts Environments und Puppet-Klassen zu und steuert mit r10k, welches Environment welche Puppet-Module erhalten soll. Dies sollte GitOps-basiert geschehen mittels eines Control Repositories. Die Puppet Module selbst entwickelt man dabei in eigenen Repositories. Diese werden versioniert und später im Puppetfile referenziert.
Kontaktieren Sie uns gerne, falls Sie genauere Informationen zu unseren Angeboten und Leistungen erhalten möchten. Kontaktinformationen finden Sie unter: https://cloudopserve.de/#kontakt.
Bedrohungspotential minimieren durch automatisierte Härtungsmaßnahmen mit Puppet - Teil 1
Bedrohungen durch Cyberkriminalität können in Unternehmen großen Schaden anrichten. In der Praxis steigt die Anzahl der Schadensereignisse seit vielen Jahren signifikant an. Laut BSI spitzt sich die Sicherheitslage immer weiter zu. Cyberkriminelle nutzen dabei permanent neue Sicherheitslücken in Systemen aus, um beispielsweise Daten auszuspähen, Gelder zu erpressen oder Systeme zu blockieren. Um für ständig wachsende Bedrohungen gerüstet zu sein, setzen wir bei cloudopserve im Rahmen unserer Leistung OS-Management von IT-Systemen eine Reihe von Maßnahmen um.
Eine dieser Maßnahmen ist beispielsweise die automatisierte Härtung von IT-Systemen gegen Angriffe. Mit den Härtungsmaßnahmen werden Angriffsvektoren deutlich reduziert.
Dabei richten wir unser Härtungskonzept u.a. nach dem CIS (Center for Internet Security) Standard aus. Die CIS-Benchmarks sind Konfigurationsempfehlungen für eine Vielzahl an Produktfamilien von Anbietern. Sie repräsentieren die konsensbasierten Bemühungen von Cybersicherheitsexperten weltweit, Systeme zuverlässiger vor Bedrohungen zu schützen.
Konfigurationsmanagement mit Puppet
Um diese Empfehlungen automatisiert und auditfähig umzusetzen, setzen wir Puppet ein. Puppet ist ein Administrationsprogramm, welches sich gut eignet, um automatisiert Konfigurationen bei einer Vielzahl von IT-Systemen gleichzeitig auszurollen.
Beispiel: In einer Umgebung, in der verschiedene Betriebssysteme eingesetzt werden und verschiedene Derivate, müsste man für die Automatisierung von Konfigurationen verschiedene Scripte bereitstellen, die für die verschiedenen Systeme optimiert sind. Da der Puppet-Code unabhängig von Betriebssystem o.ä. ist, besitzt dieser die Flexibilität auf den verschiedenen Systemen ausgeführt zu werden, um denselben Zielzustand zu konfigurieren.
Wie funktioniert Puppet?
Jedes System, das konfiguriert werden soll, wird mit einem Puppet Agenten bestückt. Diese Agenten holen sich in regelmäßigen Abständen vom Puppet Master ihren Katalog, der die Konfigurationen beinhaltet und führt diese auf dem System aus.
Puppet arbeitet dabei idempotent, das heißt, dass der Code kontinuierlich auf den Systemen anwendet wird, um den gewünschten Zustand des Systemen sicherzustellen (desired state configuration). Ist dieser Zustand bereits erreicht, wird Puppet keine Änderung vornehmen. Wird in der Zwischenzeit z.B. der Inhalt einer Datei verändert, die von Puppet verwaltet wird, wird Puppet im nächsten Agenten-Lauf wieder den gewünschten Zustand herstellen und die Datei überschreiben.
In Teil 2 des Beitrags gehen wir näher auf die Funktionsweise und technische Details ein.