
Target, einer der größten Einzelhändler der USA mit über 1.800 Filialen, stand vor einer komplexen Herausforderung: die Orchestrierung von Workloads über mehrere Umgebungen hinweg - von der Public Cloud über eigene Rechenzentren bis zu Edge-Lokationen in den Filialen. Kubernetes war bereits punktuell im Einsatz, aber zu komplex und bei den Gesamtkosten im Betrieb zu teuer. Die Entscheidung fiel schließlich auf HashiCorp Nomad, was zu einer deutlichen Beschleunigung der Entwicklungszyklen und einer Vereinfachung der Infrastruktur führte. Dieser Erfolgsfall zeigt ein wiederkehrendes Muster in der Branche: Unternehmen erkennen zunehmend den Wert von schlanken, effizienten Orchestrierungslösungen, die sich auf das Wesentliche konzentrieren.
Weiterlesen: Nomad: Moderne und schlanke Workload-Orchestrierung für Unternehmen

Am 19. Juli 2024 führte ein schwerwiegender IT-Ausfall, der auf ein fehlerhaftes Update der Falcon-Pattform von CrowdStrike zurückzuführen war, zu weitreichenden Störungen in verschiedenen Sektoren, darunter Flugverkehr, Krankenhäuser und Regierungsbehörden. Diese Plattform soll die Sicherheit erhöhen, indem Sie Angriffe in Echtzeit unterbindet. Dazu werden Messpunkte tief im Serversystem verdrahtet und dazu werden die höchsten Admin-Privilegien auf diesen System selbst benötigt. Dieser Ansatz an sich ist bereits fragwürdig, aber es wurde noch eine zusätzliche Angriffsfläche integriert: Diese Sensoren, die tief in Systemabläufe zur Sicherheitsüberwachung integriert sind, erhielten Updates über ein von Crowdstrike gesteuertes globales Verteilungssystem - implementiert mit der guten Absicht, eine möglichst konsistente globale Sicherheitsabdeckung zu erreichen, indem man nicht vergebens darauf wartet, dass die Kunden selbst tätig werden.
Ein solcher zentralisierter Ansatz stellt natürlich nur dann kein Problem dar, wenn er auch funktioniert und nichts kaputt macht.
Aber genau das ist passiert - ein fehlerhaftes Update wurde großflächig auf Serversysteme verteilt, die unter Microsoft Windows liefen. Durch die tiefe Integration in die Systeme hagelte es aufgrund einer fehlerhaften Library (sensorsvc.dll) die als Blue Screens bekannten Kernel Panics und durch diesen "Single Point of Failure" wurde die angestrebte konsistente globale Sicherheitslage zu einem globalen Ausfall. Besonders betroffen waren Fluggesellschaften - es wurden etwa 1.500 Flüge gestrichen -, Banken, Einzelhandel und Gesundheitswesen. Das Update wurde zwar zurückgezogen, aber die Serversysteme mussten im abgesicherten Modus manuell repariert werden. Dieser Vorfall verdeutlichte die Verwundbarkeiten zentralisierter Update-Verteilungssysteme und die Kettenreaktionen, die durch einen solchen "Single Point of Failure" entstehen können.
Und noch mehr wurde deutlich, was passieren kann, wenn auf grundliegende Maßnahmen zur Absicherung gegen Ausfälle verzichtet: Robustes Service-Health-Monitoring mit automatisierten Failovern, Mechanismen zur Eingrenzung des Blast Radius und umfassende Disaster-Recovery-Fähigkeiten. Diejenigen Kunden, welche so weit gedacht hatten, konnten einfach ihre Standby-Systeme aktivieren. Aber kaum jemand hatte so weit gedacht. Dabei werden solche architektonische Prinzipien für geschäftskritische Systeme zunehmend unerlässlich.
Weiterlesen: Consul: Modernes Enterprise Zero Trust Networking - Ein Überblick

Anfang 2024 deckte eine massive Cybersecurity-Kampagne namens EmeraldWhale über 10.000 private Git-Repositorys auf und leakte mehr als 15.000 Cloud-Dienst-Anmeldedaten. Angreifer nutzten falsch konfigurierte Git-Repositorys aus, um sich unbefugten Zugriff auf sensible, im Klartext gespeicherte Daten zu verschaffen. Dieser Vorfall unterstreicht ein kritisches und wiederkehrendes Problem: Hardcodierte Anmeldedaten, schlecht verwaltete Geheimnisse und unzureichende Sicherheitskontrollen gehören weiterhin zu den häufigsten Angriffsvektoren in Unternehmensumgebungen.
Während Unternehmen zunehmend Multi-Cloud-Strategien und moderne Anwendungsarchitekturen übernehmen, hat die Komplexität der Sicherung sensibler Daten, der Verwaltung von Maschinenidentitäten und der Implementierung von Verschlüsselungsdiensten exponentiell zugenommen. Dennoch verlassen sich viele Organisationen weiterhin auf veraltete Sicherheitspraktiken. Statische Geheimnisse in Konfigurationsdateien, manuell rotierte Zertifikate und Ad-hoc-Verschlüsselungslösungen stellen erhebliche Sicherheitsrisiken dar – sowohl in Bezug auf Datenschutzverletzungen als auch auf Compliance-Verstöße.
Bei ICT.technology haben wir beobachtet, dass Unternehmen diese Risiken oft unterschätzen, bis es zu einem Sicherheitsvorfall kommt. Die Sicherung moderner Infrastrukturen erfordert mehr als nur Technologie – sie verlangt einen ganzheitlichen, automatisierten Ansatz, der Skalierbarkeit, Compliance und betriebliche Effizienz gewährleistet. Hier kommt HashiCorp Vault ins Spiel.
Weiterlesen: Absicherung moderner Unternehmensinfrastrukturen mit HashiCorp Vault

Die rasche Einführung von Cloud-Infrastrukturen hat die Art und Weise, wie Unternehmen ihre IT-Ressourcen aufbauen und verwalten, grundlegend verändert. Da Organisationen zunehmend Multi-Cloud-Strategien und komplexe hybride Bereitstellungen nutzen, sind die Herausforderungen in Bezug auf Sicherheit, Compliance und operative Exzellenz exponentiell gewachsen. Bei ICT.technology haben wir beobachtet, dass eine erfolgreiche Cloud-Einführung und der Betrieb von Rechenzentren mehr als nur technisches Fachwissen erfordern – es bedarf eines systematischen Ansatzes zur Infrastrukturbereitstellung, der diese Herausforderungen gezielt angeht. Einige Unternehmen haben diese Lektion bereits auf die harte Tour gelernt.

In Teil 1 unserer Serie haben wir die grundlegenden Konzepte von Retrieval-Augmented Generation (RAG) kennengelernt und gesehen, wie dieses Framework ähnlich einer digitalen Bibliothek funktioniert. Wir haben die drei Hauptkomponenten - Retriever, Ranker und Generator - im Detail betrachtet und verstanden, wie sie zusammenarbeiten, um präzise und kontextrelevante Antworten zu generieren.
In diesem zweiten Teil tauchen wir tiefer in die technischen Aspekte von RAG ein. Wir werden uns ansehen, wie RAG in der Praxis implementiert wird, welche verschiedenen Modelltypen es gibt und wie sich RAG-erweiterte Systeme von traditionellen Large Language Models (LLMs) unterscheiden.
Weiterlesen: Einführung in Retrieval-Augmented Generation (RAG) - Teil 2
Weitere Beiträge …
- Everything-as-Code Denkweise: Ein umfassender Ansatz für IT-Betrieb und darüber hinaus
- Die Transformation der IT meistern: Ein strategischer Fahrplan zum Erfolg
- Einführung in Retrieval-Augmented Generation (RAG) - Teil 1
- Erlass der U.S. Regierung macht SBOMs obligatorisch, verpflichtet Behörden zu Zero-Trust-Architekturen, und stärkt Cybersicherheit allgemein