Cybersicherheit liebäugelt mit Künstlicher Intelligenz

Diese 3 Fragen gehören auf die Liste jedes CISO

Cybersicherheit liebäugelt mit Künstlicher Intelligenz

Andy Grolnick, CEO vom SIEM-Security-Anbieter Graylog (Bildquelle: @Graylog)

Im Juli erlebte die Wall Street ihren schlimmsten Tag seit 2022, als der technologieorientierte Nasdaq um 3,6 % fiel. Der Rückgang wurde größtenteils durch die enttäuschenden Quartalszahlen einiger großer Technologieunternehmen ausgelöst. Besonders auffällig ist, dass die am stärksten betroffenen Unternehmen stark in künstliche Intelligenz (KI) investiert haben. Während KI bedeutende Investitionen und Optimismus angezogen hat, wächst die Besorgnis, dass ihre Fähigkeiten möglicherweise überbewertet wurden. Dieser Rückgang der Technologiewerte verdeutlicht den wachsenden Druck auf Entscheidungsträger, nachzuweisen, dass KI tatsächlich den Erwartungen gerecht wird.

„Für CISOs ist dieser Druck besonders ausgeprägt. Sie stehen jetzt vor der Aufgabe, sicherzustellen, dass ihre KI-gestützten Initiativen nicht nur die Cybersicherheit stärken, sondern auch messbare Ergebnisse für die Unternehmensführung und die Vorstandsmitglieder liefern,“ geht Andy Grolnick, CEO vom SIEM-Security-Anbieter Graylog ins Detail.

Die Cybersicherheit profitiert von KI deutlich

KI-gestützte Algorithmen des maschinellen Lernens helfen, Anomalien im Benutzerverhalten zu erkennen – eine entscheidende Funktion in der heutigen schnelllebigen Bedrohungslandschaft. Eine aktuelle Studie zeigt, dass bereits 78 % der CISOs KI in irgendeiner Form zur Unterstützung ihrer Sicherheitsteams nutzen.

Wie bei jeder sich entwickelnden Technologie sollte KI jedoch mit einer gesunden Portion Skepsis betrachtet werden. Um sicherzustellen, dass Investitionen in KI greifbare Ergebnisse liefern, rät Andy Grolnick jedem CISO sich den folgenden drei kritischen Fragen zu stellen.

Wo macht es am meisten Sinn, KI einzusetzen?

Bevor KI implementiert wird, ist es wichtig zu bestimmen, wo sie den größten Einfluss haben kann. Während viele Praktiker versuchen, KI in der Bedrohungserkennung und -reaktion zu integrieren, ist es wichtig, die Grenzen zu verstehen. Große Sprachmodelle (LLMs) können wertvoll sein, um Protokolle zu analysieren, die mit Erkennungen in Verbindung stehen, und um allgemeine Richtlinien für die Reaktion zu geben. Die dynamische Natur der Bedrohungslandschaft stellt jedoch eine Herausforderung dar: Bedrohungsakteure nutzen ebenfalls KI und die rasante Entwicklung ihrer Methoden übertrifft oft die Systeme zur Bedrohungserkennung.

Um mit den Bedrohungsakteuren Schritt zu halten, kann KI in einem Bereich einen signifikanten und unmittelbaren Einfluss haben: der Automatisierung repetitiver Aufgaben, die derzeit einen Großteil der Zeit der Sicherheitsteams beanspruchen. Beispielsweise können KI-gestützte Erkenntnisse und Leitlinien den SOC-Analysten helfen, die Warnmeldungen zu priorisieren, wodurch die Arbeitslast reduziert wird und sie sich auf komplexere Bedrohungen konzentrieren können. Durch den Einsatz von KI zur Unterstützung der Analysten im SOC können CISOs ihre Teams von niedrigpriorisierten Aufgaben befreien und die Gesamtleistung sowie die Reaktionszeiten verbessern.

Gibt es Beweise dafür, dass KI in meinem Anwendungsfall funktioniert?

Nicht alle Anwendungsfälle liefern gleichwertige Ergebnisse, und es ist sicherer, sich auf bewährte Anwendungen zu verlassen, bevor man mit neueren Ansätzen experimentiert.

Beispielsweise nutzen Sicherheitsinformations- und Ereignismanagementsysteme (SIEM) seit langem KI und maschinelles Lernen für Verhaltensanalysen. Systeme für nutzer- und entitätsbasierte Verhaltensanalysen (UEBA), die auf maschinellem Lernen basieren, sind besonders gut darin, anormale Aktivitäten zu erkennen, die auf Sicherheitsbedrohungen hinweisen könnten, wie Insiderangriffe, kompromittierte Konten oder unbefugten Zugriff.

Diese Systeme analysieren große Mengen historischer Daten, um Verhaltensmuster für Benutzer und Entitäten festzulegen, und überwachen kontinuierlich die Echtzeitaktivität auf Abweichungen von der Norm. Durch die Fokussierung auf gut etablierte KI-Anwendungen wie UEBA können CISOs sicherstellen, dass ihre KI-Investitionen einen Mehrwert bieten und gleichzeitig das Risiko reduzieren.

Wie ist die Qualität der Daten, die KI-Modelle nutzen?

Einer der entscheidendsten Faktoren für den Erfolg von KI ist die Qualität der Daten, die dem Modell und dem Prompt zur Verfügung gestellt werden. KI-Modelle sind nur so gut wie die Daten, die sie konsumieren. Ohne Zugang zu genauen, vollständigen und angereicherten Daten können KI-Systeme fehlerhafte Ergebnisse liefern.

In der Cybersicherheit, wo Bedrohungen sich ständig weiterentwickeln, ist es entscheidend, KI-Systemen einen vielfältigen Datensatz zur Verfügung zu stellen, der den Kontext von Angriffsflächen, detaillierte Protokolle, Warnungen und anomale Aktivitäten umfasst.

Jedoch stellen neue Angriffsflächen – wie APIs – eine Herausforderung dar. API-Sicherheit ist ein attraktives Ziel für Hacker, da APIs oft sensible Informationen übertragen. Während traditionelle Webanwendungsfirewalls (WAFs) in der Vergangenheit ausreichten, um APIs zu schützen, haben heutige Bedrohungsakteure ausgeklügelte Techniken entwickelt, um die Perimetersicherheitsmaßnahmen zu durchbrechen. Leider wird die API-Sicherheit aufgrund ihrer relativen Neuheit oft nicht überwacht und noch schlimmer, nicht in die KI-Analyse von Bedrohungen miteinbezogen.

Da der Erfolg von der Verfügbarkeit hochwertiger Daten abhängt, ist KI möglicherweise noch nicht die beste Lösung für neu auftretende Angriffsflächen wie APIs, wo grundlegende Sicherheitspraktiken noch entwickelt werden müssen. In diesen Fällen müssen CISOs erkennen, dass selbst die fortschrittlichsten KI-Algorithmen nicht für einen Mangel an grundlegenden Sicherheitsmaßnahmen und zuverlässigen Daten entschädigen.

„KI birgt ein enormes Potenzial, die Cybersicherheit zu transformieren, ist jedoch kein Allheilmittel. Indem CISOs kritische Fragen dazu stellen, wo KI den größten Wert liefern kann, sich auf bewährte Anwendungsfälle verlassen und den Zugang zu hochwertigen Daten sicherstellen, können sie fundierte Entscheidungen treffen, wie und wann sie KI in ihre Cybersicherheitsstrategien integrieren. In einer Landschaft, in der sich sowohl Chancen als auch Bedrohungen schnell entwickeln, wird ein strategischer Ansatz zur Implementierung von KI der Schlüssel zum Erfolg sein,“ so Grolnick abschließend.

Quellennachweis: https://ww1.bugcrowd.com/inside-the-mind-of-a-ciso-2024/

Mehr Informationen: https://graylog.com

DACH Public Relations Beratung und Services für internationale Unternehmen

Firmenkontakt
Martina Gruhn PR
Martina Gruhn
3833 Powerline RD Suite 201
33309 Fort Lauderdale, Florida, USA
+49 (0) 152 / 21 94 32 60
https://martinagruhn.com

Pressekontakt
Martina Gruhn LLC
Martina Gruhn
3833 Powerline RD Suite 201
33309 Fort Lauderdale, Florida, USA
+49 (0) 152 / 21 94 32 60
https://martinagruhn.com

Sicherheitsbedürfnisse in Effizienzgewinne umwandeln

Fertigung ist Top-Ziel für Cyberkriminelle das dritte Jahr in Folge

Sicherheitsbedürfnisse in Effizienzgewinne umwandeln

Andy Grolnick, CEO vom Security-Anbieter Graylog (Bildquelle: @Graylog)

Die Bedeutung des Verarbeitenden Gewerbes ist in Deutschland traditionell größer als in den anderen großen Volkswirtschaften der EU. Laut Statista wird die Wertschöpfung im Jahr 2024 voraussichtlich 697,6 Mrd. Euro betragen. Die durchschnittliche jährliche Wachstumsrate dürfte bei 0,75% (CAGR 2024-2028) liegen. Die Sicherheit und der Schutz von Betriebsabläufen in der Fertigung können daher nicht hoch genug eingeschätzt werden.

„Das Verarbeitende Gewerbe ist eine allumfassende Industrie, die sich über alle Branchen erstreckt und der Gesellschaft ein effizientes Funktionieren ermöglicht. Von der Automobil- und Elektronikindustrie über den Maschinenbau, Luft- und Raumfahrt, Konsumgüterherstellung (FMCG) bis hin zu Handwerk und der chemischen und pharmazeutischen Industrie – die Fertigung ist das Rückgrat der Gesellschaft,“ sagt Andy Grolnick, CEO vom SIEM-Lösungsanbieter Graylog.

Fertigung hat am stärksten mit Hackerangriffen zu kämpfen

Die kritische Bedeutung der Fertigung hat diesen Sektor zu einem Top-Ziel für Cyberkriminelle gemacht. Der X-Force Threat Intelligence Report von IBM hebt hervor, dass über 25 Prozent der Sicherheitsvorfälle in der Fertigungsindustrie stattfinden, die damit im dritten Jahr in Folge der am stärksten angegriffene Sektor ist.

Hersteller stehen von allen Seiten unter Druck. Die steigende Nachfrage treibt Digitalisierungsinitiativen voran. Gleichzeitig hat sich das Risiko von Angriffen so stark erhöht, dass Aufsichtsbehörden die Hersteller zu höheren Standards anhalten. Das neue CRA-Gesetz der EU, das sich insbesondere an Hersteller richtet, die Geräte für das Internet der Dinge (IoT) produzieren, kann zu einer potenziellen Belastung von mehreren Millionen Euro für die Einhaltung der Vorschriften führen.

Cybersicherheit für Effizienzgewinn nutzen

„Um sich einen Wettbewerbsvorteil zu verschaffen, müssen die Hersteller ihre Herangehensweise an die Cybersicherheit ändern und sie nutzen, um ihre Effizienz zu steigern. Es braucht ein Gleichgewicht zwischen IoT-Wachstum und Cybersicherheit in der intelligenten Fertigung,“ so Grolnick weiter.

Da die Fertigung immer intelligenter wird, erzeugen Unternehmen mehr Daten als je zuvor. Statista prognostiziert, dass das weltweite Datenvolumen bis 2027 auf 284 Zettabyte ansteigen wird. Das industrielle Internet der Dinge (IIoT) spielt bei diesem Wachstum eine Schlüsselrolle.

Über eine Reihe von Sensoren, Geräten, Servern und Endpunkten für die Verfolgung, Verwaltung und Steuerung werden die Daten für die bidirektionale Kommunikation verbreitet. Mit zunehmender Konnektivität steigt jedoch auch das Risiko. Die operativen Technologien, die das IoT-Ökosystem verbinden, um das Management der Lieferkette zu verbessern, sind auch potenzielle Schwachstellen, die von böswilligen Akteuren ausgenutzt werden können, um Sicherheit, Betrieb, Ausrüstung, Produktivität und Budgets zu gefährden.

Angreifer haben es auf Software-, Cloud- oder andere Drittanbieter abgesehen, um in die Lieferketten der Fertigungsindustrie einzudringen. Auf diese Weise können Hacker durch einen erfolgreichen Angriff auf ein einziges Drittunternehmen Zugriff auf personenbezogene Daten mehrerer Fertigungskunden erlangen. In einem Bericht von Make UK wurde festgestellt, dass die Bereitstellung von Überwachungs- und Wartungszugängen für Dritte der dritthäufigste Grund für einen Cybervorfall bei Herstellern ist.

Protokolldaten sind der Schlüssel zu Cyber-Resilienz und Produktivität

„Vorausschauende Hersteller können fortschrittliche Tools nutzen, um die Produktivität zu steigern und gleichzeitig die Einhaltung von Vorschriften zu gewährleisten. Durch die Nutzung von Sicherheitsdaten können Hersteller den Betrieb überwachen, Risiken mindern und Cybersicherheit in einen Wettbewerbsvorteil verwandeln,“ erläutert Grolnick genauer.

So generieren IoT-Geräte beispielsweise Protokolldaten, die den Zugriff, die Häufigkeit des Zugriffs und die Einhaltung genehmigter Verfahren in Netzwerken nachverfolgen. Diese Daten sind für die Aufrechterhaltung der Geräte- und Netzwerksicherheit von entscheidender Bedeutung, bieten aber auch Einblicke in die betriebliche Effizienz, wie z. B. die Häufigkeit von Fernzugriffen durch Techniker oder die Anzahl der wöchentlichen Geräteunterbrechungen. Darüber hinaus können die Protokolldaten Muster bei der Registrierung neuer Produkte und geografische Unterschiede aufzeigen. Diese Informationen sind von hohem geschäftlichem Wert und ermöglichen es den Herstellern, ihre Abläufe zu rationalisieren und ihr Wachstum zu fördern.

Betriebliche Effizienz exponentiell verbessern

„Die von Cybersecurity-Tools wie SIEM-Lösungen gesammelten Daten fließen in die Bereiche Sicherheit und Compliance ein, die für das Leistungs- und Verfügbarkeitsmanagement unerlässlich sind. Wenn man Cybersicherheit nur als Kostenfaktor betrachtet, übersieht man ihren zusätzlichen Wert, der über die Cyber-Resilienz hinausgeht. Lösungen wie SIEM erfassen Daten, die einen besseren Einblick in den Betrieb und die Systemkommunikation ermöglichen,“ geht Grolnick mehr ins Detail.

Durch die Zentralisierung der Protokollverwaltung kann die Technologie Daten aus verschiedenen Quellen zusammenführen und so eine kontinuierliche Überwachung der industriellen Prozesse und Systeme gewährleisten. Mit fortschrittlicher Analytik und maschinellem Lernen können diese Systeme potenzielle Sicherheitsbedrohungen und Anomalien erkennen.

Die Hyperkonnektivität bietet zahlreiche Vorteile für die Fertigung. Der Echtzeit-Datenaustausch zwischen Systemen, Maschinen und Prozessen verbessert die betriebliche Effizienz exponentiell. Die Transparenz trägt zu einer besseren Koordinierung zwischen Herstellern, Zulieferern und Händlern bei und schafft ein intelligenteres und flexibleres Fertigungsumfeld. Der Sektor ist jedoch nur so gut wie sein Service, der schnell, präzise und risikofrei sein muss.

Quellennachweis:
-https://www.destatis.de/Europa/DE/Thema/Industrie-Handel-Dienstleistungen/Industrie.html
-https://de.statista.com/outlook/io/verarbeitendes-gewerbe/deutschland
-https://www.ibm.com/reports/threat-intelligence
-https://digital-strategy.ec.europa.eu/de/policies/cyber-resilience-act#:~:text=Das%20Gesetz%20über%20die%20Cyberresilienz,über%20seine%20Funktionsweise%20Bericht%20erstatten.
-https://de.statista.com/statistik/daten/studie/267974/umfrage/prognose-zum-weltweit-generierten-datenvolumen/
-https://www.google.com/url?sa=t&source=web&rct=j&opi=89978449&url=https://www.makeuk.org/-/media/eef/files/reports/industry-reports/make-uk-blackberry-cyber-security-report.pdf&ved=2ahUKEwi29IHE3tOHAxX4m_0HHZKODC8QFnoECCIQAQ&usg=AOvVaw2a9PIFAIy1pj1zT0phkUZ_

Über Graylog
Graylog verbessert die Cybersicherheit und den IT-Betrieb durch seine umfassenden SIEM-, zentralisierten Log-Management- und API-Sicherheitslösungen. Graylog bietet einen Vorsprung bei der Erkennung von Bedrohungen und der Reaktion auf Vorfälle bei verschiedenen Angriffsflächen. Die einzigartige Mischung aus KI/ML, fortschrittlicher Analytik und intuitivem Design macht Cybersecurity intelligenter, nicht schwieriger. Graylog ist auch ideal für die Fehlerbehebung bei täglichen IT-Leistungs- und Verfügbarkeitsproblemen. Im Gegensatz zu den komplexen und kostspieligen Systemen der Mitbewerber bietet Graylog sowohl Leistung als auch Erschwinglichkeit und vereinfacht so die IT- und Sicherheitsherausforderungen. Graylog wurde in Hamburg, Deutschland, gegründet und hat seinen Hauptsitz in Houston, Texas. Die Lösungen von Graylog werden in mehr als 50.000 Installationen in 180 Ländern eingesetzt. Erfahren Sie mehr unter Graylog.com.

DACH Public Relations Beratung und Services für internationale Unternehmen

Kontakt
Martina Gruhn LLC
Martina Gruhn
3833 Powerline RD Suite 201
33309 Fort Lauderdale, Florida, USA
+49 (0) 152 / 21 94 32 60
https://martinagruhn.com

3 Wege wie IT-Sicherheitsteams die Komplexität im Security Operations Center deutlich verringern

Integrationen, die Bedrohungserkennung und Reaktion auf Vorfälle (TDIR) beschleunigen

3 Wege wie IT-Sicherheitsteams die Komplexität im Security Operations Center deutlich verringern

Andy Grolnick, CEO vom Security-Anbieter Graylog (Bildquelle: @Graylog)

Laut Gartner „beschleunigt sich die Konvergenz der Sicherheitstechnologien, angetrieben durch die Notwendigkeit, die Komplexität zu reduzieren, den Verwaltungsaufwand zu verringern und die Effektivität zu erhöhen. Neue Plattformansätze wie Extended Detection and Response (XDR), Security Service Edge (SSE) und Cloud Native Application Protection Platforms (CNAPP) beschleunigen die Vorteile konvergenter Lösungen.“

Gartner sagt zudem voraus, dass „die Konsolidierung von Sicherheitsfunktionen die Gesamtbetriebskosten senken und die betriebliche Effizienz langfristig verbessern wird, was zu einer besseren Gesamtsicherheit führt.“ Insbesondere im Bereich Threat Detection and Incident Response (TDIR) ist die Vereinfachung für Cyber-Teams, die mit zu vielen Tools und dem ständigen Hin- und Herwechseln zwischen diesen Tools beschäftigt sind, von großer Bedeutung.

Andy Grolnick, CEO vom SIEM-Lösungsanbieter Graylog, nennt die drei besten Methoden, um die Komplexität im Security Operations Center (SOC) deutlich zu verringern:

1. Identifizierung von Automatisierungsmöglichkeiten

Weltweit investieren alle Sicherheitsorganisationen in Automatisierung. Durch Automatisierung werden lästige, sich wiederholende Aufgaben beseitigt und Fehlermöglichkeiten ausgeschlossen. Laut einer aktuellen Umfrage, die die Jahre 2022 und 2023 vergleicht, halten 75 % der Sicherheitsverantwortlichen die Automatisierung im Bereich Cybersicherheit für wichtig, gegenüber 68 % im Jahr 2022. Die Teams gehen die Automatisierung in einer Vielzahl von Bereichen an. Der größte Anstieg war bei der Alarmtriage mit 30 % zu verzeichnen, verglichen mit 18 % im Jahr 2022. Beim Schwachstellenmanagement gab es einen Anstieg auf 30 %, 5 Prozent mehr als 2022. Ein weiterer häufiger Anwendungsfall für die Automatisierung im Jahr 2023 war Phishing.

2. Rationalisierung von Protokollen

Der erste Schritt ist das Sammeln aller relevanten Daten aus verschiedenen Quellen in einer einzigen, zugänglichen Plattform wie einem Security Information and Event Management (SIEM). Unternehmen müssen ihre Silostrukturen aufbrechen und sich auf die Daten aus dem gesamten Unternehmen konzentrieren. Nur so erhalten sie einen ganzheitlichen Überblick über die Bedrohungslandschaft. Es braucht eine klar definierte Protokollierungsstrategie, um Kosten zu verwalten und sicherzustellen, dass ein umfassender Einblick in die Risiken besteht. Weitere Informationen zur Protokollverwaltung finden sich im englischen Blogbeitrag.

3. Hinzufügen von Threat Intelligence zur Fokussierung von TDIR

TDIR ist die primäre Funktion von SOC-Teams und umfasst viele bewegliche Teile, darunter mehrere Tools, Threat Intelligence, NDR, EDR, SIEM, SOAR, UEBA und jetzt XDR in einem ständig wachsenden Akronym-Albtraum. Integrationen sind notwendig und wertvoll, aber die Rationalisierung der Abläufe ist eine Herausforderung.

Innovative Tools packen Bedrohungsdaten in sogenannte Illuminate Content Packs. Dies vereinfacht den SOC-Betrieb für viele Unternehmen, die sich keine zusätzlichen Sicherheitstools leisten können oder nicht über die Fähigkeiten oder das Personal verfügen, um Bedrohungsdaten selbst zu integrieren. Dieses Vorgehen verspricht eine Neudefinition der Effektivität und Effizienz, mit der Unternehmen Bedrohungen identifizieren und abwehren können.

„Inhalte waren schon immer wertvoll für SOCs, aber sie waren bisher anspruchsvolleren SOCs vorbehalten, die Erkennungsregeln und Warnmeldungen schreiben konnten, um Rauschen zu eliminieren und die Erkennung zu optimieren. Die Illuminate Content Packs von Graylog beschleunigen die Erkennung von und die Reaktion auf Bedrohungen, die auf dem MITRE ATT&CK-Framework basieren. Graylog erweitert diese Fähigkeit, indem es die Intelligenz von SOC Prime mit anderen Datenkontexten verbindet und so die Risikoidentifizierung und die Effizienz der Ermittlungen verbessert“ erläutert Andy Graylog die Technologie-Partnerschaft mit SOC Prime im Detail.

„Im Gegensatz zu anderen Partnerschaften handelt es sich um eine technische Integration der SOC Prime-Funktionen in die Graylog-Plattform. Jedem Graylog Security-Kunden werden vorkuratierte SOC Prime-Inhalte über die Illuminate-Pakete von Graylog ohne zusätzliche Kosten oder Aufwand zur Verfügung stehen. Dies spart sowohl Zeit als auch Geld für das Sicherheitspersonal, das an vorderster Front tätig ist. Die Zusammenarbeit ist jetzt als Beta-Version verfügbar,“ fügt Grolnick abschließend hinzu.

Mehr Informationen https://graylog.org/news/graylog-6-0-to-deliver-effective-enterprise-threat-detection-and-response/

Youtube Video: Graylog V6 and SOC Prime: Cyber Defense with MITRE Framework Webinar https://www.youtube.com/watch?v=CdggmRh6Dxc

Graylog: https://graylog.org/products/security/

Soc Prime: https://socprime.com

PR-Agentur

Kontakt
PR-Agentur Werte leben & kommunizieren
Martina Gruhn
Corneliusstr. 29
80469 München
015221943260
http://www.martinagruhn.com

EU CRA richtig angehen: aus den Fallstricken der DSGVO lernen

Zahl der vernetzten Geräte wächst bis 2050 weltweit voraussichtlich auf 24 Milliarden – vergrößerte Hacker-Angriffsflächen durch IoT

EU CRA richtig angehen: aus den Fallstricken der DSGVO lernen

Andy Grolnick, CEO vom Security-Anbieter Graylog (Bildquelle: @Graylog)

Der bevorstehende EU Cyber Resilience Act (CRA, EU-Gesetz über Cyberresilienz) stellt einen wichtigen Schritt in der europäischen Cybersicherheitspolitik dar. Er zielt darauf ab, die digitale Abwehr in der Europäischen Union durch einen proaktiven Cybersicherheits-Ansatz zu verbessern. Im Gegensatz zu früheren Verordnungen wie der DSGVO (Datenschutzgrundverordnung) stellt der EU CRA die tatsächliche Widerstandsfähigkeit über die Einhaltung von Vorschriften und konzentriert sich auf eine wirksame Risikominderung.

„Der CRA stellt einen bedeutenden Schritt zur Sensibilisierung für Cyberrisiken auf Unternehmensebene dar. Es besteht jedoch die Gefahr, dass er zu einem bloßen Kontrollkästchen für die Einhaltung der Vorschriften verkommt, wie es bei der DSGVO der Fall ist,“ äußert Andy Grolnick, CEO vom Security-Anbieter Graylog, seine Bedenken.

Fallstrick Compliance-Checkbox: was die DSGVO wirklich brachte

„Die Sicherheit von Checkboxen gleicht dem Anlegen eines Verbandes auf eine klaffende Wunde, sie ist kein ausreichender Ansatz. Wir haben die Unzulänglichkeiten früherer Verordnungen wie der DSGVO erlebt, bei denen die Einhaltung der Vorschriften oft echte Sicherheitsmaßnahmen überschattete,“ so Grolnick weiter.

Die DSGVO wurde erlassen, um den Datenschutz für Nutzer zu verbessern. Die Idee war, Cookies zu minimieren, die alle Nutzerbewegungen verfolgen. In der Praxis hat sie dieses Ziel jedoch verfehlt. Anstatt eine Website zu besuchen und heimlich verfolgt zu werden, haben die Nutzer jetzt das Privileg, Cookies zu akzeptieren und wissentlich verfolgt zu werden. Der Punkt ist, dass die Verordnung das Tracking nicht eingedämmt hat, sondern stattdessen das Surferlebnis für viele beeinträchtigt und die Unternehmen Millionen kostete.

Anstatt das Tracking abzuschaffen, haben die Unternehmen Geld investiert, um die Nutzer darauf hinzuweisen, dass es stattfindet. Das Risiko besteht darin, dass Unternehmen die Verordnung teilweise erfüllen, indem sie angemessene Sicherheitsmaßnahmen in Bezug auf Design, Entwicklung, Bereitstellung und Support-Mechanismen ergreifen, aber nicht wirklich versuchen, das Hacking-Problem zu lösen, und so unter dem Radar fliegen können.

„Was wir nicht brauchen, ist eine weitere Verordnung, die die Hersteller dazu zwingt, die Vorschriften einzuhalten, ohne sich wirklich darauf zu konzentrieren, ihre Cybersicherheitslage zu verbessern, da wir immer mehr miteinander vernetzt sind,“ verdeutlicht Grolnick die Situation. „Der EU CRA wird die Unternehmen zwar zum Nachdenken darüber anregen, wie sie das Internet der Dinge nutzen, aber es wird nur eine minimale Anforderung zur Einhaltung geben, und genau darin liegt das Problem.“

Prioritäten richtig setzen: Die Cybersicherheit in einer IoT-Umgebung gehört an die erste Stelle

Bei jedem Produkt, das „intelligenter (smarter)“ wird, müssen die daraus resultierenden Schwachstellen berücksichtigt werden. Wenn Verbraucher Gegenstände in ihr Haus bringen, die eine Verbindung zu ihrem Smartphone oder ihrem WLAN erfordern, können sie letztlich auch Kriminellen Zugang zu ihrem Haus verschaffen.

„Sind der Geschirrspüler, die Lautsprecher oder intelligente Türschlösser über das Internet oder mehrere APIs (Application Programming Interfaces oder Programmierschnittstellen) mit dem Smartphone verbunden, dann ist diese Verbindung ein gefundenes Fressen für Hacker, ebenso wie alle Datenpakete, die über diesen Kanal übertragen werden – persönliche Daten, Geolokalisierungsdaten, Netzwerkzugriff, Gerätesteuerung und vieles mehr. Innovation ist großartig, aber nicht ohne Standards. Sicherheit und Schutz müssen die Innovation untermauern, wenn sie effektiv sein soll – und das deutlich mehr als es der Norm entspricht,“ so Grolnick.

Lieferkettenbedrohung durch Hackerangriffe

Im Jahr 2023 wurden die Nachrichten von einer Reihe heftiger Cyberangriffe überschwemmt, die einen deutlichen Trend ankündigen: Hackerangriffe in der Lieferkette. Hier nutzen Cyberkriminelle Schwachstellen in Systemen von Drittanbietern aus, um an wertvolle Daten und Kundenwerte zu gelangen.

Der vernetzte Charakter von IoT-Implementierungen, an denen oft mehrere Unternehmen und komplexe Liefernetzwerke beteiligt sind, erfordert APIs für die Kommunikation zwischen Geräten, Anwendungen und Systemen. APIs sind eine äußerst unzureichend geschützte Angriffsfläche, was sie zu einem bevorzugten Ziel für Angreifer und zu einem erheblichen Risiko beim IoT-Einsatz macht. Böswillige Akteure können Zero-Day-Schwachstellen, Schwachstellen in Authentifizierungsmechanismen und Gateway-Schutzmaßnahmen ausnutzen, um auf die wertvollen Informationen zuzugreifen, die APIs enthalten. Dazu gehören auch personenbezogene Daten.

APIs schützen und Sicherheitsmängel beseitigen

Der CRA will unter anderem IoT-Hersteller dazu bringen, sich ernsthafter mit der Cybersicherheit auseinanderzusetzen und wirkungsvolle Schritte zum Schutz der Verbraucherdaten herbeizuführen. Das bedeutet, dass sie mehr als nur das Nötigste tun müssen, um die Anforderungen zu erfüllen.

Die Hersteller müssen der Integration robuster Authentifizierungsmechanismen wie kryptografischer Schlüssel, Zertifikate oder biometrischer Authentifizierung Vorrang einräumen, um den unbefugten Zugriff auf Geräte und Funktionen zu verhindern. Authentifizierungsprotokolle wie rollenbasierte Zugriffskontrollen sollten bereits in der Entwicklungsphase von IoT-Geräten festgelegt werden. Darüber hinaus liegt es in der Verantwortung der Hersteller, die Betriebssoftware auf dem neuesten Stand zu halten, um Schwachstellen zu beheben und Zero-Day-Exploits zu verhindern.

Sich nur auf den Schutz der Außengrenzen zu verlassen, ist aufgrund der zunehmenden Raffinesse der Bedrohungsakteure unzureichend. Da die Hersteller Zugriff auf die Benutzeraktivitäten haben, können sie diese aktiv protokollieren und überwachen, um bösartige Aktivitäten zu erkennen, bevor sie vom Netzwerk auf die Produktionsumgebung übertragen werden können. Durch die Überwachung von API-Aufrufen können Hersteller beispielsweise Einblicke in die Datenbewegungen innerhalb ihrer Netzwerke gewinnen und so physische Schäden durch kompromittierte IoT-Geräte verhindern.

Kostenfalle Sicherheit

Sicherheit wird oft als kostspieliges Hindernis für die Fertigung angesehen, die Prozesse verlangsamt und Lieferzeiten beeinträchtigt. Das muss jedoch nicht so sein. Die Verbesserung von Prozessen durch Daten-Dashboards, die es Unternehmen ermöglichen, ihre Sicherheit zu überprüfen und nachzuweisen, aber auch einen geschäftlichen Nutzen zu erzielen, wird unterschätzt und ist, offen gesagt, eine Investition, die sich für Unternehmen lohnt.

24 Milliarden vernetzte Geräte in 2050

Da die Zahl der vernetzten Geräte bis 2050 weltweit voraussichtlich 24 Milliarden erreicht, vergrößert die Verbreitung des IoT die Angriffsflächen für Hacker rapide. Regulierungsrahmen wie der CRA, die darauf abzielen, branchenweite Standards für die IoT-Herstellung festzulegen, spielen eine entscheidende Rolle bei der Förderung des Bewusstseins für Cybersicherheit auf Unternehmensebene.

„Die Umsetzung erfordert eine enge Zusammenarbeit zwischen Herstellern, politischen Entscheidungsträgern und Cybersicherheitsexperten. Es ist dringend erforderlich, aus den Fallstricken der DSGVO zu lernen und sicherzustellen, dass der EU CRA Unternehmen tatsächlich dazu ermutigt, der Cybersicherheit Priorität einzuräumen und ihre Widerstandsfähigkeit zu stärken,“ so Grolnick abschließend.

Über Graylog
Graylog verbessert die Cybersicherheit und den IT-Betrieb durch seine umfassenden SIEM-, zentralisierten Log-Management- und API-Sicherheitslösungen. Graylog bietet einen Vorsprung bei der Erkennung von Bedrohungen und der Reaktion auf Vorfälle bei verschiedenen Angriffsflächen. Die einzigartige Mischung aus KI/ML, fortschrittlicher Analytik und intuitivem Design macht Cybersecurity intelligenter, nicht schwieriger. Graylog ist auch ideal für die Fehlerbehebung bei täglichen IT-Leistungs- und Verfügbarkeitsproblemen. Im Gegensatz zu den komplexen und kostspieligen Systemen der Mitbewerber bietet Graylog sowohl Leistung als auch Erschwinglichkeit und vereinfacht so die IT- und Sicherheitsherausforderungen. Graylog wurde in Hamburg, Deutschland, gegründet und hat seinen Hauptsitz in Houston, Texas. Die Lösungen von Graylog werden in mehr als 50.000 Installationen in 180 Ländern eingesetzt. Erfahren Sie mehr unter https://graylog.org

PR-Agentur

Kontakt
PR-Agentur Werte leben & kommunizieren
Martina Gruhn
Corneliusstr. 29
80469 München
015221943260
http://www.martinagruhn.com

Wird Open Banking die Zukunft des Finanzwesens verändern?

Wie gut sind die Sicherheitsvorkehrungen für diese Technologie?

Wird Open Banking die Zukunft des Finanzwesens verändern?

Andy Grolnick, CEO vom Security-Anbieter Graylog (Bildquelle: @Graylog)

Open Banking stellt ein transformatives Potenzial für die Finanzbranche dar. Der beträchtliche Anstieg der Open-Banking-Transaktionen auf 11,4 Millionen Zahlungen im Juli 2023 mit einem beeindruckenden Wachstum von 102 % gegenüber dem Vorjahr ist ein Beleg für die rasche Akzeptanz des Systems in United Kingdom. Politische Entscheidungsträger und Führungskräfte in Finanzdienstleistungs- und Fintech-Unternehmen kommen nicht umhin, sich hierbei auch mit allen wichtigen Sicherheitsmaßnahmen auseinanderzusetzen.

Schwachstelle offene API beseitigen

„Die Zukunft des Open Bankings (offenes Bankwesen) wird in den nächsten Jahren einen bedeutenden Aufschwung erleben. Viele Unternehmen beeilen sich Open Banking-APIs zu implementieren. Wenn Finanzinstitute jedoch keinen Eklat erleben wollen, sollten sie eine API-Sicherheitsstrategie entwickeln, bevor sie mit der Skalierung beginnen. Wir bieten jetzt sogar eine kostenlose Plattform, um die Sicherheitsüberwachung der APIs zu starten. Mit der Einführung von Graylog API Security V3.6 haben Unternehmen volle Funktionsparität, um die Vorteile der Überwachbarkeit ihrer APIs zu nutzen,“ geht Andy Grolnick, CEO vom Security-Anbieter Graylog, ins Detail.
Viele Unternehmen haben keinen vollständigen Einblick in ihre bestehenden APIs. Offene Bank-APIs verbreiten sich in einem Tempo, das schneller ist als die Fähigkeit der DevOps-Teams, Patches zu veröffentlichen oder mit ihrem API-Bestand Schritt zu halten. Da der Sektor zu einem API-First-Ansatz übergeht, wird der Versuch, in einem späteren Entwicklungsstadium Einblick in APIs zu erhalten, zu einer großen Herausforderung.

„Mit der zunehmenden Anzahl von APIs im Open Banking steigt auch die Komplexität der Beziehungen zwischen allen APIs in einem Netzwerk. Die meisten APIs sind voneinander abhängig und nutzen sich gegenseitig, um Funktionen auszuführen. Eine verwundbare API zu finden, ist wie die Suche nach einer Nadel im Heuhaufen,“ so Grolnick weiter. „Nehmen Sie zum Beispiel den Angriff auf Optus, bei dem ein ungeschützter API-Endpunkt dazu führte, dass die persönlichen Daten von 10 Millionen Kunden offengelegt wurden. Wenn Finanzinstitute diese Lücken in der Transparenz jetzt schließen, können sie das Problem in den Griff bekommen, bevor es außer Kontrolle gerät.“

Proaktive API-Sicherheit und -Governance sind für den Erfolg von Open Banking entscheidend

„Die Institute müssen eine Bestandsaufnahme der bestehenden APIs vornehmen und robuste Kontrollen für neue APIs einführen. Überwachung, Zugriffsmanagement und Testmethoden, die auf APIs zugeschnitten sind, sind erforderlich. Werden API-Schwachstellen nicht frühzeitig behoben, kann das sensible Kundendaten, das Vertrauen in die Technologie und die Zukunft des Open Banking gefährden. Es ist daher wichtig, dass Finanzinstitute heute Maßnahmen ergreifen, um Transparenz und Kontrolle über ihre API-Landschaft zu erlangen,“ rät Grolnick.

Eine gute API-Sicherheitsstrategie basiert auf drei grundlegenden Bausteinen, die einen TDIR-Ansatz (Threat Detection and Incident Response) zur Beseitigung von Cyberbedrohungen ermöglichen.

1.) API-Governance für mehr Transparenz

Effektives API-TDIR und API-Governance gehen Hand in Hand. Eine gute Governance bedeutet, dass DevOps-Teams Wege finden, um bestehende APIs zu entdecken, und dass sie Richtlinien und Standards für die Funktionsweise von API-Eigenschaften festlegen, die bei jeder weiteren API-Entwicklung angewendet werden.

Sobald Richtlinien für API-Designstandards, Sicherheitsmaßnahmen, Dokumentationsanforderungen und Nutzungsrichtlinien festgelegt sind, müssen Prozesse für die Verwaltung des API-Lebenszyklus eingeführt werden. Damit wird sichergestellt, dass APIs kontinuierlich aktualisiert werden, die richtigen Nutzer Zugang zu ihnen haben und APIs verschiedene gesetzliche Rahmenbedingungen und Datenschutzstandards einhalten.
Eine ausgereifte API-Verwaltung verwandelt Erkenntnisse in umsetzbare KPIs und Analysen zur Bewertung der Sicherheitslage. Von dort aus können Unternehmen die Ergebnisse nutzen, um die API-Sicherheit durch messbare Fortschrittsverfolgung kontinuierlich zu verbessern.

2.) Verbesserung der teamübergreifenden Zusammenarbeit

API-Sicherheit erfordert eine enge Zusammenarbeit zwischen Entwicklungs- und Sicherheitsteams, doch viele Unternehmen kämpfen mit isolierten Teams und unklaren Zuständigkeiten. DevOps konzentrieren sich auf schnelle Innovation und verlassen sich darauf, dass die Sicherheitsteams Schwachstellen identifizieren, während die Sicherheitsteams erwarten, dass die Entwickler Abhilfemaßnahmen implementieren. Der Mangel an Klarheit führt dazu, dass API-Sicherheit oftmals noch unzureichend Beachtung findet und es an der Umsetzung mangelt.

„Da APIs das Bindegewebe zwischen Anwendungen, Systemen und Benutzern bilden, stellt eine fehlende teamübergreifende Abstimmung zur API-Sicherheit ein erhebliches Risiko dar. Dies verlangsamt die Erkennung und Behebung von Schwachstellen, die Angreifer ausnutzen können, um in wertvolle Daten einzudringen und Dienste zu unterbrechen,“ erläutert Grolnick. „Um hier Abhilfe zu schaffen, müssen Unternehmen ein gemeinsames Verantwortungsgefühl für die API-Sicherheit zwischen Entwicklungs- und Sicherheitsteams fördern. Prozesse wie regelmäßige gemeinsame Überprüfungen von APIs und Bedrohungsmodellen können dabei helfen, die Teams auf ein gemeinsames Ziel auszurichten.“

Das Sicherheitsteam sollte entwicklerfreundliche Anleitungen für die Gestaltung sicherer APIs bereitstellen, während die Entwickler die empfohlenen Kontrollen und Praktiken umsetzen. Durch die Verbesserung der Zusammenarbeit können Finanzunternehmen operative Lücken schließen, die es ermöglichen, dass API-Schwachstellen die Integrität ihrer Dienste gefährden. Gemeinsame Verantwortung über den gesamten Software-Lebenszyklus hinweg ist für einen soliden API-Schutz unerlässlich.

3.) Ein mehrschichtiger Ansatz

Da APIs allgegenwärtig sind, ist ein reiner Perimeter-Ansatz unzureichend. Angreifer sind sehr geschickt darin, sich durch Social Engineering und den Kauf von Zugangsrechten authentifizierten Zugang zu verschaffen. Auch Insider-Bedrohungen stellen ein großes Risiko dar, da autorisierte Benutzer ihre Privilegien absichtlich missbrauchen. Infolgedessen können herkömmliche Web Application Firewalls (WAFs) bösartige Aktionen von authentifizierten Benutzern nicht erkennen, da ihre Anfragen gültig erscheinen.

Die Sicherung von APIs erfordert eine mehrschichtige Strategie, die Bedrohungen jenseits des Perimeters identifiziert. So helfen beispielsweise Multi-Faktor-Authentifizierung, erweiterte Überwachung und Privilegienverwaltung dabei, den Zugriff von Insidern zu beschränken. Kontrollen auf Anwendungsebene bieten einen Einblick in die vollständigen Nutzdaten von Anfragen und Antworten, um Anomalien zu erkennen. Dies unterstützt die Erkennung unbekannter Bedrohungen, die den Perimeter-Schutz umgehen, indem sie innerhalb der erwarteten Parameter operieren.

„Im Wesentlichen müssen Finanzinstitute einen mehrschichtigen API-Schutz implementieren, der die Perimeter-, Netzwerk-, Anwendungs- und Datenebenen umfasst, da das alleinige Verlassen auf Netzwerkkontrollen ein falsches Gefühl von Sicherheit vermittelt. Ein ganzheitlicher API-Sicherheitsansatz schützt sowohl vor externen als auch vor internen Bedrohungen,“ betont Grolnick abschließend.

Der Blick in die Glaskugel

Die Zukunft des Open Banking ist vielversprechend, da die Akzeptanz zunimmt und die Behörden Wachstumsinitiativen unterstützen. Die Kunden könnten von mehr Transparenz, Kontrolle und innovativen Dienstleistungen profitieren. Der Fortschritt hängt jedoch von der Bewältigung einer Reihe von Herausforderungen ab, wobei die Sicherheit ganz oben auf der Liste steht. Wenn der Finanzdienstleistungssektor in der Lage ist, die API-Sicherheit durchgängig zu gewährleisten, kann Open Banking ein offeneres, kooperativeres und kundenorientierteres Finanzökosystem ermöglichen.

Interessierte Unternehmen können hier direkt auf die kostenfreie API-Sicherheitslösung von Graylog zugreifen: https://go2.graylog.org/api-security-free

Quellennachweis:

Open banking reaches 11 million+ payments milestone


https://graylog.org/post/free-api-discovery-threat-detection-tool-from-graylog/
https://www.csoonline.com/de/a/schlimmster-cybervorfall-in-der-geschichte-australiens,3674194

Über Graylog
Graylog verbessert die Cybersicherheit und den IT-Betrieb durch seine umfassenden SIEM-, zentralisierten Log-Management- und API-Sicherheitslösungen. Graylog bietet einen Vorsprung bei der Erkennung von Bedrohungen und der Reaktion auf Vorfälle bei verschiedenen Angriffsflächen. Die einzigartige Mischung aus KI/ML, fortschrittlicher Analytik und intuitivem Design macht Cybersecurity intelligenter, nicht schwieriger. Graylog ist auch ideal für die Fehlerbehebung bei täglichen IT-Leistungs- und Verfügbarkeitsproblemen. Im Gegensatz zu den komplexen und kostspieligen Systemen der Mitbewerber bietet Graylog sowohl Leistung als auch Erschwinglichkeit und vereinfacht so die IT- und Sicherheitsherausforderungen. Graylog wurde in Hamburg, Deutschland, gegründet und hat seinen Hauptsitz in Houston, Texas. Die Lösungen von Graylog werden in mehr als 50.000 Installationen in 180 Ländern eingesetzt. Erfahren Sie mehr unter Graylog.com, oder bleiben Sie mit uns auf X (Twitter) und LinkedIn in Verbindung.

PR-Agentur

Kontakt
PR-Agentur Werte leben & kommunizieren
Martina Gruhn
Corneliusstr. 29
80469 München
015221943260
http://www.martinagruhn.com

schnell.digital ist zertifizierter MongoDB Partner

Die Agentur schnell.digital GmbH, spezialisiert auf individuelle Software-Entwicklung und Projekte, ist nun MongoDB Services and Solutions Partner.

schnell.digital ist zertifizierter MongoDB Partner

Bild-Teaser der MongoDB-Zertifizierungs- und schnell.digital Logos

Voranschreitende Software-Agentur setzt auf innovative Datenbanktechnologie

Als innovative Software-Agentur für maßgeschneiderte Software-Lösungen, setzt schnell.digital ( https://schnell.digital ) weiterhin auf wegweisende Technologien und Expertise im Bereich der Datenbanktechnologien. Mit Stolz verkünden wir unsere offizielle Zertifizierung als MongoDB „Services and Solutions Partner“ ( MongoDB Partnerseite zu schnell.digital (https://cloud.mongodb.com/ecosystem/schnell-digital-gmbh)), eine Auszeichnung, die unsere herausragende Kompetenz in der Umsetzung von NoSQL-Konzepten und MongoDB-Datenumsetzung unterstreicht.

Unser Engagement für MongoDB: Maximale Leistungsfähigkeit und Skalierbarkeit:

Mit einem klaren Fokus auf die Entwicklung individueller Softwareprojekte von Backend bis Frontend, hat schnell.digital eine herausragende Expertise aufgebaut, die sich insbesondere im Bereich NoSQL und MongoDB manifestiert. MongoDB zeichnet sich durch seine Flexibilität, Skalierbarkeit und Leistungsfähigkeit aus, was es zur idealen Wahl für moderne Anwendungsarchitekturen macht.

„Diese dokumentenorientierte Datenbankstruktur ermöglicht es uns für unsere Kunden, komplexe Datenmodelle effizient zu entwerfen und umzusetzen, während die automatische Replikation und Sharding-Funktionen eine nahtlose Skalierbarkeit und Ausfallsicherheit für wachsende Datenmengen bieten.“ – so Patrick Schnell, Geschäftsführer der schnell.digital GmbH.

Kundenprobleme gelöst: Effiziente Lösungen für komplexe Datenherausforderungen:

Die Zertifizierung als MongoDB-Partner unterstreicht unsere langjährige Erfahrung und unser Engagement für innovative Lösungen. Durch die Partnerschaft mit MongoDB können wir unseren Kunden nun noch umfassendere Services bieten und sie bei der Bewältigung ihrer komplexen Datenherausforderungen unterstützen. Von der Bewältigung großer Datenmengen bis hin zur Gewährleistung von hoher Verfügbarkeit und Performance, helfen wir unseren Kunden dabei, ihre geschäftskritischen Anwendungen zu optimieren und ihre digitalen Initiativen voranzutreiben.

Engagement für Exzellenz und Innovation:

Diese ist ein weiterer Meilenstein in unserer Unternehmensentwicklung und bestätigt unser Engagement für Exzellenz und Innovation. Wir sind stolz darauf, zu den wenigen Unternehmen in Europa zu gehören, die diese Auszeichnung tragen, und wir sind entschlossen, unseren Kunden weiterhin erstklassige Dienstleistungen und Lösungen anzubieten, die sie bei der Realisierung ihrer digitalen Visionen unterstützen.

Über schnell.digital:
Die Agentur schnell.digital unterstützt ihre Kunden seit 2017 aus der Region Augsburg heraus mit der jahrelangen Erfahrung ihrer Experten und Expertinnen. Zum Kundenstamm zählen sowohl DAX30-Kunden, sowie auch NGOs oder Unternehmen aus dem Banken- und Finanzsektor. Patrick Schnell, Gründer und Geschäftsführer des Unternehmens ist deutschlandweit in der Software-Branche als Keynote-Speaker und Fachautor bekannt.

Die schnell.digital ist eine vertrauensvolle Agentur, die sich auf die Entwicklung individueller Softwarelösungen für Unternehmen spezialisiert hat. Mit Leidenschaft setzen wir moderne Technologien ein, um Geschäftsanwendungen von höchster Qualität zu liefern. Von Cloud-Systemen, Web-Entwicklung zur App-Entwicklung.

Kontakt
schnell.digital GmbH
Patrick Schnell
Theodor-Heuss-Ring 9D
86405 Meitingen
08271 812048-0
http://www.schnell.digital/

Controlware ist „Regional Solution Partner of the Year“ von Splunk

Controlware ist "Regional Solution Partner of the Year" von Splunk

Durch die innovative CESAR-App ist Controlware „Regional Solution Partner of the Year“ von Splunk.

Dietzenbach, 7. Februar 2024 – Controlware wurde von Splunk, einem der weltweit führenden Anbieter im Bereich Operational Intelligence und Big Data Analytics, am 11. Januar in München als „Regional Solution Partner of the Year“ ausgezeichnet. Der Award honoriert die Leistung des IT-Dienstleisters und Managed Service Providers bei der Entwicklung der Controlware CESAR-App.

Moderne Security- und Netzwerk-Devices liefern SOC-Teams Tag für Tag eine Flut potenziell sicherheitsrelevanter Daten – doch angesichts der riesigen Datenmengen sind selbst erfahrene Analysten mit der Auswertung häufig überfordert. Daher hat Controlware mit der CESAR-App (Controlware Essential Security and Reporting) eine bedienfreundliche Lösung entwickelt, die auf der marktführenden Technologie der Splunk Enterprise Analytics-Plattform aufsetzt und kritische Event- und Log-Files automatisch aufbereitet.

„Unsere Erfahrung aus zahlreichen Projekten zeigt, dass die meisten Unternehmen bei der Stärkung ihrer Cyber-Resilienz auf ähnliche Daten achten – etwa die Log- und Event-Files aus den AD-, Server-, Microsoft 365-, Firewall-, Proxy- und Mail-Systemen“, erklärt Daniel Seifert, Teamleiter Competence Center IT-Management Analytics Engineering bei Controlware. „Hinter der CESAR-App steht die Idee, vorkonfigurierte Use Cases zu entwickeln, die es erlauben, genau diese Daten mithilfe der Splunk Plattform zu erfassen und auszuwerten. Das erleichtert es Unternehmen, ihre Datenanalyse von Anfang an besser zu fokussieren. Wir freuen uns sehr, dass die App bei unseren Kunden so großen Anklang findet, und dass Splunk dies mit einem Partner-Award honoriert.“

„Wir gratulieren dem Controlware Team zur Auszeichnung als Regional Solution Partner“, erklärt Friederike Heydolph, Director Channel bei Splunk. „Die Controlware CESAR-App bietet unseren gemeinsamen Kunden erhebliche Mehrwerte. Die Integration von vordefinierten Use Cases erleichtert eine schnelle Einführung und das Management der Datenflut – und ermöglicht eine effiziente Nutzung zur Optimierung des IT-Betriebs. Dies führt zu einer erhöhten Sicherheit und erheblichen Entlastung der Teams, insbesondere in Zeiten des allgemeinen Fachkräftemangels.“

Über Splunk
Splunk (NASDAQ: SPLK) ist ein führendes Unternehmen für Cybersicherheit und Observability. Splunk macht die digitale Welt sicherer und resilienter. Unternehmen vertrauen auf Splunk, um zu verhindern, dass sich Sicherheits-, Infrastruktur- und Anwendungsprobleme zu größeren Vorfällen entwickeln, um Beeinträchtigungen durch digitale Störungen zu reduzieren und um die Transformation zu beschleunigen.

Über Controlware GmbH
Die Controlware GmbH zählt zu den Markt- und Qualitätsführern unter den IT-Dienstleistern und Managed Service Providern in Deutschland. Das Unternehmen ist Teil der Controlware Gruppe mit insgesamt rund 950 Mitarbeitenden und einem Umsatz von rund 380 Mio. Euro, zu der auch die ExperTeach GmbH, die Networkers AG und die productware GmbH gehören. Als Digitalisierungspartner von mittelständischen und großen Unternehmen sowie von Behörden und Einrichtungen der öffentlichen Hand entwickelt, implementiert und betreibt Controlware agile und resiliente IT-Lösungen in den Bereichen Network Solutions, Information Security, Data Center & Cloud, Collaboration, IT-Management und Managed Services – und unterstützen unsere Kunden dabei, die Weichen für einen wirtschaftlichen, zukunftssicheren und nachhaltigen IT-Betrieb zu stellen. Dabei stehen wir unseren Kunden in allen Projektphasen zur Seite: von der Beratung und Planung bis hin zur Realisierung und Wartung. Als MSP mit einem eigenen ISO 27001-zertifizierten Customer Service Center reicht unser Angebot von Betriebsunterstützung bis zu kompletten Managed Services für Cloud-, Data Center-, Enterprise- und Campus-Umgebungen. Zudem bieten wir umfassende Cyber Defense Services. Neben unserem eigenen flächendeckenden Vertriebs- und Servicenetz mit 16 Standorten in DACH, die gemäß ISO 9001-zertifiziert sind, unterhalten wir internationale Partnerschaften und sind so in der Lage, anspruchsvolle globale Projekte abzuwickeln. Seit unserer Gründung im Jahr 1980 arbeiten wir eng mit den national und international führenden Herstellern sowie innovativen Newcomern zusammen und sind bei den meisten dieser Partner im höchsten Qualifizierungsgrad zertifiziert. Besonderes Augenmerk legen wir auf die Nachwuchsförderung: Seit vielen Jahren kooperieren wir mit renommierten deutschen Hochschulen und betreuen durchgehend rund 50 Auszubildende und Studenten.

Firmenkontakt
Controlware GmbH
Stefanie Zender
Waldstraße 92
63128 Dietzenbach
+49 6074 858-246
+49 6074 858-220
www.controlware.de

Pressekontakt
H zwo B Kommunikations GmbH
Michal Vitkovsky
Nürnberger Str. 17-19
91052 Erlangen
+49 9131 812 81-25
+49 9131 812 81-28
www.h-zwo-b.de

Business Analytics versus Business Intelligence

Welche IT-Architektur ist geeignet?

Business Analytics versus Business Intelligence

Dirk Böckmann, Agile Analytics (Bildquelle: @Dirk Böckmann)

Die verfügbaren Datenmengen wachsen im digitalen Zeitalter stetig. An Chat-GPT erfahren wir momentan, welche Veränderungen in kürzester Zeit in Gang kommen, sobald ein neuer Algorithmus die Welt betritt. Nachfolgend wird gezeigt, welche IT-Architektur Unternehmen für Business Analytics und den Umgang mit Big Data benötigen.

Mit Business Analytics große Datenmengen verarbeiten

Im Zuge der Digitalisierung erleben wir eine enorme Beschleunigung durch die permanente Weiterentwicklung der Technologie. Experten haben errechnet, dass sich die Datenmengen innerhalb der kommenden 3 Jahre verfünffachen werden. Mehr als 50 Prozent der Unternehmen geben zu, dass sie mit dem wachsenden Datenvolumen nicht mehr Schritt halten können. Schon heute bleiben 70 Prozent aller Daten ungenutzt.
Führungskräfte sind sich einig: Unternehmensdaten sind das wertvollste Kapital und sichern langfristig ihre Geschäftsfähigkeit. Doch sie haben vielfach keine Vorstellung, wie sie die Datennutzung technologisch organisieren, die Daten besser vernetzen und daraus einen Mehrwert für ihr Unternehmen generieren. Mit Business Analytics lassen sich deutlich mehr Daten verarbeiten als mit Business Intelligence. Zudem können durch eine erweiterte Analytics-Architektur erweiterte Analyse-Techniken zum Einsatz kommen, wodurch sich Entscheidungen verbessern und Leistungen gesteigert werden.

Eine Vorbereitung auf Big Data ist erforderlich

Big Data verlangt es, nicht nur die internen strukturierten Daten, sondern auch externe und semistrukturierte Daten (z.B. Texte aus Kundenabfragen im Web oder Mobilfunk) sowie unstrukturierte Daten (z.B. Bilder und Tonaufnahmen, die nur mittels KI ausgewertet werden können) zu verarbeiten. Darin liegt der Beginn des Wandels von Business Intelligence (BI) zu Business Analytics (BA). Wer ihn vollziehen will, braucht u.a. eine moderne und agile Daten-Architektur, die mit den neuen Herausforderungen mitwächst und sich an verändernde Bedürfnisse des Managements flexibel anpasst.

Die Grenzen des Data Warehouse

Die meisten Organisationen arbeiten bisher ausschließlich mit Data Warehouse (DWH): einer zentralen Datenbank, die alle unternehmensweit gespeicherten Daten für die Analyse bereitstellt und zur Entscheidungsfindung heranzieht. Doch das DWH ist eine statische, nur für Business Intelligence geeignete Architektur. Aufgrund des rigiden Daten-Ablageschemas wird es vielen dynamischen Anforderungen nicht gerecht. Sobald neue Datenquellen hinzukommen oder sich Geschäftsziele oder Entscheidungskriterien ändern, geraten statische IT-Architekturen an ihre Grenzen.
Versuchen Unternehmen, am DWH festzuhalten, entstehen oft Notlösungen: Mit erheblichem manuellen Aufwand werden abteilungsspezifische Lösungen aufgebaut oder aufrecht erhalten, die ohne Integration teilweise „neben“ der IT laufen und fehleranfällig, langsam und kaum verwertbar sind. Im Laufe der Zeit wächst oft die Anzahl der improvisierten Lösungen so an, dass ein „IT-Flickenteppich“ – eine gewachsene statt geplante Architektur – entsteht. Es wird „angebaut, umgebaut, eingebaut“, dennoch funktioniert das Ganze nicht optimal.

Die Flexibilisierung der Analytics-Architektur: Data Lake und Data Lakehouse

Um das Data Warehouse zu flexibilisieren, empfiehlt sich zunächst, eine bimodale IT einzuführen. Dabei kombiniert man den stabilen, auf Effizienz ausgerichteten Betrieb des DWH (Modus 1) mit einer agilen Struktur zur Bewältigung neuer datentechnischer Herausforderungen (Modus 2). In Ergänzung zum Data Warehouse wird oft ein Data Lake oder ein Data Lakehouse eingeführt. Ein Data Lake ist von vornherein auf die automatisierte Verarbeitung großer Datenmengen ausgelegt, die im Rohformat gespeichert werden und flexibel ohne manuellen Aufwand für sehr unterschiedliche Zwecke verarbeitet werden können.
Das Data Lakehouse ist eine moderne Datenarchitektur, die Elemente von Lake und Warehouse kombiniert. Das ermöglicht die zentrale Speicherung großer Mengen strukturierter und unstrukturierter Daten in einem Repository; gleichzeitig werden Funktionen wie Datenverarbeitung, Abfrageoptimierung und Zugriffskontrolle für analytische Zwecke optimiert. Im Data Lakehouse wird also eine Integration beider Welten angestrebt.
Außerdem sind in einer Analytics-Architektur spezielle Werkzeuge integriert für maschinelles Lernen (Muster-Identifikation), die Vorhersage von Trends und zur Beantwortung komplexer Optimierungsfragen. Eine analytische Architektur erlaubt es beispielsweise, durch Anwendung von Algorithmen – mit einer Eintrittswahrscheinlichkeit von 70 und mehr Prozent – Erkenntnisse darüber zu gewinnen, was zukünftig passieren wird (Predictive Analytics). So lassen sich frühzeitig angemessene und vorausschauende Entscheidungen treffen. Das ist ein wesentlicher Vorteil von Business Analytics.
Im Vergleich dazu kann man mit Business Intelligence bzw. einem Data Warehouse nur strukturierte und vergangenheitsorientierte Daten auswerten (Descriptive Analytics). Es handelt sich um ein Reporting, das nachträglich analysiert, warum und was geschehen ist.
Auf der Basis einer analytischen Architektur – der Voraussetzung für die Anwendung von Business Analytics – kann sich ein Unternehmen aus einer schlüssigen Datenwelt mit entscheidungsrelevanten Informationen versorgen lassen. Das ist der Weg zur datengetriebenen Entscheidungsfindung.

Buch zum Thema „Agile Analytics“

In seinem Buch „Agile Analytics“ (Haufe Verlag 2023, ISBN 978-3-648-16435-8) zeigt Dirk Böckmann auf, wie Unternehmen Business Analytics für bessere Entscheidungen nutzen und mithilfe von Agilität architektonisch, prozessual und strukturell so organisieren, dass sie der Dynamik des Wettbewerbs und Big Data gewachsen sind. Sie erfahren, wie Advanced Analytics mit agilen Methoden im Unternehmen implementiert und betrieben werden kann. Dadurch können sie fundiertere Entscheidungen treffen und ihre Leistungsfähigkeit spürbar steigern.

Die Beat2 Lead GmbH (Geschäftsführer: Dirk Böckmann) berät seit über 20 Jahren Mittelständler und Global Player im Bereich des Performance Managements und der Nutzung fortgeschrittener Analytics-Technologien.

Kontakt
Beat2Lead
Dirk Böckmann
Heinsbergstr. 7
40547 Düsseldorf
021155083247

Startseite

2022 Gartner® Magic Quadrant™ for Insight Engines: Squirro erhält den Status „Visionary“ zum 2. Mal in Folge

2022 Gartner® Magic Quadrant™ for Insight Engines: Squirro erhält den Status "Visionary" zum 2. Mal in Folge

Dorian Selz, CEO der Squirro AG

Augmented-Intelligence-Anbieter Squirro für die Vollständigkeit seiner Software-Vision und deren Anwendbarkeit ausgezeichnet

Squirro, der Anbieter von Augmented-Intelligence-Lösungen, wurde im 2022 Gartner® Magic Quadrant™ für Insight Engines zum zweiten Mal in Folge als Visionary benannt. Ausgezeichnet wurde die Insight Engine von Squirro für ihre umfassende Produkt-Vision und deren Umsetzungsfähigkeit. Squirros innovative und modulare Insight Engine umfasst die Module „Semantic Enterprise Search“, „Insight Generation“ und KI-gesteuerte kontextbezogene Handlungsempfehlungen zur Unterstützung einer datengesteuerten Entscheidungsfindung, Personalisierung und Automatisierung.

Squirros Insight Engine stellt eine benutzerfreundliche, einfache und klare Benutzeroberfläche bereit und ist ein Vendor-Managed-Service, der über eine Auswahl von Drittanbieter-Cloud-Diensten gehostet und ebenfalls in einer Private-Cloud oder On-Premise zum Einsatz kommen kann.

„Die Auszeichnung als „Visionary“ im Gartner Magic Quadrant for Insight Engines zum zweiten Mal in Folge belegt unseren kontinuierlichen Fokus auf Innovation und unsere Fähigkeit, hochrelevante Erkenntnisse für unsere Kunden bereitzustellen“, sagte Dorian Selz, CEO von Squirro. „Unsere Zusammenarbeit mit Organisationen wie der Bank of England, der Europäischen Zentralbank und Henkel zeigt, dass wir die Anforderungen großer Unternehmen verstehen und über die Lösungen und das Fachwissen verfügen, um vorgegebene Ziele zu erreichen. Die Ernennung zum Gartner® Magic Quadrant™ Visionary ist sehr wichtig für uns. Sie ist ein Beleg unserer Fortschritte.“

Squirro bietet eine umfassende Palette von Augmented-Intelligence-Lösungen für eine Reihe von Branchen (wie zum Beispiel Banking und Fertigungsindustrie) und funktionalen Bereichen (wie zum Beispiel Vertrieb, Risikomanagement, Wissensmanagement und Kundenservice) an.

Die Platzierung von Squirro als „Visionary“ im Gartner® Magic Quadrant™ verheißt Gutes für nachfolgende Insight Engine-Innovationen, so Dorian Selz weiter: „Wir legen großen Wert auf unsere Insight Engine. Die erneute Anerkennung von Gartner® ist deshalb ein stolzer Moment für Squirro. Sie bestätigt unsere erfolgreiche Wachstumsstrategie in 2023 und darüber hinaus.“

Eine Kopie des „Gartner Magic Quadrant for Insight Engines“ Berichts kann hier heruntergeladen werden: https://squirro.com/library/2022-gartner-magic-quadrant-for-insight-engines/

Zu Squirro: https://info.squirro.com/ecb_pr

Zur Insight Engine von Squirro: https://squirro.com/insight-engine/

Zu GARTNER:
GARTNER ist eine eingetragene Marke und Servicemarke von Gartner, Magic Quadrant ist eine eingetragene Marke von Gartner, Inc. und/oder seinen verbundenen Unternehmen in den USA sowie international, die hier mit Genehmigung verwendet werden. Alle Rechte vorbehalten.

Gartner befürwortet keine Anbieter, Produkte oder Dienstleistungen, die in seinen Forschungspublikationen dargestellt werden und rät Technologienutzern nicht, nur die Anbieter mit den höchsten Bewertungen oder anderen Bezeichnungen auszuwählen. Forschungspublikationen von Gartner stellen die Meinungen der Forschungsorganisation von Gartner dar und sollten nicht als Tatsachenbehauptung ausgelegt werden. Gartner lehnt alle ausdrücklichen oder stillschweigenden Gewährleistungen in Bezug auf diese Studie ab, einschließlich Gewährleistungen der Marktgängigkeit oder Eignung für einen bestimmten Zweck.

Über Squirro:
Squirro ist ein führender Anbieter von Augmented-Intelligence-Lösungen für die Suche, Analyse und Interpretation von unstrukturierten Informationen. Squirro ist ein nach ISO 27001 zertifiziertes Unternehmen.

Dank der einzigartigen Technologie, die KI, maschinelles Lernen und Predictive Analytics vereint, profitieren die Kunden von Squirro von messbaren Ergebnissen in Form von Umsatz- und Effizienz-Steigerungen, Risikominierung, Kostenreduktion und beschleunigter Markteinführung.

Gegründet in 2012, Squirro ist ein schnell wachsendes Unternehmen mit engagierten Teams in der Schweiz, den Vereinigten Staaten, Großbritannien und Singapur. Zu den Kunden zählen unter anderem die Europäische Zentralbank, die Bank of England, Standard Chartered, Candriam und Henkel.

Kontakt
Squirro AG
Gloria Fernandez
Mühlebachstrasse 70
8008 Zürich
+41 44 562 43 36
gloria.fernandez@squirro.com

Home

Data Mining im eCommerce – einfach und effektiv

Data Mining im eCommerce - einfach und effektiv

tricoma AG – Data Mining im eCommerce

Mit tricoma die neue Art der Datenerfassung entdecken

Data Mining – ein Begriff, der im Zusammenhang mit Big Data und Internet of Things häufig fällt. Doch was genau versteckt sich hinter diesem Ausdruck?
Das Data Mining ist die systematische Suche nach Mustern in großen Datenbeständen. Hierbei werden Verfahren und Algorithmen eingesetzt, um aus den Daten Erkenntnisse und Trends zu gewinnen. Diese Verfahren kommen u.a. mit dem Einsatz von KI und Maschine Learning zum Einsatz. Data Mining ist ein wichtiges Werkzeug, um aus großen Datensätzen schnell und einfach die gewünschten Daten zu erhalten.
Diese Methode ist also auch wichtig für Unternehmen, da sie neue Marktchancen eröffnet und die Produktivität und Effizienz steigert. Im eCommerce gewinnt Data Mining daher zunehmend an Bedeutung, sei es für Warenkorbanalysen oder um Daten strukturiert auszugeben.Wie können Sie jetzt also Data Mining mit Ihrem Onlinehandel verbinden?

Unzureichende Daten des Lieferanten? Data Mining hilft!

Oftmals stehen Onlinehändler vor dem großen Daten-Problem. Lieferanten stellen die Produktdaten zur Verfügung – aber nur selten gut strukturiert, dass man diese geradewegs importieren kann. Oftmals erhalten sie eine Liste mit Produktpreisen, EK-Preisen, Artikelnummer und EAN. Maße und Gewicht des Artikels sind nicht auf der Liste vorhanden, aber im Onlineshop des Lieferanten ersichtlich, welcher auch eine Übernahme der Daten erlaubt.
Um die Daten sauber einzupflegen kümmern sich Mitarbeiter ausschließlich um die Produktdatenanlage und Pflege. Die erforderlichen Daten sind vorhanden, somit liegt auf der Hand, dass man durch den Einsatz bestimmter Techniken diese Ressourcen besser investieren kann.
Die tricoma AG bietet Ihnen die Lösung Ihr Unternehmen zu optimieren.

Data Mining leicht gemacht mit der neuen App DataCrawler von tricoma

Das Entwicklerteam von der tricoma AG arbeitet aktuell an der App DataCrawler. Die App liest Websites aus und bringt alle Produktdaten in eine strukturierte Form. Durch die Arbeit im Hintergrund zieht sich die App Daten aus dem Onlineshop. Sie hinterlegen zuerst Ihre gewünschte Seite und die App erledigt den Rest. Der DataCrawler durchsucht die Seite, wertet die Daten aus und verarbeitet diese.
Der große Vorteil? Die App läuft komplett automatisiert. Sie können Produktbilder direkt von der Lieferantenseite herunterladen, den EKP aktualisieren und haben den Überblick über alle relevanten Daten Ihrer Produkte. Verarbeiten Sie schnell und einfach Ihre Artikel in der App Produkte. Die eingelesenen Daten lassen sich mühelos über die App Import/Export mit Preislisten verknüpfen. Somit ist es auch möglich, Produktstammdaten aus dem Shop zu laden und die EK-Preise aus der Preisliste des Lieferanten zu übernehmen.
Um den Automatismus angenehmer zu gestalten, haben Sie die Möglichkeit ein eigenes Regelwerk zu definieren. Sie können Ihre Produkte nach Attributen zuordnen. Die Importregeln können Sie beliebig für die Produktanlage sowie die Produktaktualisierung zuweisen. Lassen Sie leere Produktfelder automatisch befüllen und bieten Sie so Ihren Kunden das bestmögliche Kundenerlebnis. Sparen Sie Zeit und Ressourcen mit dem DataCrawler von tricoma.

Die App DataCrawler wird voraussichtlich in Q1/2023 veröffentlicht. Lassen Sie sich bereits vorab von unserem Vertriebsteam beraten. Fangen Sie bereits heute an Ihr Unternehmen mit tricoma zu revolutionieren!

Weitere Informationen unter: https://www.tricoma.de

.

Kontakt
tricoma AG
Presse Team
Am Mühlbach 1
97475 Zeil am Main
09521 / 70 31 31-0
info@tricoma.de
https://www.tricoma.de