Varonis: Mehr Datensicherheit für Databricks

Varonis erweitert seinen datenzentrierten und proaktiven Ansatz für Lakehouses der führenden Data-Intelligence-Plattform

Varonis: Mehr Datensicherheit für Databricks

Varonis setzt die Datensicherheit von Databricks in den Kontext der gesamten Cloud-Umgebung

Varonis Systems, Inc., (NASDAQ:VRNS), der Spezialist für datenzentrierte Cybersicherheit, baut die Abdeckung seiner Datensicherheitsplattform auf Databricks aus. Auf diese Weise können auch kritische Daten der Data-Intelligence-Plattform kontinuierlich identifiziert und klassifiziert, Gefährdungen beseitigt sowie Bedrohungen erkannt und gestoppt werden.

Tausende Unternehmen weltweit setzten auf Databricks bei der Erstellung, Bereitstellung, gemeinsamen Nutzung und Wartung von Daten, Analysen und KI-Lösungen. Cloud-Plattformen wie Databricks bieten zwar eine hohe Leistung und Flexibilität, erhöhen aber auch das Risiko, wenn die Datenmenge wächst. Deshalb ist ein proaktiver, datenzentrierter Ansatz erforderlich, der erkennt, wo sich sensitive Daten befinden, und in der Lage ist, Risiken auch in großem Umfang zu beseitigen.

Mit Varonis können Unternehmen die Sicherheit ihrer Cloud-Daten kontinuierlich verbessern. Dafür bietet Varonis für Databricks umfangreiche Funktionen:

Automatische Identifizierung gefährdeter Daten: Varonis erkennt und klassifiziert sensitive Daten im gesamten Data Lakehouse – etwa in Workspaces, Datenbanken und Schemas. Varonis bietet dabei einen umfassenden Überblick über Benutzer- und Gruppenzugriffsberechtigungen und Identitäten in Databricks.

Proaktive Abhilfe: Die Identifizierung von Datenrisiken ist nur ein Teil der Herausforderung. Sicherheitsverantwortliche müssen auch Probleme schnell beheben und Schwachstellen schließen, bevor sie ausgenutzt werden können. Varonis unterstützt Unternehmen dabei, Probleme proaktiv zu beheben und Risiken zu reduzieren.

Umfassende Bedrohungserkennung: Die aktive Erkennung von Sicherheitsrisiken in der Cloud ist von entscheidender Bedeutung, insbesondere wenn Angreifer mit legitimen Anmeldedaten eindringen. Varonis bietet eine umfassende Abdeckung der gesamten Kill Chain, damit Bedrohungen für die Daten schnell erkannt und beseitigt werden können.

„Durch das Modell der geteilten Verantwortung sind die IT- und Sicherheitsteams und nicht der Anbieter für den Schutz der Unternehmensdaten verantwortlich“, erklärt Volker Sommer, Regional Sales Director DACH von Varonis. „Durch die stetig wachsende Menge an Daten in Cloud-Data-Warehouses und Lakehouses steigen auch die Risiken. Diese lassen sich nur durch eine tiefe Transparenz und hohe Automatisierung wirkungsvoll minimieren. Dies gilt umso mehr, da Angreifer in aller Regel nicht mehr einbrechen, sondern sich mit gestohlenen oder ergaunerten Benutzerinformationen einloggen.“

Varonis stellt den Schutz der Daten ins Zentrum der Sicherheitsstrategie und verfolgt so einen anderen Ansatz als traditionelle IT-Sicherheits-Anbieter. Die Cloud-native Datensicherheitsplattform entdeckt und klassifiziert kontinuierlich kritische Daten, behebt Schwachstellen und erkennt fortschrittliche Bedrohungen mit KI-gestützter Automatisierung.

Tausende Unternehmen weltweit vertrauen beim Schutz ihrer Daten auf Varonis, ganz egal, wo diese gespeichert sind: lokal, in SaaS-, IaaS- oder Hybrid-Cloud-Umgebungen. Mit Varonis können Kunden eine breite Palette von Sicherheitsfunktionen automatisieren, wie Data Security Posture Management (DSPM), Datenklassifizierung, Data Access Governance (DAG), Data Detection and Response (DDR), Data Loss Prevention (DLP) oder Insider Risk Management. Weitere Informationen unter www.varonis.com/de.

Firmenkontakt
Varonis Systems
Rachel Hunt
Broadway, 29th Floor 1250
10001 New York, NY
+1-877-292-8767
https://www.varonis.com/de/

Pressekontakt
Weissenbach Public Relations GmbH
Bastian Schink
Nymphenburger Str. 86
80636 München
089/55067775

Home

Business Analytics versus Business Intelligence

Welche IT-Architektur ist geeignet?

Business Analytics versus Business Intelligence

Dirk Böckmann, Agile Analytics (Bildquelle: @Dirk Böckmann)

Die verfügbaren Datenmengen wachsen im digitalen Zeitalter stetig. An Chat-GPT erfahren wir momentan, welche Veränderungen in kürzester Zeit in Gang kommen, sobald ein neuer Algorithmus die Welt betritt. Nachfolgend wird gezeigt, welche IT-Architektur Unternehmen für Business Analytics und den Umgang mit Big Data benötigen.

Mit Business Analytics große Datenmengen verarbeiten

Im Zuge der Digitalisierung erleben wir eine enorme Beschleunigung durch die permanente Weiterentwicklung der Technologie. Experten haben errechnet, dass sich die Datenmengen innerhalb der kommenden 3 Jahre verfünffachen werden. Mehr als 50 Prozent der Unternehmen geben zu, dass sie mit dem wachsenden Datenvolumen nicht mehr Schritt halten können. Schon heute bleiben 70 Prozent aller Daten ungenutzt.
Führungskräfte sind sich einig: Unternehmensdaten sind das wertvollste Kapital und sichern langfristig ihre Geschäftsfähigkeit. Doch sie haben vielfach keine Vorstellung, wie sie die Datennutzung technologisch organisieren, die Daten besser vernetzen und daraus einen Mehrwert für ihr Unternehmen generieren. Mit Business Analytics lassen sich deutlich mehr Daten verarbeiten als mit Business Intelligence. Zudem können durch eine erweiterte Analytics-Architektur erweiterte Analyse-Techniken zum Einsatz kommen, wodurch sich Entscheidungen verbessern und Leistungen gesteigert werden.

Eine Vorbereitung auf Big Data ist erforderlich

Big Data verlangt es, nicht nur die internen strukturierten Daten, sondern auch externe und semistrukturierte Daten (z.B. Texte aus Kundenabfragen im Web oder Mobilfunk) sowie unstrukturierte Daten (z.B. Bilder und Tonaufnahmen, die nur mittels KI ausgewertet werden können) zu verarbeiten. Darin liegt der Beginn des Wandels von Business Intelligence (BI) zu Business Analytics (BA). Wer ihn vollziehen will, braucht u.a. eine moderne und agile Daten-Architektur, die mit den neuen Herausforderungen mitwächst und sich an verändernde Bedürfnisse des Managements flexibel anpasst.

Die Grenzen des Data Warehouse

Die meisten Organisationen arbeiten bisher ausschließlich mit Data Warehouse (DWH): einer zentralen Datenbank, die alle unternehmensweit gespeicherten Daten für die Analyse bereitstellt und zur Entscheidungsfindung heranzieht. Doch das DWH ist eine statische, nur für Business Intelligence geeignete Architektur. Aufgrund des rigiden Daten-Ablageschemas wird es vielen dynamischen Anforderungen nicht gerecht. Sobald neue Datenquellen hinzukommen oder sich Geschäftsziele oder Entscheidungskriterien ändern, geraten statische IT-Architekturen an ihre Grenzen.
Versuchen Unternehmen, am DWH festzuhalten, entstehen oft Notlösungen: Mit erheblichem manuellen Aufwand werden abteilungsspezifische Lösungen aufgebaut oder aufrecht erhalten, die ohne Integration teilweise „neben“ der IT laufen und fehleranfällig, langsam und kaum verwertbar sind. Im Laufe der Zeit wächst oft die Anzahl der improvisierten Lösungen so an, dass ein „IT-Flickenteppich“ – eine gewachsene statt geplante Architektur – entsteht. Es wird „angebaut, umgebaut, eingebaut“, dennoch funktioniert das Ganze nicht optimal.

Die Flexibilisierung der Analytics-Architektur: Data Lake und Data Lakehouse

Um das Data Warehouse zu flexibilisieren, empfiehlt sich zunächst, eine bimodale IT einzuführen. Dabei kombiniert man den stabilen, auf Effizienz ausgerichteten Betrieb des DWH (Modus 1) mit einer agilen Struktur zur Bewältigung neuer datentechnischer Herausforderungen (Modus 2). In Ergänzung zum Data Warehouse wird oft ein Data Lake oder ein Data Lakehouse eingeführt. Ein Data Lake ist von vornherein auf die automatisierte Verarbeitung großer Datenmengen ausgelegt, die im Rohformat gespeichert werden und flexibel ohne manuellen Aufwand für sehr unterschiedliche Zwecke verarbeitet werden können.
Das Data Lakehouse ist eine moderne Datenarchitektur, die Elemente von Lake und Warehouse kombiniert. Das ermöglicht die zentrale Speicherung großer Mengen strukturierter und unstrukturierter Daten in einem Repository; gleichzeitig werden Funktionen wie Datenverarbeitung, Abfrageoptimierung und Zugriffskontrolle für analytische Zwecke optimiert. Im Data Lakehouse wird also eine Integration beider Welten angestrebt.
Außerdem sind in einer Analytics-Architektur spezielle Werkzeuge integriert für maschinelles Lernen (Muster-Identifikation), die Vorhersage von Trends und zur Beantwortung komplexer Optimierungsfragen. Eine analytische Architektur erlaubt es beispielsweise, durch Anwendung von Algorithmen – mit einer Eintrittswahrscheinlichkeit von 70 und mehr Prozent – Erkenntnisse darüber zu gewinnen, was zukünftig passieren wird (Predictive Analytics). So lassen sich frühzeitig angemessene und vorausschauende Entscheidungen treffen. Das ist ein wesentlicher Vorteil von Business Analytics.
Im Vergleich dazu kann man mit Business Intelligence bzw. einem Data Warehouse nur strukturierte und vergangenheitsorientierte Daten auswerten (Descriptive Analytics). Es handelt sich um ein Reporting, das nachträglich analysiert, warum und was geschehen ist.
Auf der Basis einer analytischen Architektur – der Voraussetzung für die Anwendung von Business Analytics – kann sich ein Unternehmen aus einer schlüssigen Datenwelt mit entscheidungsrelevanten Informationen versorgen lassen. Das ist der Weg zur datengetriebenen Entscheidungsfindung.

Buch zum Thema „Agile Analytics“

In seinem Buch „Agile Analytics“ (Haufe Verlag 2023, ISBN 978-3-648-16435-8) zeigt Dirk Böckmann auf, wie Unternehmen Business Analytics für bessere Entscheidungen nutzen und mithilfe von Agilität architektonisch, prozessual und strukturell so organisieren, dass sie der Dynamik des Wettbewerbs und Big Data gewachsen sind. Sie erfahren, wie Advanced Analytics mit agilen Methoden im Unternehmen implementiert und betrieben werden kann. Dadurch können sie fundiertere Entscheidungen treffen und ihre Leistungsfähigkeit spürbar steigern.

Die Beat2 Lead GmbH (Geschäftsführer: Dirk Böckmann) berät seit über 20 Jahren Mittelständler und Global Player im Bereich des Performance Managements und der Nutzung fortgeschrittener Analytics-Technologien.

Kontakt
Beat2Lead
Dirk Böckmann
Heinsbergstr. 7
40547 Düsseldorf
021155083247

Startseite

Wozu dient Agile Analytics?

Interview mit dem Analytics-Experten Dirk Böckmann

Wozu dient Agile Analytics?

Agile Analytics, Buch-Cover (Bildquelle: @Dirk Böckmann)

Frage: Wir befinden uns mitten in einem digitalen Wandel, der seit einigen Jahren von zahlreichen disruptiven Umbrüchen begleitet wird. Wie können Unternehmen dem begegnen?
Böckmann: In Anbetracht des schnellen technologischen Wandels und der exponentiellen Entwicklung der Datenmengen braucht es flexible, kontinuierlich verbesserte Analytics-Systeme, außerdem agile Arbeitsweisen, die für flexible Prozesse sorgen.

Frage: Was genau ist der Unterschied zwischen Business Intelligence und Business Analytics?
Böckmann: Das Herzstück von Business Intelligence ist Descriptive Analytics. Diese gibt eine Antwort auf die Frage: „Was ist passiert und aus welchen Gründen?“ Das ist der Status-quo in den meisten Unternehmen. Damit lassen sich lediglich Standardberichte, Statistiken und Reports erstellen, die vergangenheitsorientierte Daten auswerten.
Business Analytics leistet mehr, und zwar durch den Einsatz von Algorithmen, die automatisiert die Analyse umfassenderer zeitnaher Daten erlauben. Predictive Analytics legt den Fokus auf die Zukunft und fragt: „Was wird voraussichtlich passieren?“ Das hilft, flexiblere und schnellere Entscheidungen zu treffen. Prescriptive Analytics macht jederzeit korrigierbare Vorschläge für das beste Handeln und die beste Lösung in einer gegebenen Situation.
Business Intelligence ist nur ein Blick in den Rückspiegel und entspricht dem Stand der frühen 2000er-Jahre. Business Analytics hingegen ist der Blick nach vorne durch die Frontscheibe, verbunden mit dem Navi, das die beste Route zum Ziel ausrechnet und nötigenfalls unterwegs immer wieder anpasst.

Frage: In Ihrem Buch schreiben Sie, dass es auf die IT- bzw. Analytics-Architektur ankommt, wenn man Business Analytics im Unternehmen implementieren will. Welche Architektur eignet sich dafür?
Böckmann: In der Tat haben viele Unternehmen noch nicht verstanden, dass sich nicht jede Analytics-Architektur für Business Analytics eignet. Die „klassische“, statische BI-Architektur ist auf Effizienz und Zuverlässigkeit ausgerichtet, wird aber dynamischen Anforderungen nicht gerecht. Sobald neue Datenquellen hinzukommen, sich die Geschäftsziele oder Entscheidungskriterien verändern, geraten die statischen Architekturen an ihre Grenzen.
Das weit verbreitete Data Warehouse allein eignet sich nicht, um große Datenmengen – auch externe und semi- oder unstrukturierte Daten – mit Hilfe von Business Analytics auszuwerten. Unternehmen, die es dennoch versuchen, etablieren oft, ohne es zu wollen, eine „Schatten-IT“. Oder es entwickelt sich im Laufe der Zeit ein „Flickenteppich“ aus verschiedenen Daten-Insel-Lösungen, die einen hohen manuellen Betriebsaufwand erfordern.
Eine erste Stufe zur Flexibilierung wäre die Einführung einer bimodalen IT. Dabei kombiniert man den stabilen, auf Effizienz und Zuverlässigkeit ausgerichteten Betrieb existierender Systeme (Modus 1) mit agilen, innovationsgetriebenen Ansätzen zur Bewältigung neuer Herausforderungen und Chancen (Modus 2). Architektonisch wird in Ergänzung zum Data Warehouse oft ein ein Data Lake oder ein Data Lakehouse eingeführt. Eine geeignete Analytics-Architektur sollte den Entscheidungen im Kerngeschäft dienen und zur Geschäftsstrategie passen.

Frage: Welche Rolle spielt dabei die Agilität?
Böckmann: Agilität ist die Fähigkeit einer Organisation, sich selbst zu erneuern, sich wechselnden Rahmenbedingungen anzupassen, sich schnell zu verändern und in einem rapide wandelnden Umfeld erfolgreich zu agieren. Konkret meint dies zweierlei: zum einen flexible, modular aufgebaute Architekturen und Analytics-Infrastrukturen, die mit neuen Anforderungen mitwachsen und sich verändernde Bedürfnisse, wachsende Datenmengen usw. anpassen können. Zum anderen braucht es ein flexibles Vorgehen bei der Entwicklung geeigneter Software- bzw. Daten-Produkte, was ein entsprechendes Führungsverhalten erfordert.

Frage: Welche Vorteile haben Unternehmen, die auf Agile Analytics setzen?
Böckmann: Mehr und aktuellere Daten in Echtzeit zu analysieren und damit tragfähigere Entscheidungen zu treffen. Hinzu kommt, dass man Entwicklungen früher erkennt und so mehr Möglichkeiten hat, den Eintritt unerwünschter Ereignisse zu vermeiden bzw. rechtzeitig gegenzusteuern, bevor sie eintreten.
Eine hohe Bedeutung für mittelständische und große Unternehmen hat das Forecasting. Studien zufolge verbringen Führungskräfte im Controlling heute noch rund 40 Prozent ihrer Zeit mit manuellem Forecasting, ohne jedoch zu treffsicheren, d.h. soliden Werten zu kommen. Die Genauigkeit einzelner Planpositionen liegt oft um die 50 Prozent und ist nicht viel besser als ein „Blick in die Glaskugel“.
Mit Hilfe von Predictive Analytics lässt sich die Exaktheit auf 70 bis 90 Prozent erhöhen. Das automatisierte Forecasting kann man „auf Knopfdruck“ innerhalb von Minuten oder wenigen Stunden durchführen und regelmäßig, nicht nur einmal pro Jahr, aktualisieren. Unternehmen bestätigen, dass sie damit nicht nur viel Zeit einsparen, sondern sich auch die operative Steuerung deutlich verbessert.
In meinem Buch nenne ich weitere Beispiele für höhere Wettbewerbsfähigkeit, fundiertere Entscheidungen und spürbar erhöhte Leistungsfähigkeit, die Unternehmen dank Business Analytics erreicht haben.
Frage: Vielen Dank für das Interview.

Das Buch „Agile Analytics. Wie Unternehmen Daten für bessere Entscheidungen und Leistungen nutzen“ (Haufe Verlag 2023, ISBN 978-3-648-16435-8) ist im Buchhandel bestellbar (https://www.amazon.de/Agile-Analytics-Unternehmen-Entscheidungen-Leistungen/dp/364816435X/).

Dirk Böckmann ist Gründer und Geschäftsführer der Beat2Lead GmbH. Seit über 20 Jahren berät er Mittelständler und Global Player im Bereich des Performance Managements und der Nutzung fortgeschrittener Analytics-Technologien.

Die Beat2 Lead GmbH (Geschäftsführer: Dirk Böckmann) berät seit über 20 Jahren Mittelständler und Global Player im Bereich des Performance Managements und der Nutzung fortgeschrittener Analytics-Technologien.

Kontakt
Beat2Lead
Dirk Böckmann
Heinsbergstr. 7
40547 Düsseldorf
021155083247

Startseite

Fivetran erweitert Zusammenarbeit mit Google Cloud: Partner für Google Cloud Cortex Framework & Launch Partner Google Cloud Ready – BigQuery Programm

Gemeinsame Kunden erhalten jetzt Fivetran-Support für SAP

Fivetran erweitert Zusammenarbeit mit Google Cloud: Partner für Google Cloud Cortex Framework & Launch Partner Google Cloud Ready - BigQuery Programm

(Bildquelle: @Fivetran)

München, 7. April 2022 – Fivetran (https://fivetran.com/), führender Anbieter für moderne Datenintegration, gab heute den Support des Google Cloud Cortex Frameworks (https://cloud.google.com/solutions/cortex) bekannt und zählt zu den Launch Partnern des neuen Google Cloud Ready – BigQuery Programm (https://cloud.google.com/bigquery/docs/bigquery-ready-overview). Fivetran und Google Cloud arbeiten jetzt noch stärker zusammen: Täglich werden im Durchschnitt mehr als 8 TB an Daten für Kunden bewegt, die Google Cloud BigQuery (https://cloud.google.com/bigquery) als Data Warehouse nutzen.

Fivetran hat die Leistungsfähigkeit seiner Lösung bei der Verwaltung komplexer, großer Datenmengen bereits unter Beweis gestellt, die für die Nutzung des Google Cloud Cortex Frameworks und zur Steigerung des Geschäftserfolgs erforderlich sind. Als Launch Partner für das Google Cloud Ready – BigQuery Programm repliziert Fivetran Daten aus zentralen Anwendungen, Ereignisströmen, Dateispeichern und mehr in BigQuery, auf dessen Basis Kunden fundiertere Geschäftsentscheidungen treffen können.

„Unsere Partnerschaft mit Fivetran macht es Kunden sehr einfach, Daten in BigQuery zu übertragen“, sagt Manvinder Singh, Director, Partnerships bei Google Cloud. „Mit der Bezeichnung Google Cloud Ready – BigQuery und die Unterstützung des Google Cloud Cortex Frameworks bietet Fivetran weiterhin Innovation und Expertise, damit Kunden ihre datengetriebenen, digitalen Transformationen vorantreiben können.“

„Wir sind hocherfreut, Partner für Datenmanagement von Google Cloud zu sein und sind gespannt auf die vielen neuen Möglichkeiten, die die Aufnahme in die Google Cloud Ready – BigQuery-Initiative mit sich bringen wird“, sagt Logan Welley, Vice President of Alliances bei Fivetran. „Wir freuen uns auch darauf, unseren gemeinsamen Kunden den Zugang zu unserer neuen HVR-Technologie zu ermöglichen, mit der komplexe SAP-Implementierungen unterstützt und vereinfacht werden.“ Im September 2021 kündigte Fivetran die Übernahme von HVR an, dem führenden Anbieter einer Technologie zur Datenreplikation in Unternehmen.

Die HVR Enterprise Solution von Fivetran ermöglicht es Unternehmen, ihre Daten synchron zu halten: Änderungen werden asynchron in das Ziel repliziert – ohne direkte Auswirkungen auf ERP-Transaktionen. Für die Umsetzung nutzt HVR die logbasierte Change Data Capture (CDC), die weithin als die am wenigsten invasive Methode zur Verfolgung inkrementeller Datenbankänderungen ohne Datenverlust gilt. Google Cloud-Kunden, die SAP-Daten verschieben, können anschließend die zahlreichen vordefinierten Datenmodelle und Inhalte nutzen, die das Google Cloud Cortex Framework bietet.

Fivetran und Google Cloud investieren weiterhin im großen Umfang, um globale Unternehmen hinsichtlich der gestiegenen Anforderungen an Datenmanagement/- und -analyse zu unterstützen. Fivetran ist anerkannter Key Data Movement Partner für Google Cloud und bietet Anwendern Transformationspakete (https://www.fivetran.com/transformations) mit mehr als 180 Quellkonnektoren (https://www.fivetran.com/extract-load) an. Zusammen mit Google Cloud bietet Fivetran umfassende, anwendungsbezogene und branchenspezifische Lösungen für analytische und betriebliche Anforderungen.

Über Fivetran
Fivetran ist der weltweit führende Anbieter für moderne Datenintegration. Unsere Mission: den Zugriff auf Daten so einfach und zuverlässig zu machen wie Strom aus der Steckdose. Fivetran wurde für die Cloud entwickelt und ermöglicht es, Daten aus Hunderten von SaaS- und On-Premise-Datenquellen in Cloud-Destinationen zu zentralisieren und transformieren. Unternehmen weltweit – vom Global Player bis zum Start-up – nutzen Fivetran für moderne Analysen und mehr betriebliche Effizienz und können so datengestütztes Unternehmenswachstum vorantreiben. Fivetran hat seinen Hauptsitz in Oakland, Kalifornien, und verfügt über Niederlassungen auf der ganzen Welt. Der deutschsprachige Markt wird aus dem Büro in München betreut. Weitere Informationen finden Sie unter fivetran.com.

Firmenkontakt
Fivetran
Tobias Knieper (Senior Marketing Manager DACH)
Luise-Ullrich-Straße 20
80636 München
+49 89 417761-13
tobias.knieper@fivetran.com
https://fivetran.com

Pressekontakt
Lucy Turpin Communications
Birgit Fuchs-Laine / Noemi Kegler / Constanze Auch
Prinzregentenstraße 89
81675 München
+49 89 417761-13 / 18 / 42
fivetran@lucyturpin.com

Home

Ineffiziente Datenanalyse kostet Unternehmen Zeit und Geld

Laut einer Fivetran-Umfrage fällen 71 % der Unternehmen kritische Geschäftsentscheidungen auf Basis veralteter und fehlerhafter Daten

Ineffiziente Datenanalyse kostet Unternehmen Zeit und Geld

The State of Data Management Report

München, 17. November 2021 – Fivetran (https://fivetran.com/de-DE), führender Anbieter von automatisierter Datenintegration, hat gemeinsam mit Wakefield Research eine weltweite Umfrage zum aktuellen Stand im Datenmanagement durchgeführt. Den Ergebnissen zufolge investieren Unternehmen im Durchschnitt 44 % ihrer Zeit mit dem Aufbau und der Instandhaltung von Datenpipelines, die Data Lakes und Warehouses mit Datenbanken und Anwendungen verbinden. Dieser beträchtliche Arbeitsaufwand macht sich jedoch nicht bezahlt: 71 % der Befragten geben an, dass Endnutzer ihre Geschäftsentscheidungen auf Grundlage von veralteten oder fehlerhaften Daten treffen. Bei 66 % geschieht dies angeblich ohne Kenntnis der Geschäftsführung. Die Folge: 85 % der Unternehmen haben Fehlentscheidungen getroffen, die sie Geld gekostet haben.

Wie viel Geld verdeutlichen folgende Zahlen: Führungskräfte im Bereich Daten beschäftigen durchschnittlich 12 Data Engineers mit einem Jahreseinkommen von jeweils rund 98.400 USD. Wenn sie wie beschrieben 44 % ihrer Zeit damit verbringen, Pipelines zu pflegen und zu reparieren, summiert sich das auf über 500.000 USD im Jahr. Zusätzlich bleiben anspruchsvollere Aufgaben, die sich positiv auf den Geschäftserfolg auswirken, dabei auf der Strecke. „Die Studie verdeutlicht, wie sehr Führungskräfte im Bereich Daten zu kämpfen haben“, so George Fraser, CEO von Fivetran. „Es geht nicht nur darum, die Prozesse für den manuellen Aufbau und die Verwaltung von Pipelines zu optimieren: 80 % der Befragten müssen Datenpipelines nach der Bereitstellung komplett neu aufbauen – zum Beispiel aufgrund geänderter APIs. 39 % von ihnen geben sogar an, das sei häufig oder immer der Fall.“

Auf dem Weg zur Wertschöpfung aus Daten passieren nicht nur sehr leicht Fehler – es dauert zudem unverhältnismäßig lang: Nur 13 % der Unternehmen gelingt es nach eigener Angabe, innerhalb von Minuten oder Stunden einen Mehrwert aus neu gesammelten Daten abzuleiten. Stattdessen benötigen 76 % bis zu einer Woche, um die Daten für umsatzrelevante Entscheidungen aufzubereiten. 74 % davon sind Unternehmen mit einem Umsatz von über 500 Millionen USD.

Weitere Ergebnisse der Studie:

– 69 % der Führungskräfte sind überzeugt: Die Geschäftsergebnisse in ihrem Unternehmen würden sich etwas oder erheblich verbessern, wenn Datenteams mehr dazu beitragen könnten, anstatt ihre Ressourcen in Aufbau und Wartung von Pipelines zu investieren.

– Fast alle Teilnehmer (97 %) erwarten bessere Geschäftsergebnisse, wenn ihr Datenteam mehr Zeit für die Analysen aufwenden könnte, die den datengesteuerten Geschäftsentscheidungen zugrunde liegen.

– 90 % der Befragten in den USA würden mehr Fachkräfte einstellen, wenn sie damit ihre Kapazitäten im Datenmanagement effektiv ausbauen könnten. Außerhalb der USA waren es 74 %.

Weitere Erkenntnisse und Bilder aus dem State of Data Management Report finden Sie im Fivetran-Blog (https://fivetran.com/blog/data-management-survey).

Methodik der Umfrage
Die Umfrage wurde zwischen dem 27. September und dem 12. Oktober 2021 von Wakefield Research (www.wakefieldresearch.com) im Auftrag von Fivetran durchgeführt. Befragt wurden 300 Führungskräfte im Bereich Datenanalyse in den USA, Großbritannien, Deutschland und Frankreich. Die Unternehmen aus unterschiedlichen Branchen verfügen über einen Jahresumsatz von mehr als 100 Millionen US-Dollar und mindestens 100 Mitarbeiter, die mit der Datenstrategie/Datennutzung in ihrem Unternehmen vertraut sind.

Über Fivetran
Fivetran ist der führende Anbieter für automatisierte Datenintegration. Mithilfe seiner vollautomatisierten, vollständig verwalteten Datenintegrationslösung gewinnen IT-Professionals Zeit, die bislang in Aufbau und Instandhaltung von Data Pipelines investiert werden musste. Durch die Zentralisierung und den Zugriff auf aktuelle und vollständige Daten können Unternehmen spielend einfach datengetriebene Nutzungsszenarien realisieren.

Im Oktober 2021 hat Fivetran HVR übernommen. Gemeinsam automatisieren sie komplexe Herausforderungen bei der Datenintegration für Unternehmen vom Global Player bis zum Start-up, indem sie die besten und modernsten SaaS-, On-Premise- und Virtual Private Cloud-Lösungen der Branche kombinieren. Fivetran wurde 2012 gegründet und hat seinen Hauptsitz in Oakland mit weiteren Standorten in Denver, Sydney, Bangalore, Dublin, London und München. Weitere Informationen unter Fivetran.com

Firmenkontakt
Fivetran
Tobias Knieper
Luise-Ullrich-Straße 20
80636 München
+49 89 417761-13
tobias.knieper@fivetran.com
https://fivetran.com/de-de/

Pressekontakt
Lucy Turpin Communications
Birgit Fuchs-Laine
Prinzregentenstraße 89
81675 München
+49 89 417761-13
fivetran@lucyturpin.com

Home

Fivetran ausgezeichnet im Gartner® Magic Quadrant™ für Data Integration Tools 2021

Zum zweiten Mal in Folge: Fivetran ist der am schnellsten wachsende Anbieter für native Cloud-Datenintegrationen im Data Integration Magic Quadrant

Fivetran ausgezeichnet im Gartner® Magic Quadrant™ für Data Integration Tools 2021

(Bildquelle: @Fivetran)

München, 31. August 2021 – Fivetran (https://fivetran.com/de-de/), der führende Anbieter für automatisierte Datenintegration, gab heute seine Auszeichnung im Magic Quadrant für Data Integration Tools bekannt. Die Bewertung basiert auf spezifischen Kriterien wie Kundenreferenzen, Produkteigenschaften, allgemeine Umsetzung sowie Kundenerfahrung.

Im Magic-Quadrant-Bericht stellt Gartner fest: „Nischenanbieter sind für ihre maßgeschneiderten Lösungen bekannt, die einzelne Probleme bei der Datenintegration gezielt bewältigen. Die Nischenanbieter in diesem Markt haben Dutzende von Tool- und Lösungsanbieter übertroffen, die für den Magic Quadrant „Data Integration Tools“ evaluiert wurden.“

„Die Tatsache, dass wir zum zweiten Mal in Folge in den Magic Quadrant aufgenommen wurden, ist eine Bestätigung für unsere ansteigende, globale Sichtbarkeit im Markt und unseren stark anwachsenden Kundenstamm“, sagt George Fraser, CEO von Fivetran. „Wir sind stolz darauf, von den Branchenexperten bei Gartner ausgezeichnet zu werden. Diese Anerkennung bestätigt unsere Position als führender Anbieter von nativen Cloud-Datenintegrationen zur Automatisierung von Data Pipelines. Wir stellen einen schnellen und verlässlichen Datenzugriff für wichtige Unternehmensentscheidungen sicher.“

Innerhalb des letzten Jahres verdoppelte Fivetran die Anzahl seiner Kunden und seinen Umsatz. Das Unternehmen befindet sich auf in einem deutlichen Wachstumskurs. Gleichzeitig verdoppelte sich die Anzahl der Konnektoren, die Fivetran für die Datensynchronisation seiner Kunden unterhält, so dass die Gesamtzahl der monatlich von Fivetran verwalteten Konnektoren auf über 50.000 gestiegen ist. Fivetran erzielte auch bei Gartner Peer Insights (https://www.gartner.com/reviews/market/data-integration-tools/vendor/fivetran/product/fivetran) konstant positive Kundenbewertungen, darunter mehr als 30 Fünf-Sterne-Ratings im vergangenen Jahr. Dies entspricht einem Anstieg von 63 Prozent gegenüber dem Vorjahr.

Die Aufnahme in den Magic Quadrant basiert auch auf einem anderen aktuellen Gartner-Bericht, der Fivetran einbezieht. Im Bericht „Market Share Analysis: Data Integration Software, Worldwide, 2020“ (https://www.gartner.com/en/documents/4002874-market-share-analysis-data-integration-software-worldwid) von Gartner wird Fivetran in Bezug auf Datenintegration als „Vendor of Choice“ (for Cloud Sources and Destinations) genannt.

Große Unternehmen aus den Bereichen Software, Finanzdienstleistungen, Versicherungen und Einzelhandel vertrauen bei wichtigen Unternehmensentscheidungen auf Fivetran. Das Unternehmen betreut Tausende von Kunden und Hunderte von führenden Marken auf der ganzen Welt. Dazu gehören ASICS, Autodesk, Conagra Brands, Conde Nast, Databricks, DocuSign und Square. Als Cloud Data Integration Service verwaltet Fivetran nicht nur die Datenpipelines seiner Kunden, sondern steht auch als Partner bei deren Transformationen zur Seite und bietet dabei jeden Monat sofortigen Zugriff auf mehr als zwei Billionen Datenzeilen.

Fivetran automatisiert die Bereitstellung von Daten an führende Cloud Data Warehouses, indem es alle Daten eines Unternehmens zentralisiert, selbst wenn sich die Quellsysteme ändern, einschließlich Schema- und API-Änderungen. Fivetran verwaltet mehr als eine Million Schema-Änderungen pro Monat mit einer garantierten Verfügbarkeit von 99,9 Prozent. Dadurch müssen Unternehmen keine wertvollen Ressourcen für den Aufbau und die Pflege unzuverlässiger und zeitaufwändiger Verarbeitungsprozesse einplanen. Vielmehr stehen ihnen nun Ressourcen zur Verfügung, mit denen sie ihre Daten besser nutzen und datengestützte Entscheidungen beschleunigen können.

Ein kostenloses Exemplar des Gartner Magic Quadrant 2021 for Data Integration Tools (https://get.fivetran.com/Gartner-Magic-Quadrant-2021.html) ist ab sofort verfügbar.

Mehr dazu finden Sie auch im Fivetran-Blog (http://fivetran.com/blog/data-integration-gartner-mq).

Gartner Haftungsausschluss
Gartner unterstützt keine Anbieter, Produkte oder Dienstleistungen, die in den Forschungspublikationen dargestellt werden. Zudem rät Gartner Technologieanwendern nicht, nur die Anbieter mit den höchsten Bewertungen oder anderen Bezeichnungen auszuwählen. Die Forschungspublikationen geben die Meinung der Gartner-Forschungsorganisation wieder und sollten nicht als Tatsachenbehauptungen ausgelegt werden. Gartner lehnt jede ausdrückliche oder indirekte Gewährleistung in Bezug auf diese Studie ab, einschließlich jeglicher Gewährleistung der Marktgängigkeit oder Eignung für einen bestimmten Zweck.

Gartner und Magic Quadrant sind eingetragene Marken von Gartner, Inc. und/oder seinen US-amerikanischen oder internationalen Tochtergesellschaften und werden hier mit Genehmigung verwendet. Alle Rechte bleiben vorbehalten.

Fivetran ist der führende Anbieter für automatisierte Datenintegration. Das Unternehmen bietet eine vollautomatisierte, vollständig verwaltete Datenintegrationslösung an, die in wenigen Minuten eingerichtet ist. Durch vorkonfigurierte Konnektoren werden Daten automatisiert in normalisierten, analysebereiten Schemata an das Datawarehouse geliefert.
Mit dem Einsatz von Fivetran wird Zeit gewonnen, die IT Professionals traditionellerweise mit der Einrichtung und Pflege von Data Pipelines verbringen. Durch die Zentralisierung und den Zugriff auf aktuelle und vollständige Daten können Unternehmen spielend einfach datengetriebene Nutzungsszenarien realisieren.
Fivetran wurde 2012 gegründet und hat seinen Hauptsitz in Oakland mit weiteren Standorten in Denver, Sydney, Bangalore, Dublin, London und München. Weitere Informationen unter Fivetran.com.

Firmenkontakt
Fivetran
Tobias Knieper
Luise-Ullrich-Straße 20
80636 München
+49 89 417761-13
tobias.knieper@fivetran.com
https://fivetran.com/de-de/

Pressekontakt
Lucy Turpin Communications
Birgit Fuchs-Laine
Prinzregentenstraße 89
81675 München
+49 89 417761-13
fivetran@lucyturpin.com

Home