Data Fabric: Was macht Datensilos fit für die Cloud?
Quelle: © iStock.com/bronswerk Posted on von Big Data | Cloud Computing

Data Fabric: Was macht Datensilos fit für die Cloud?

Daten sind der Rohstoff des Cloud Computing, doch allzu oft in monolithischen Silos vergraben. Der neue Ansatz des „Data Fabric“ will diese Datenspeicher aufbrechen, damit die Informationen dort zur Verfügung stehen, wo sie innerhalb von Public und Private Clouds gebraucht werden.

Nahezu die Hälfte der deutschen Unternehmen (46 Prozent) fokussiert die Einführung einer unternehmensweiten Datenstrategie. Dies vermeldet die Studie „Datenhoheit als Garant für digitale Wertschöpfung“ von Crisp Research. Gründe dafür sind nicht nur die Digitalisierung der Kundenbeziehungen, die Globalisierung und digitale Geschäftsmodelle, die das Datenwachstum in den Unternehmen kräftig anheizen. Auch die sogenannte Schatten-IT und „Dark Data“ fordern Unternehmen heraus. Von letzterem spricht man, wenn etwa Fachbereiche auf Eigeninitiative und inoffiziell Anwendungen nutzen und dadurch Daten produzieren, von denen das Unternehmen zunächst keine Kenntnis hat.

Daten in alten, abgeschotteten Silos

Nicht zuletzt lagern Unmengen von Daten in abgeschotteten Silos, die zum Teil schon seit Jahrzehnten immer weiter aufgefüllt werden. Das sind beispielsweise heute immer noch betriebene Großrechner-Anwendungen mit ihren umfangreichen Großlagern unternehmenskritischer Daten. Nun, da Unternehmen diese Daten für andere Anwendungen, etwa im Bereich künstlicher Intelligenz (KI), nutzen möchten, müssen sie die zahlreichen Zugangs- und Formatbarrieren dieser Silos überwinden.

„It’s the data, stupid!“

Vor allem mit dem Aufstieg des Cloud Computing stellt sich die Frage der Datensilos immer dringlicher. Darauf weist Forbes-Analyst John Webster hin. Ihm zufolge arbeiten IT-Verantwortliche heute daran, die Daten ihrer Unternehmen zu erfassen und sie mehreren Public Clouds wie Amazon AWS, Microsoft Azure oder Google Cloud Platform (GCP) zur Verfügung zu stellen. „Die Lösung der Cloud-Welt für diese Herausforderung heißt zunehmend Data Fabric“, so Webster. „Data Fabric berücksichtigt, dass Daten das A und O des Cloud Computing darstellen. Wer das verteilte Multi Cloud Computing nur aus Sicht der Infrastruktur betrachtet, verfehlt den wichtigsten Aspekt jeder Computer-Technologie: die Daten. Sie sind ein Grundbestandteil und müssen mit den Architekturen des Multi Cloud Computing verwoben sein.“ Data Fabric integriere deshalb die Daten eines verteilten und cloudbasierten Computings.

Hyperkonvergente Daten als Ziel

Zu den grundlegenden Data-Fabric-Maßnahmen gehört zum Beispiel, einheitliche Datenformate und einheitliche Datenübertragungen zu schaffen. Deshalb sind zentrale Datenmanagement-Plattformen unerlässlich, die diese Kriterien erfüllen. Ein Beitrag des IT-Portals „IT Daily“ skizziert, was dies zum Beispiel für das Internet der Dinge bedeutet: „Die Datenübertragung von einer hyperkonvergenten Infrastruktur (HCI) in einen Cloud-Speicher gehört unter anderem zu den Standardaufgaben bei einer IoT-Anwendung. Unternehmen setzen hierbei das sogenannte Edge Computing um, wofür sie im Maschinenpark eine HCI-Lösung als Micro Data Center installieren. Die Box analysiert Daten bereits am Entstehungsort und leitet nur relevante Informationen an das zentrale Rechenzentrum weiter. Hier ist nur selten IT-Personal vor Ort. Für solche Anwendungsfälle brauchen Unternehmen ein System, das sowohl Rechenleistung als auch Speicher bietet und sich mit wenig Aufwand in Betrieb nehmen und managen lässt.“

Wer sind die Anbieter?

Es sind – nicht überraschend – vor allem Anbieter von Datenspeichern, die den Markt von Data-Fabric-Lösungen dominieren. So hat laut Forbes-Analyst John Webster NetApp sein Data-Fabric-Konzept bereits vor vier Jahren vorgestellt und seitdem immer weiter verfeinert. In der jüngeren Vergangenheit seien Anbieter von Cloud Storage Services wie zum Beispiel Elastifile, Nasuni und das kürzlich von Microsoft übernommene Avere Systems hinzugekommen. Vonseiten der Big-Data-Welt wiederum biete zum Beispiel MapR eine Plattform an, mit der sich Daten und andere Objekte weltweit und über zahlreiche Edge-, Inhouse- und Cloud-Umgebungen managen lassen.

Der Markt ist in Bewegung und auf jeden Fall attraktiv. So umfasste der weltweite Data-Fabric-Markt im Jahr 2016 laut Data Bridge Market Research rund 652 Millionen US-Dollar und soll bis 2024 jährlich um durchschnittlich 27,8 Prozent wachsen.

zurück zur Startseite

Kommentar

Wenn Sie die E-Mail-Adresse eingeben, die Sie bei Twitter oder Gravatar verwenden, erscheint Ihr Bild neben dem Kommentar.

mit * gekennzeichnete Felder sind Pflichtfelder. Sie erhalten zur Freischaltung ihres Kommentars eine E-Mail. Ihre E-Mail-Adresse wird nicht veröffentlicht.