Big Data

Analyse in Echtzeit

12. September 2016, 12:34 Uhr | Dominik Ulmer
Diesen Artikel anhören

Fortsetzung des Artikels von Teil 1

Grundsätzliche Probleme

Dabei gestalten sich Big-Data-Analysen insgesamt als sehr schwierig. Die Datenmengen sind immens und die Daten an sich äußerst divers, weil sie in allen nur denkbaren Formaten vorliegen. Ob also bei der Größe der Datensätze, beim Umfang oder bei der Komplexität: Big Data Analytics erlebt eine geradezu explosionsartige Entwicklung. Und das stellt Unternehmen, die ohnehin mit ungebremster Cluster-Vermehrung, der Flut an neuen Applikationen und dem immer höheren Zwang zu immer schnelleren Erkenntnissen zu kämpfen haben, vor zusätzliche Probleme. Hinzu kommt, dass die technologischen Entwicklungen in der Big-Data-Welt alles andere als ­stagnieren. Technologien wie Spark, Hadoop oder Graphdatenbanken sind inzwischen in vielen Industrien allgegenwärtig. Und auch innovative Ansätze wie etwa Deep Learning / Machine Learning sind auf dem Vormarsch.

Vor diesem Hintergrund braucht es Lösungen, die Datenberge schnell verständlich machen, und die in einer skalierbaren Umgebung erfolgreich angewendet werden können. Außerdem ist eine entsprechend große Rechenleistung nötig, die konventionelle Computing-Architekturen in der Regel nicht liefern können.

passend zum Thema


  1. Analyse in Echtzeit
  2. Grundsätzliche Probleme
  3. Fusion von Soft- und ­Hardware
  4. Der Aries-Verbindungs-Chip
  5. Graph-Analysen in Datenbank
  6. Anwendungsszenarien der Big-Data-Analyse

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Cray Inc.

Weitere Artikel zu IoT / IIoT / Industrie 4.0