Dabei gestalten sich Big-Data-Analysen insgesamt als sehr schwierig. Die Datenmengen sind immens und die Daten an sich äußerst divers, weil sie in allen nur denkbaren Formaten vorliegen. Ob also bei der Größe der Datensätze, beim Umfang oder bei der Komplexität: Big Data Analytics erlebt eine geradezu explosionsartige Entwicklung. Und das stellt Unternehmen, die ohnehin mit ungebremster Cluster-Vermehrung, der Flut an neuen Applikationen und dem immer höheren Zwang zu immer schnelleren Erkenntnissen zu kämpfen haben, vor zusätzliche Probleme. Hinzu kommt, dass die technologischen Entwicklungen in der Big-Data-Welt alles andere als stagnieren. Technologien wie Spark, Hadoop oder Graphdatenbanken sind inzwischen in vielen Industrien allgegenwärtig. Und auch innovative Ansätze wie etwa Deep Learning / Machine Learning sind auf dem Vormarsch.
Vor diesem Hintergrund braucht es Lösungen, die Datenberge schnell verständlich machen, und die in einer skalierbaren Umgebung erfolgreich angewendet werden können. Außerdem ist eine entsprechend große Rechenleistung nötig, die konventionelle Computing-Architekturen in der Regel nicht liefern können.