In den letzten Jahren hat sich im Bereich Big Data sehr viel getan. Big Data-Technologien ermöglichen zielgerichtete und strukturierte Analysen. Die dabei gewonnenen Erkenntnisse können bereits heute manuell oder automatisiert in Aktionen umgesetzt werden.
Big Data 2.0 fokussiert sich auf die drei Kernthemen Geschwindigkeit, Datenqualität und Branchenlösungen.
Geschwindigkeit:
Die exponentiell steigende Menge an Daten und deren Analyse gewinnen massiv an Bedeutung. Nachdem herkömmliche Datenbanken an deren Grenzen stossen, kommen mehr und mehr sogenannter In-Memory-Lösungen auf den Markt, die Daten in Echtzeit („real-time“) verarbeiten.
Datenqualität:
In dem gleichen Tempo wie das Datenwachstum zunimmt, gewinnt die Datenqualität an Bedeutung. Auf Basis der zur Verfügung stehenden Daten und unter Nutzung von Big Data-Technologien werden bereits heute ohne Zutun des Menschen Entscheidungen getroffen (z.B. automatisierter Handel, wo innerhalb von Millisekunden Geschäfte platziert werden). „Bad Data“ kann in diesem Fall zu falschen Entscheidungen führen und negative finanzielle Auswirkungen nach sich ziehen. Datenqualität wird in Zukunft integraler Bestandteil von Service Level Agreements digitaler Unternehmen sein.
Branchenlösungen:
Es zeichnet sich ein Trend ab, dass vermehrt Big Data-Branchenlösungen auf den Markt kommen werden, die Unternehmen helfen die für ihre Branche relevanten Daten aus allen verfügbaren Quellen auszulesen, zu analysieren und darauf basierend Entscheidungen zu treffen.
Mehr Informationen zu diesem Thema liefern VentureBeat und Bloomberg TV.