WE TRANSFER DATA TO KNOWLEDGE
WITH EXCELLENCE BY DESIGN

Big Data

  • Leistungsfähige Business Intelligence Lösungen im klassischen Sinn sind bereits heute auf die Verarbeitung grosser Datenmengen von bis zu mehreren Milliarden Datensätzen ausgelegt. Erst bei darüber hinausgehenden Datenvolumina oder der Auswertung nicht-numerischer Daten gilt der neue Begriff Big Data als angemessen.
  • Zur zeitgerechten Bewältigung der zunehmenden Datenflut (Big Data), welche insbesondere durch die Integration von grossen Mengen nicht-numerischer Daten (Social Network und Media) hervorgerufen wird, benötigt nicht nur massiv mehr Speicherplatz, ebenso ist die Einführung neuer Datenbank-Technologien für nicht-numerische Daten (Hadoop) erforderlich. Darüber hinaus drängt sich gleichermassen eine auf serverübergreifende parallele Verarbeitung ausgerichtete Hardware- und Datenbank-Architektur an, welche vielfach auch als Parallel Data Warehouse Architektur angepriesen wird.
  • Bevor man sich Gedanken zu einer optimalen Verarbeitung der massiven Datenmengen macht, empfiehlt sich infolge der nicht zu unterschätzenden Mehrkosten (Aufbau und Betrieb), die dadurch erhofften Vorteile einer kritischen Prüfung hinsichtlich Kosten/Nutzen, Zeitbedarf und einer realistischen Machbarkeit, resp. der Realisierungs- und Erfolgsrisiken zu unterziehen.
  • Aktuellste Vertreter: Microsoft Parallel Data Warehouse, EMC Greenplum