Checkliste: So meistern Unternehmen den Einstieg in Big Data
Wenn ein Unternehmen das Thema Big Data erfolgreich umsetzen will, sollte es zunächst Anwendungsszenarien entwickeln, anschliessend nötige Datenquellen erschliessen, um schliesslich mit einem Mix an Tools die Daten auswerten.
Big Data und Data Mining werden immer wichtiger. Angesichts eines harten Marktwettbewerbs überleben nur Unternehmen, die schnell auf das aktuelle Marktgeschehen reagieren. Besonders effizient agieren dabei Unternehmen, die Big Data als Informationsquelle nutzen.
Big Data umfasst Daten aus unterschiedlichen Quellen, die in verschiedenen Formaten vorliegen sowie permanent aktualisiert werden. Mit konventionellen Mitteln lassen sie sich allerdings kaum zu nutzbaren Ergebnissen verarbeiten: so scheitern relationale Datenbanken am Datenvolumen und ETL-Prozesse sind zu langsam und haben Schwierigkeiten mit den vielfältigen Datenformaten.
Die Komplexität der Daten lässt sich daher nur mit dem Einsatz von speziellen Big-Data-Technologien effizient bewältigen. Der Einstieg in die Big-Data-Verarbeitung beginnt immer mit Szenarien, wie Daten helfen können, Geschäftsprozesse zu verbessern oder Geschäftsmodelle zu verändern. Sind die Projekte identifiziert, ist zu klären, ob alle nötigen Informationen vorhanden sind. Ist das nicht der Fall, gilt es, neue Datenquellen anzuzapfen – etwa Newsletter, Landing-Pages, Social Media, Google Analytics oder Online-Portale und Datenbanken.
Jetzt lassen sich die Daten mit Tools aufbereiten, analysieren und grafisch darstellen. Ein Werkzeug, das alle Funktionen umfasst, gibt es aber nicht. Erst die Verknüpfung verschiedener Lösungen erlaubt die Abstimmung auf die individuellen Bedürfnisse.
Fünf Tipps für Big-Data-Projekte
- Abteilungsleiter und Spezialisten definieren, welche Ergebnisse erreicht werden sollen.
- Daten-Experimente bringen interessante Korrelationen zum Vorschein, wodurch sich neue Erkenntnisse ergeben.
- Die Daten lassen sich mit Metadaten präparieren, ohne die Datenquelle anzupassen.
- Die Nachvollziehbarkeit von Datenmodellen sollte jederzeit gewährleistet sein.
- Verfügbare Big-Data-Technologien verwenden, anstatt eigenen Lösungen zu entwickeln