In einem datengetriebenen Projekt ist die Analyse der Schlüssel zur Gewinnung wertvoller Erkenntnisse. Die Analyse als aktive Arbeit mit Daten stellt sicher, dass Ihre Daten nicht nur korrekt gesammelt, sondern auch die Schritte 1-3 unseres Prozesses immer wieder aktiv hinterfragt und gegebenenfalls an neue Umstände angepasst werden. In diesem Beitrag gehen wir auf die verschiedenen Ziele der Analyse ein, zeigen einige spannende Einsatzbereiche und stellen unsere Best Practices vor, welche wir aus unseren diversen Projekten gewinnen konnten.
Doch wie wird eigentlich mit Daten gearbeitet?
Um diese Frage beantworten zu können, möchten wir vorher die unterschiedlichen Kategorien oder Ebenen von Daten erklären.
- Rohdaten (erste Ebene) sind erhobene Daten, welche in keiner Weise verändert wurden. Das Schema der Rohdaten wird häufig von den Tools vorgegeben, welche die Daten erheben.
- Verarbeitete Daten (zweite Ebene) sind Daten, welche in Struktur, Schema, Inhalt, Aussehen oder Typ geändert wurden. Dies kann durch das datensammelnde Tool selbst, durch einen ETL-Prozess oder durch manuelle Änderung geschehen.
Aggregierte und verknüpfte Daten (dritte Ebene) sind (meist) verarbeitete Daten, welche zum Zwecke der Auswertung zusammengefasst werden. Häufig stammen diese Daten aus mehreren Datenbanken und Tools. Nicht immer ist es einwandfrei möglich, auf die erste oder zweite Ebene zurückzugehen, um Daten nachzuvollziehen.
Wer arbeitet mit den Daten?
Häufig übergangen und dennoch ein Kerngedanke jeder Analyse: Wer arbeitet eigentlich mit den Daten und analysiert diese? Ist es ein Mensch? Eine Maschine? Vielleicht sogar eine Künstliche Intelligenz? Diese Fragestellung verändert die Art der Analyse auf grundlegende Art und Weise. Für Menschen ist eine Rohdatenanalyse kaum möglich, eine Maschine (insbesondere eine Künstliche Intelligenz) wiederum kann mit Hilfe von DataScience wichtige Erkenntnisse gewinnen. Gleichzeitig können Menschen Daten viel besser im Kontext betrachten und durch Meta-Informationen, Branchenwissen und emotionale Intelligenz ganz andere Fragen an die Daten stellen.
Die Analyse von Daten hängt nicht nur von den Daten selbst ab – vielmehr muss die Analysemethode auf den Einsatzzweck und insbesondere auf die Art der Durchführung (Mensch oder Maschine) angepasst sein.
Schnelle Insights mit Ad-hoc Analysen (Mensch)
Ad-hoc Analysen sind flexibel und reaktionsschnell, was sie ideal für die kurzfristige Entscheidungsfindung macht. Sie werden meist in den voreingestellten Berichten der Analysetools durchgeführt und sind damit sehr schnell durchführbar. Wir empfehlen die Nutzung von Ad-hoc Analysen, um:
- Sofortige Einblicke zu gewinnen, die zur schnellen Entscheidungsfindung beitragen.
- Unvorhergesehene Probleme schnell zu identifizieren und Lösungen zu entwickeln.
- Explorative Datenanalysen durchzuführen, um neue Trends und Muster zu entdecken.
Wiederkehrende Analysen durch Reportings (Mensch und Maschine)
Effektives Reporting ist entscheidend, um die Leistung zu überwachen und datenbasierte Entscheidungen zu treffen. Ein Reporting wird hierbei meist einmal selbst angelegt, um dann wiederkehrend als Vorlage genutzt zu werden. Ebenso kann es hilfreich sein, in einem Reporting Schwellwerte zu definieren, deren Abweichung sowohl für Mensch als auch Maschine eine klare Notwendigkeit des Handelns bedeuten. Als Einsatzzweck für Reportings bieten sich an:
- Automatisierte Berichte, die regelmäßig aktualisiert werden und die wichtigsten Metriken und KPIs hervorheben.
- Alert-Reportings, die bei Trackingausfall oder Anomalien frühzeitig Warnung geben
- Data Quality Reports, die Daten auf die typischen Fehlerquellen untersucht und Fehler aufzeigt.
Tiefgreifende Einblicke erhalten durch Data Science (Maschine)
Data Science untersucht die mit dem Datenmodell gesammelten Rohdaten und ist losgelöst on der Arbeit mit dem eingesetzten Analytics-Tool. Sie fängt da an, wo die Arbeit im User Interface ein Hindernis darstellt, weil es zu sperrig ist oder Features fehlen. Hier einige Beispiele, in denen der Einsatz von Data Science Methoden sinnvoll ist:
- Predictive Analytics, um zukünftige Trends und Verhaltensmuster zu prognostizieren.
- Machine Learning Modelle, die präzise Vorhersagen und Automatisierungen ermöglichen.
- Troubleshooting, um Fehlerquellen unabhängig oder ohne Vorverarbeitung durch das User Interface zu untersuchen.
Analytics-Tools als Datengrundlage für Online-Marketing-Algorithmen
Neben den reinen Analysen zum Nutzer- und Kaufverhalten werden Webanalytics-Tools wie Google Analytics 4 auch häufig genutzt, um die Performance des Online-Marketings zu steigern. Dies geschieht insbesondere durch den immer besseren Austausch von Daten zwischen den Tools durch standardisierte Schnittstellen. Somit können in dem Online-Marketing-Tool die (Realtime-)Bidding-Algorithmen durch eine größere Datenbasis besser trainiert werden, was zu einer Steigerung der Marketingperformance führt.
Anwendungsbeispiel Segmentierung
Wo ist meine Zielgruppe unterwegs? Wie verhält sie sich? Und mit welchen mitteln ist sie zu erreichen?
Genau für solche Fragen kommt die Segmentierung in Frage. Sie ist der Prozess, Nutzergruppen zu identifizieren und zur gezielten Ansprache zu segmentieren anzusprechen, um die Marketingeffektivität zu erhöhen. Durch den Austausch dieser Segmente mit Online-Marketing Tools und Platformen wie Google Ads, Meta oder TikTok können diese Nutzer gezielt mit Werbung kontaktiert werden. Je nach Grad der Verzahnung der Analytics- und MarTech-Software kann die Nutzersegmentierung unterschiedliche Ziele haben und erreichen:
- Nutzersegmentierung basierend auf demografischen Daten, Verhaltensmustern und Interessen für die Neukundenansprache.
- Personalisierte Marketingkampagnen zur Steigerung der Conversion Rate, die anhand des Nutzerverhaltens auf die spezifischen Interessen der Nutzer zugeschnitten sind.
- Verbesserung der Kundenbindung durch gezielte und relevante Ansprache nach dem Kaufabschluss.
Anwendungsbeispiel Attributionsmodellierung
Wo ist mein ROAS am Höchsten? Wie wirken welche Marketingkanäle in meiner Customer Journey? Mit wie vielen Conversions mehr kann ich bei Einsatz von X Euro im Kanal Y rechnen?
Genau diese Fragen versucht die Attributionsmodellierung zu beantworten. Sie hilft dabei, den Einfluss verschiedener Marketingkanäle auf Conversions zu verstehen und die Marketingstrategie zu optimieren. Hierfür ist es wichtig, eine gemeinsame Datenbasis für alle Marketingkanäle zu erstellen, denn: Jedes Marketingtool wird versuchen, sich möglichst viele Conversions zu zuschreiben. Ein Analytics Tool schafft hier Abhilfe und dient als Single-Source-of-Truth. Je nach eingestelltem Attributionsmodell lassen sich dann unterschiedliche Erkenntnisse auf die Wichtigkeit der einzelnen Marketingkanäle im Marketing-Mix gewinnen. Dies hilft bei der Festsetzung des Marketingbudgets und optimiert die Marketingstrategie.
Unsere „Best Practices“ in der Analyse
- Datensicherheit und Datenschutz: Stellen Sie sicher, dass alle Daten unter Berücksichtigung der geltenden Datenschutzgesetze und -richtlinien verarbeitet werden.
- Datenqualität: Implementieren Sie Verfahren zur kontinuierlichen Überwachung und Sicherstellung der Datenqualität, um genaue und verlässliche Analysen zu ermöglichen.
- Kontinuierliche Optimierung: Nutzen Sie iterative Ansätze, um eingesetzte Analysemethoden und -prozesse stetig zu verbessern.
- Kollaboration: Nutzen Sie kollaborative Analysetools und arbeiten Sie übergreifend, um Lösungen für die spezifische Anforderungen und Geschäftsziele anderer Stakeholder zu finden.
- Transparenz: Erhalten Sie durch Rohdatenanalysen transparente Einblicke in das Datenmodell, um Trackingfehler und Datenanomalien zu erkennen.
Unser Fazit durch die Praxis
Die Analyse ist ein entscheidender Schritt in jedem Datenprojekt und ist zwingend als immer wiederkehrender Prozess zu betrachten. Dabei hat jede Technologie, jedes Datenmodell und jede Datenerhebung (Tracking(LINK)) seine Besonderheiten, die es zu erlernen und zu beachten gilt. Bei collectivum.io setzen wir uns tagtäglich mit den gängigen Technologien auseinander und kennen deren Tücken, Fallstricke und Grenzen. Unsere Analyse-Dienstleistungen und unsere Expertise ermöglichen es uns, schnell, präzise und umfassend in WebAnalytics-Setups einzuarbeiten und bei der Gewinnung von aussagekräftige Erkenntnisse mitzuwirken und zu unterstützen. Gerne helfen wir auch beim internen Aufbau von Know-how und teilen unsere Erfahrung, um Ihre Anforderungen aus dem Requirements Engineering (LINK) umzusetzen und das volle Potenzial Ihrer Daten auszuschöpfen .
[…] sich auf die regelmäßige und systematische Auswertung von Daten und findet im Prozessschritt der Analyse statt. Es handelt sich dabei um strukturierte Berichte, die wiederkehrend genutzt werden, um […]