Google Consent Mode V2 und der Datenschutz
Google Consent Mode V2 und der Datenschutz
Lesedauer: 10 Minuten
Einführung in den Consent Mode V2
In der Ära der digitalen Transformation sehen sich Unternehmen mit dem komplexen Spannungsfeld zwischen dem Schutz von Nutzerdaten und der Notwendigkeit, datengesteuerte Entscheidungen zu treffen, konfrontiert. Mit der Einführung des Consent Mode V2 reagiert Google auf eine sich wandelnde rechtliche und gesellschaftliche Landschaft, in der Datenschutz und -sicherheit zunehmend in den Vordergrund rücken. Angesichts verschärfter Datenschutzverordnungen wie der DSGVO und dem Digital Markets Act (DMA), sowie einer wachsenden Sensibilität der Nutzer für ihre Online-Privatsphäre, musste Google mit dem Consent Mode V2 reagieren, damit Unternehmen den Spagat zwischen Compliance und effektiver Datennutzung meistern können.
Warum führt Google den Consent Mode V2 ein?
Google verspricht, dass Unternehmen durch die Implementierung des Consent Mode V2 ihre Compliance-Strategien verbessern können, indem sie den Nutzern mehr Kontrolle über die Verwendung ihrer Daten geben. Dies stärkt nicht nur das Vertrauen der Nutzer in die Produkte, sondern ermöglicht es den Unternehmen auch, innerhalb der gesetzlichen Grenzen zu operieren und gleichzeitig wertvolle Daten für die Optimierung ihrer Online-Präsenz zu sammeln.
Die Implementierung des Consent Mode V2 erfordert technisches Know-how und ein tiefgreifendes Verständnis der geltenden Datenschutzgesetze. Unternehmen müssen sicherstellen, dass ihre Nutzung des Consent Mode V2 mit den Erwartungen und Rechten der Nutzer übereinstimmt und gleichzeitig den gesetzlichen Anforderungen gerecht wird. Die Notwendigkeit einer fortlaufenden Überprüfung und Anpassung der Datenschutzpraktiken bleibt also bestehen, um mit den sich ständig weiterentwickelnden Standards Schritt zu halten.
In der herkömmlichen Tracking-Praxis ist das Erfassen von Nutzerdaten direkt abhängig von der sofortigen Zustimmung beim Website-Besuch. Dieses binäre Modell – Zustimmung führt zu Tracking, keine Zustimmung führt zu keinem Tracking – bietet zwar eine direkte Einhaltung von Datenschutzvorschriften wie der DSGVO, ist jedoch in seiner Anpassungsfähigkeit und im Umgang mit nicht-einwilligenden Nutzern begrenzt. In der aktuellen digitalen Landschaft verzichten immer mehr Nutzer auf den Consent, was zu einer signifikanten Lücke in den Datensätzen der Unternehmen führt. Wenn Nutzer die Datenerfassung ablehnen und dadurch 30% des Traffics nicht erfasst werden, können die daraus resultierenden Analysen und Optimierungsstrategien stark verzerrt und ungenau sein. Der Consent Mode V2 wurde entwickelt, um genau diese Lücke im digitalen Marketing und der Datenanalyse zu schließen.
Die Funktionsweise des Consent Mode V2
Der Consent Mode V2 ist in zwei Hauptmodi unterteilt: den Basic Mode und den Advanced Mode. Diese bieten unterschiedliche Ebenen der Datenerfassung und -verarbeitung, je nachdem, welche Zustimmung der Nutzer erteilt hat.
Funktionsweise Basic Mode
Im Basic Mode des Consent Mode V2 werden Daten in einer Weise erfasst, die die Privatsphäre des Nutzers respektiert, indem keine personenbezogenen Daten oder identifizierbaren Informationen gesammelt werden. Aber wie funktioniert das genau, und was bedeutet das für Unternehmen und Nutzer?
Wenn ein Nutzer die Verwendung von Cookies ablehnt, werden keine Daten erhoben. Für die Conversion-Modellierung in Google Ads & Analytics wird dann ein allgemeines Modell verwendet. In diesem Modus verwendet Google eine Technik namens „Cookieless-Pings“, die es ermöglichen soll, Interaktionen zu messen, ohne Nutzer über Websites hinweg zu verfolgen. Es werden grundlegende Informationen wie die Art der Conversion-Aktion, die Tageszeit oder der Browsertyp erfasst, jedoch ohne Verbindung zu einer eindeutigen Nutzer-ID. Dies kann ohne Network-Calls erfasst werden.
Für den Nutzer bedeutet dies, dass seine Interaktionen auf der Website in einer aggregierten Form erfasst werden. Es gibt keine personalisierte Datenspeicherung oder -analyse, und die Daten können nicht dazu verwendet werden, individuelle Profile zu erstellen oder personalisierte Werbung zu schalten. Unternehmen erhalten durch den Basic Mode wertvolle aggregierte Einblicke in das Nutzerverhalten, die für allgemeine Website-Optimierungen genutzt werden können. Auch wenn die Daten nicht für personalisierte Marketingstrategien geeignet sind, bieten sie doch eine solide Basis für die Verbesserung der Benutzererfahrung und die allgemeine Leistung der Website oder einer Kampagne.
Funktionsweise Advanced Mode
Der Advanced Mode des Consent Mode V2 tritt in Kraft, wenn Nutzer ihre Zustimmung zur Verwendung von Cookies und ähnlichen Technologien geben. Dieser Modus ermöglicht eine weit umfangreichere Datenerfassung und -verarbeitung.
Im Advanced Mode werden personenbezogene Daten wie Cookie-IDs oder gegebenenfalls andere identifizierende Informationen genutzt, um detaillierte Einblicke in das Nutzerverhalten zu gewinnen. Diese Daten ermöglichen es, individuelle Nutzerpfade zu verfolgen, Nutzerinteressen zu analysieren und personalisierte Marketingkampagnen zu entwickeln. In diesem Modus verwendet Google fortschrittliche Algorithmen, um Daten zu erfassen und zu verarbeiten, wodurch Unternehmen nicht nur verstehen können, wie Nutzer mit ihrer Website interagieren, sondern auch, wie sie ihre Optimierungsmaßnahmen an die Bedürfnisse und Präferenzen der Nutzer anpassen können.
Für den Nutzer bedeutet die Zustimmung im Advanced Mode, dass seine Daten genutzt werden können, um ihm eine personalisierte Online-Erfahrung zu bieten. Dies kann personalisierte Inhalte, zielgerichtete Werbung oder Empfehlungen umfassen, basierend auf seinem bisherigen Online-Verhalten. Für Unternehmen bietet der Advanced Mode tiefe Einblicke in das Nutzerverhalten und ermöglicht präzises Targeting und Personalisierung. Mit diesen Informationen können Unternehmen ihre Marketingstrategien feinjustieren, die Konversionsraten verbessern und letztlich die Wirkung ihrer Online-Marketing-Maßnahmen maximieren.
Der Consent Mode V2 kann als Schritt gesehen werden, um ein Gleichgewicht zwischen dem Respektieren der Nutzerpräferenzen und dem Bedarf an detaillierten Daten für die Geschäftsoptimierung zu finden. Durch die Wahl zwischen Basic Mode und Advanced Mode können Unternehmen ihre Datenstrategien flexibel an die Zustimmung ihrer Nutzer anpassen, wodurch sie sowohl den Datenschutzanforderungen gerecht werden als auch wertvolle Einblicke für ihre Geschäftsentscheidungen gewinnen.
Cookieless Pings & Datenmodellierung
Im Rahmen des Google Consent Mode V2 sind Cookieless Pings eine zentrale Innovation, die es ermöglicht, Nutzerinteraktionen zu erfassen, selbst wenn traditionelle Cookies nicht eingesetzt werden können. Diese Technologie ist entscheidend für die Datenerfassung in einem zunehmend restriktiven Cookie-Umfeld.
Technische Funktionsweise von Cookieless Pings
Cookieless Pings sind HTTP-Requests, die von einer Webseite gesendet werden, um bestimmte Interaktionen oder Ereignisse zu melden, ohne dabei auf herkömmliche Browser-Cookies angewiesen zu sein. Diese Pings werden ausgelöst, um Interaktionsdaten direkt an Server zu übermitteln, auch wenn der Nutzer die Speicherung von Cookies abgelehnt hat oder der Browser die Cookie-Verwendung einschränkt.
Für Nutzer bieten Cookieless Pings einen erhöhten Datenschutz. Ihre Interaktionen auf der Webseite tragen zur Verbesserung von Diensten und zur Nutzererfahrung bei, ohne dass ihr Online-Verhalten über längere Zeiträume oder über verschiedene Webseites hinweg nachverfolgt wird. Nur bei einer korrekten Implementierung des Consent Modes stellt dieser sicher, dass die Privatsphäre gewahrt bleibt, während Nutzer weiterhin von einer funktionierenden und reaktionsfähigen Webseite profitieren. Cookieless Pings im Consent Mode V2 können eine zukunftsorientierte Lösung für die Datenerfassung sein, die sowohl den wachsenden Datenschutzbedürfnissen der Nutzer als auch den analytischen Anforderungen der Unternehmen gerecht wird. Durch diese Technologie können Unternehmen weiterhin wertvolle Daten sammeln und analysieren, auch in einer Landschaft, die zunehmend von Datenschutzregulierungen und technologischen Einschränkungen geprägt ist.
Diese Methode kann das Risiko von Datenschutzverletzungen verringern, da individuell identifizierbare Informationen nicht erfasst werden. Jedoch bewegt sich diese Technologie in einer gewissen Grauzone bezüglich der DSGVO-Konformität, da die Anonymisierung und die damit verbundene Datenverarbeitung noch immer Gegenstand von Diskussionen und rechtlichen Überprüfungen sind.
Google Consent Mode V2 = Cookieless-Tracking?
Der Google Consent Mode V2 und das Cookieless-Tracking sind beides Antworten auf die wachsenden Datenschutzbedenken und die technologischen Veränderungen in der digitalen Welt. Obwohl sie Ähnlichkeiten aufweisen, dienen sie unterschiedlichen Zwecken und funktionieren auf unterschiedliche Weisen. In diesem Kapitel werden wir die Beziehung zwischen dem Google Consent Mode V2 und dem Cookieless-Tracking untersuchen, um zu verstehen, wie sie sich ergänzen und worin ihre Unterschiede bestehen.
Sowohl der Google Consent Mode V2 als auch das Tracking ohne Cookies stellen Lösungen dar, um in einer zunehmend cookie-aversen Online-Welt Daten zu erfassen. Sie zielen darauf ab, Einblicke in das Nutzerverhalten zu gewähren, ohne auf traditionelle, oft als invasiv empfundene Tracking-Methoden angewiesen zu sein. Beide Ansätze ermöglichen es, Daten zu sammeln und auszuwerten, selbst wenn Nutzer dem Setzen von Cookies nicht zustimmen.
Während Cookieless-Tracking gänzlich ohne Cookies auskommt und Daten auf alternative Weisen erfasst, bietet der Consent Mode V2 eine flexible Struktur, die sich an die Zustimmung der Nutzer anpasst. Im Basic Mode des Consent Mode V2 werden ähnlich wie beim Cookie-losen Tracking Daten ohne die Verwendung personenbezogener Cookies gesammelt. Der Advanced Mode hingegen ermöglicht eine detailliertere Datensammlung, wenn Nutzer ihre Zustimmung geben, und geht damit über das Konzept des Trackings ohne Cookies hinaus.
Der Consent Mode V2 kann als eine Erweiterung oder ein komplementäres System zum Cookieless-Tracking betrachtet werden. Er integriert die Flexibilität, sowohl mit als auch ohne Cookies zu arbeiten, abhängig von der Nutzerzustimmung. Dieser Ansatz reflektiert die Realität, dass nicht alle Nutzer Tracking vollständig ablehnen; einige sind bereit, ihre Daten für eine bessere Online-Erfahrung zu teilen, solange sie die Kontrolle behalten.
Kritische Betrachtung der DSGVO-Konformität
Es ist wichtig zu betonen, dass sowohl der Consent Mode V2 als auch das Cookie-lose Tracking unter die Bestimmungen der DSGVO fallen. Die Einhaltung der DSGVO hängt nicht nur davon ab, ob Cookies verwendet werden, sondern auch davon, wie Nutzerdaten erfasst, verarbeitet und gespeichert werden. Transparente Kommunikation, die Einholung von Zustimmung und die Gewährleistung der Datensicherheit sind unerlässlich, um den Anforderungen der DSGVO gerecht zu werden.
Der Google Consent Mode V2 bietet einen Ansatz, der das Beste aus beiden Welten zusammenbringen soll: die Flexibilität des Cookieless-Trackings und die Möglichkeit, mit Zustimmung detailliertere Daten zu erfassen. Diese hybride Herangehensweise ermöglicht es Unternehmen, datengesteuerte Entscheidungen innerhalb des rechtlichen Rahmens zu treffen und gleichzeitig die Präferenzen ihrer Nutzer zu respektieren. Durch das Verständnis und die Anwendung dieser Technologien können Unternehmen ihre Analysefähigkeiten in einer sich ständig verändernden digitalen Landschaft verbessern, ohne die Vertrauensbasis mit ihren Nutzern zu untergraben.
Unternehmen sollten diese Technologien nicht als einseitige Lösungen betrachten, sondern als Teil eines größeren Datenschutz- und Datenanalyse-Ökosystems. Die Auswahl und Implementierung dieser Technologien sollte stets von einer gründlichen Bewertung der Datenschutzpraktiken und -ziele des Unternehmens begleitet werden. Eine transparente Kommunikation mit den Nutzern über die verwendeten Tracking-Methoden und der Schutz ihrer Daten sollte im Mittelpunkt jeder digitalen Strategie stehen.
Die Einführung des Consent Mode V2 ist ein wesentlicher Schritt für Unternehmen, um in der heutigen datengetriebenen und datenschutzbewussten Welt erfolgreich zu sein. Während der erste Teil dieses Artikels die technischen und strategischen Aspekte des Consent Mode V2 beleuchtet hat, ist es unerlässlich, den Datenschutz als integralen Bestandteil der Implementierung zu betrachten. In den nächsten Kapiteln dieses Artikels werden wir uns eingehend mit den Datenschutzaspekten einer erfolgreichen Implementierung befassen.
Datenschutzrechtliche Grundlagen
Die digitale Landschaft unterliegt einem ständigen Wandel, insbesondere im Hinblick auf Datenschutz und Regulierung der “Big Player” der Werbeindustrie. Mit Inkrafttreten des Digital Markets Act (DMA) mit 6. März 2024 in der Europäischen Union und der zunehmenden Macht von Unternehmen wie Google, welche als Gatekeeper im DMA definiert wurden, entstehen neue Herausforderungen und Anforderungen im Bereich des Datenschutzes. Diese Anforderungen betreffen auch Webseitenbetreiber direkt, da Google diese an sie weitergegeben hat.
Die Einholung der Einwilligung zur Verarbeitung personenbezogener Daten zu Zwecken von Marketing und Personalisierung ist eine grundlegende Anforderung der Datenschutzgrundverordnung (DSGVO) der Europäischen Union. Aus diesem Grund sind Webseite- und App-Betreiber verpflichtet, klare und transparente Einwilligungen von ihren Nutzern einzuholen.
Zusätzlich zur DSGVO unterliegen bestimmte Datenverarbeitungen im digitalen Raum weiteren Datenschutzgesetzen, die sicherstellen sollen, dass die Privatsphäre der Nutzer respektiert wird. Für Deutschland gilt etwa zusätzlich das Telekommunikations-Datenschutzgesetz (TTDSG), in Österreich das Telekommunikationsgesetz (TKG). Diese beiden Gesetze enthalten auch Regelungen zur Einwilligung der Nutzer im Rahmen von lokalen Speicherungen von Informationen auf Endgeräten.
Der Digital Market Act
Der Digital Market Act (DMA, zu deutsch “Gesetz über digitale Märkte”) ist ein Gesetz der Europäischen Union, das darauf abzielt, die Marktstellung großer digitaler Plattformen (sog. Gatekeeper) zu regulieren und faire Wettbewerbsbedingungen zu schaffen. Im Kontext Datenschutz legt der DMA auch Richtlinien fest, die die Verarbeitung personenbezogener Daten zu Werbezwecken betreffen. Eine der betroffenen Plattformen des DMA ist Google, das wiederum seine Verpflichtungen direkt an die Betreiber von Webseiten und Apps weitergibt. Dafür wurde der Google Consent Mode V2 entwickelt.
Anforderungen von Google
Die Richtlinie zur Einwilligung der Nutzer in der EU von Google legt fest, dass Webseitenbetreiber und Nutzer von Google-Diensten sicherstellen müssen, dass Endnutzer im Europäischen Wirtschaftsraum (EWR) bestimmte Informationen erhalten und ihre Einwilligung zur Verarbeitung ihrer Daten geben.
Nach der Richtlinie sind die Betreiber verpflichtet:
“Sie sind verpflichtet, eine rechtswirksame Einwilligung dieser Endnutzer für folgende Aktivitäten einzuholen:
- den Einsatz von Cookies oder anderer Formen der lokalen Speicherung von Informationen, soweit die Einholung einer Einwilligung hierfür gesetzlich vorgeschrieben ist; und
- die Erhebung, Weitergabe und Nutzung von personenbezogenen Daten zur Personalisierung von Werbeanzeigen.
Wenn Sie die Einwilligung einholen, sind Sie verpflichtet:
- Aufzeichnungen über die von den Endnutzern abgegebenen Einwilligungen aufzubewahren; und
- den Endnutzern eine klare Anleitung bereitzustellen, wie diese die Einwilligung widerrufen können.”
Die Nichteinhaltung der Richtlinie zur Einwilligung der Nutzer in der EU von Google kann dazu führen, dass Google die Nutzung des betreffenden Dienstes einschränkt, sperrt oder die Vereinbarung mit dem Nutzer kündigt. Dies führt für eine Vielzahl der Unternehmen zu erheblichen Risiken und potenziellen Umsatzeinbußen.
Konkrete Maßnahmen aufgrund des Google Consent Mode V2
Der Google Consent Mode V2 betrifft alle Werbetreibenden, die Google Ads für personalisierte Werbung nutzen und das Tracking mittels Google Analytics durchführen. Wenn auf einer Webseite Google-Dienste wie Google Analytics, Google Ads Pixel, Google Tag Manager oder Google Ads eingesetzt werden und Daten von Nutzern aus dem Europäischen Wirtschaftsraum (EWR) erfasst werden, führt kein Weg am Google Consent Mode V2 herum.
Es ist wichtig zu beachten, dass Google eine wirksame Einwilligung der betroffenen Personen nicht nur bei der Datenerhebung auf Webseiten einfordert, sondern auch dann, wenn Daten in Google-Marketing-Tools hochgeladen werden, die aus Offline-Quellen (zum Beispiel Offline-Conversions oder Daten zu Ladenverkäufen), aus Apps oder aus Programmen stammen, die nicht von Google stammen.
Der Google Consent Mode V2 muss dann genutzt werden, wenn die Funktionen Messung, personalisierte Anzeige und Remarketing genutzt werden.
Weiters ist es entscheidend zu verstehen, dass der Google Consent Mode V2 keine Ersatzlösung für Consent Management Plattformen (CMP) ist, sondern lediglich eine Schnittstelle zu Google darstellt. Diese Schnittstelle überträgt die getroffenen Cookie- und Datenschutzeinstellungen, die im CMP auf der jeweiligen Webseite festgelegt wurden, an die konkret eingesetzten Google-Dienste.
Durch den Google Consent Mode V2 hat sich also nicht die Einwilligung nach der DSGVO bzw. dem TTDSG/TKG verändert, diese gelten weiterhin uneingeschränkt und parallel weiter. Vielmehr kommt es durch den Google Consent Mode V2 zu einer Datenübermittlung an Google, damit Google weiß, ob und welche Dienste der Betroffenen verknüpft werden dürfen.
Folgen der Nicht-Einwilligung durch den Nutzer
Falls die Einwilligung durch die Webseitenbesucher verweigert wird, speichern die ausgelösten Tags keine Cookies. Stattdessen werden Informationen zur Nutzeraktivität gesendet. Diese Informationen sowie der Einwilligungsstatus werden über verschiedene Arten von Pings ohne Cookies oder Signale an den Google-Server gesendet:
- Pings zum Einwilligungsstatus für Google Ads- und Floodlight-Tags übermitteln den standardmäßigen Einwilligungsstatus und aktualisieren diesen, wenn der Besucher die Einwilligung erteilt oder verweigert.
- Conversion-Pings signalisieren eine durchgeführte Conversion.
- Google Analytics-Pings werden von allen Seiten einer Webseite gesendet, auf denen Google Analytics implementiert ist und Ereignisse protokolliert werden.
Diese Pings können funktionsbezogene Informationen wie Zeitstempel, Nutzer-Agent und Referrer-URL sowie zusammengefasste, nicht personenidentifizierbare Informationen wie Hinweise auf Anzeigenklicks, Einwilligungsstatus und zufällige Zahlen umfassen. Zudem können Informationen zur Plattform zur Einwilligungsverwaltung des Webseiteninhabers enthalten sein.
Kompatibilität der Consent-Management-Plattform
Die Kompatibilität der Consent-Management-Plattform mit dem Google Consent Mode V2 ist von entscheidender Bedeutung, um einerseits die Google Richtlinie zu erfüllen und andererseits die Vorgaben der DSGVO einzuhalten.
Eine effektive CMP-Lösung muss nahtlos mit dem Google Consent Mode V2 zusammenarbeiten, um die Einwilligung der Nutzer zur Verarbeitung ihrer Daten zu verwalten. Dabei ist es wichtig, dass die CMP die erforderlichen Funktionen und Integrationen bereitstellt, um den Consent Mode ordnungsgemäß zu implementieren und die Zustimmungsstatus der Nutzer in Echtzeit zu verfolgen. Google stellt eine Übersicht über jene CMP vor, welche den Google Consent Mode V2 bereits integriert haben.
Anpassung Datenschutzhinweise
In den Datenschutzhinweise auf der Webseite muss zusätzlich zum CMP eine transparente Information über die gewählte Variante im Google Consent Mode V2 erfolgen, um die Betroffenen den Anforderungen des Art. 13 DSGVO entsprechend zu informieren. Hintergrund davon ist, dass die DSGVO Transparenzpflichten vorsieht.
Aktuell ist es notwendig, die Datenschutzhinweise zu prüfen und anzupassen, um die Anforderungen vollumfänglich zu erfüllen.
Zusammenfassung
Eine fehlerhafte Implementierungen der Technologie kann die Datenqualität verschlechtern und so die Aussagekraft der eigenen Analysen verfälschen. Im schlimmsten Falle können Verstöße gegen die Richtlinien von Google und insbesondere gegen die DSGVO schwerwiegende Konsequenzen für Unternehmen mit sich bringen. Im Fall von Google-Richtlinien können Verstöße dazu führen, dass das betroffene Unternehmen von Google-Diensten ausgeschlossen werden, was erhebliche Auswirkungen auf die Sichtbarkeit und das Marketingpotenzial haben kann.
Darüber hinaus können im Anwendungsbereich der DSGVO drakonische Geldstrafen verhängt werden. Zusätzlich zu den finanziellen Konsequenzen können Verstöße auch zu Reputationsverlust, Kundenvertrauensverlust und langfristigen Geschäftsschäden führen. Daher ist es von entscheidender Bedeutung, dass Unternehmen sich strikt an die Richtlinien von Google und die DSGVO halten und kontinuierlich ihre Datenschutzpraktiken überwachen und aktualisieren.
SCALELINE Datenschutz
SCALELINE Datenschutz bietet maßgeschneiderte Lösungen, um Unternehmen aus dem gesamten DACH-Raum bei der Umsetzung effektiver Datenschutzmaßnahmen zu unterstützen. Durch eine individuelle Analyse der Bedürfnisse und Anforderungen jedes Unternehmens entwickelt SCALELINE Datenschutz maßgeschneiderte Datenschutzkonzepte, die auf die spezifischen Geschäftsprozesse und -strukturen zugeschnitten sind. Dabei werden nicht nur die gesetzlichen Anforderungen berücksichtigt, sondern auch die individuellen Unternehmensziele und -strategien.
Data Literacy als Schlüsselkompetenz
Data Literacy als Schlüsselkompetenz
Lesedauer: 4 Minuten
Digitaler Darwinismus
Change ist nichts Neues. Im Umfeld von Unternehmen ändern sich ständig Faktoren, wie Wettbewerbsstruktur, Marktumfeld oder Nachfrageverhältnisse. Die unternehmerische Bereitschaft, sich permanent zu hinterfragen und zu wandeln, war und ist zur Sicherung einer nachhaltigen Existenzfähigkeit zwingend notwendig. Jedoch haben Geschwindigkeit und Intensität der kontinuierlichen Veränderung eine neue Qualität erreicht. Wandel ist kein Projekt, sondern ein Dauerzustand, in dem sich Unternehmen befinden.
Wir leben in einem digitalen Zeitalter, in dem wir in immer kürzer werdenden Abständen neue Technologien, Apps, Tools und Kommunikationskanäle kennenlernen. Die zunehmende Digitalisierung beeinflusst jedoch nicht nur die Menschen, sondern auch eine sehr große Anzahl von Unternehmen. Die Digitale Transformation wird auf jede Industrie und jeden Service bis in den letzten Winkel Auswirkungen haben.
Wenn Unternehmen nicht ausreichend auf die technologischen und digitalen Veränderungen reagieren, dann entsteht ein digitaler Darwinismus. Technologien und Gesellschaft verändern sich dann schneller als die Fähigkeit von Unternehmen, sich den Veränderungen anzupassen. Unternehmen verlieren den Anschluss auf dem Markt, werden verdrängt und überleben schlimmstenfalls im Zeitalter der Digitalisierung nicht.
Unternehmen stehen daher vor einer sehr großen Herausforderung, der sie sich stellen müssen. Sie müssen sich zum einen mit der digitalen Transformation der Gesellschaft auseinandersetzen und auf diese reagieren. Zum anderen müssen sie digitale Lösungen und Services für ihre Geschäftsfelder entwickeln. Es geht also nicht mehr um das “Ob”, sondern nur noch um das “Wie”. Neben der Stärke braucht es auch die Anpassungsfähigkeit, um sich schnell und kontinuierlich anpassen zu können. Und es braucht Menschen mit den dazu notwendigen Schlüsselkompetenzen.
Mensch und Technologie in Symbiose
In der Biologie gibt es viele symbiotische Beziehungen. Zwischen Arten bestehen gegenseitige Abhängigkeiten, um die ökologische Fitness zu erhöhen. In der Wirtschaft besteht eine solche Abhängigkeit zwischen Mensch und Technologie, da deren Kombination die ökonomische Fitness der Unternehmen mitbestimmt. Wenn Unternehmen im Sinne des darwinistischen „Survival of the fittest and fastest“ das Zeitalter der Digitalisierung überleben wollen, dann müssen die symbiotischen Beziehungen zwischen Mensch und Technologie ermöglicht, hergestellt und genutzt werden.
Die Symbiose zwischen Mensch und Technologie wird die gesellschaftliche und wirtschaftliche Zukunft bestimmen, denn die Zukunft gehört weder dem Menschen noch der Technik alleine. Technologien sind eine Erweiterung von Menschen und deren Möglichkeiten. Die Kombination der Stärken von beiden führt zu besseren Ergebnissen und damit zur digitalen Geschäftsfähigkeit.
Effektivität kann gesteigert werden, weil Mensch und Technologie zusammen ein breiteres Spektrum von Aufgaben bewältigen können. Effizienz kann gesteigert werden, weil Menschen sich auf komplexe Aufgaben konzentrieren können, die Technologie nicht bewältigen kann. Technologie kann als Werkzeug den Menschen helfen, ihre kreativen Fähigkeiten zu erweitern und neue Ideen zu generieren. Mittels der Analyse von Daten können beispielsweise neue Erkenntnisse gewonnen und Handlungsempfehlungen zur Verbesserung abgeleitet werden.
Im Zuge der Digitale Transformation kann Technologie Unternehmen dabei helfen, sich an die schnell verändernden Umgebungen anzupassen, indem schnellere Reaktionszeiten ermöglicht werden. Für die gemeinsame Bewältigung dieser neuen Herausforderungen muss aber sichergestellt werden, dass Mensch und Technologie sich auch gleichzeitig weiterentwickeln. Dazu bedarf es einer synchronen Transformation.
Synchrone Transformation
“In the electric world, change is the only stable factor.”. Das Zitat des Kommunikationstheoretikers Marshall McLuhan ist heute aktueller denn je. Der Wandel ist dabei aber nicht konstant, sondern exponentiell. Oft entwickelt sich Technologie schneller als eine Organisation fähig ist, sich zu verändern. Technologische Herausforderungen werden priorisiert und losgelöst von den menschlichen Herausforderungen behandelt. Mensch und Technologie driften schnell auseinander.
Wenn Technologie sich schneller weiterentwickelt als der Mensch und der Mensch den Anschluss verliert, dann kann das schwerwiegende Konsequenzen haben. Angefangen bei geringerer Effizienz und Produktivität über den Verlust wettbewerbsfähiger Vorteile bis hin zu mangelnder Akzeptanz von Innovationen. Dadurch kann die digitale Transformation eines Unternehmens ausgebremst, behindert oder sogar verhindert werden. Dies gilt es durch eine synchrone Transformation und eine gleichzeitige Weiterentwicklung von Mensch und Technologie zu vermeiden.
Dazu muss die Beziehung zwischen Mensch und Technologie in den Fokus gerückt und die Weiterentwicklung von Mensch und Technologie in Einklang und Gleichklang gebracht werden. Der wichtigste Schritt ist die Entwicklung einer Strategie zur Personalentwicklung, die sicherstellt, dass die Menschen in einem Unternehmen über die richtigen Fähigkeiten und Kompetenzen verfügen, um die digitale Transformation erfolgreich umzusetzen.
Neben der Einstellung von Mitarbeitern mit den benötigten Fähigkeiten spielt dabei die Entwicklung interner Talente und die gezielte Weiterbildung von Mitarbeitern eine wichtige Rolle. Die Weiterentwicklung muss dabei kontinuierlich mit der aktuellen Entwicklung der Technologie synchronisiert und in einem agilen Prozess und mittels Micro Learning durchgeführt werden. So werden die richtigen Schlüsselkompetenzen richtig aufgebaut.
Datenkompetenz als Schlüsselkompetenz
Für Unternehmen, die sich auf dem Weg der digitalen Transformation befinden, sind neben den Technologien selber auch die entsprechenden Technologie-Kompetenzen unerlässlich. Beide sind untrennbar miteinander verbunden. Ohne die Fähigkeiten und Kenntnisse zur effektiven und effizienten Nutzung von Technologie kann kein Nutzen entstehen. Unternehmen müssen folglich über qualifizierte Mitarbeiter verfügen, um Technologie wertschöpfend zu nutzen und dadurch wettbewerbsfähig und erfolgreich zu bleiben.
Zwei dieser Technologie-Kompetenzen sind die Software-Nutzungskompetenz und die Datenkompetenz. Beide Kompetenzen sind eng miteinander verknüpft und ergänzen sich und beide sind wichtige Faktor für den Erfolg der digitalen Transformation. Mitarbeiter müssen über beide Kompetenzen verfügen. Die Datenkompetenz umfasst dabei den Umgang mit Daten, deren Management und deren Analyse. Mitarbeiter müssen befähigt werden, Daten effektiv und effizient zu nutzen und so wertvolle Erkenntnisse zu gewinnen.
Im Kontext der Digitalen Transformation benötigen insbesondere Menschen aus Unternehmensbereichen entlang der Kunden-Wertschöpfungskette, wie Marketing, Vertrieb, Service und Produktentwicklung, entsprechende Skills als Ergänzung zu ihren fachlichen Kernkompetenzen. Der rollenspezifische Aufbau dieser Kompetenzen sollte daher zum festen Weiterbildungsprogramm in Organisationen gehören.
Ausblick
Für die Umsetzung dieses Vorhabens lohnt sich für Personalverantwortliche ein Blick auf die Mechanismen der Gaming-Industrie. Charakterentwicklungspfade, auch Skilltrees genannt, sind im Gaming bereits etablierte Mechanismen, die sich gut auf das Personalwesen übertragen lassen. In unserem nächsten Artikel zeigen wir auf, was Personaler von Rollenspielen lernen können und wie People Analytics und Up-Skilling dabei helfen können, die Herausforderungen der synchronen Transformation zu meistern.
Spenderanalyse mit KI - Teil II
Spenderanalyse mit KI - Teil II
Lesedauer: 7 Minuten
In dieser zweiteiligen Fallstudie begleiten wir die fiktive Non-Profit-Organisation Zero Hunger e.V. auf ihrer Reise hin zu einer datengetriebenen Organisation. Im ersten Teil haben wir aufgezeigt, wie der fiktive Verein eine hausweite Datenstrategie inklusive Tracking-Konzept und KPI-Framework einführt. Diese Datenstrategie ist der Startpunkt für den nächsten Schritt von Zero Hunger: Spenderprognosen mithilfe von Künstlicher Intelligenz ermitteln. Mithilfe von Technologien des Machine Learnings (ML) sollen Prognosen über das Verhalten von Spenderinnen und Spendern getroffen werden. Diese sollen die Basis bilden für eine Kampagne zur Gewinnung von neuen Dauerspendern. Wie das gelingen kann, beschreiben wir in diesem Teil der fiktiven Fallstudie.
Künstliche Intelligenz im Fundraising
So genannte Spenderprognosen (Predictive Analytics) sind nur eine Einsatzmöglichkeit von KI-getriebenen Technologien im Fundraising. Insbesondere im Online-Marketing können Large Language Modelle (LLM) wie ChatGPT hilfreiche Unterstützung bieten, z.B. bei der Recherche von passenden SEO-Keywords, beim Texten von Anzeigen und von Landingpages für Spendenkampagnen oder auch bei der Beantwortung von Fragen im Spenderservice.
Mindset und Organisationskultur
Damit Technologien Künstlicher Intelligenz im Fundraising eingesetzt werden können, braucht es eine Führungskultur in der NGO, die datenbasierte Entscheidungen trifft und KI als Chance für die Organisation versteht. Durch den Aufbau einer Datenstrategie hat es Zero Hunger geschafft, dieses Mindset im Verein Stück für Stück aufzubauen. Mitarbeitende und Führungskräfte begegnen digitalen Themen mit Offenheit. Entscheidungen werden nicht aus persönlichen Erfahrungen heraus getroffen, sondern auf der Basis von Datenanalysen. Es herrscht Einigkeit, dass gegenüber dem Spender transparent kommuniziert wird, wie seine Daten gespeichert und verarbeitet werden. Daten werden DSGVO-konform gesammelt, die Auswahl von passenden KI-Tools findet unter ethischen Gesichtspunkten statt.
Spendervorhersagen treffen mithilfe von Predictive Analytics
Eines der größten Potentiale von Künstlicher Intelligenz im Fundraising liegt in der Prognose von Spenderverhalten. Darauf basierend können auf den Spender zugeschnittene Fundraisingaktivitäten geplant und umgesetzt werden. Solche prädikativen Analysen (predictive analytics) erkennen Muster, Trends und Verbindungen innerhalb vorhandener Spenderdaten. Somit können Vorhersagen darüber getroffen werden, wie hoch die Erfolgswahrscheinlichkeit einer Spendenkampagne bei einem konkreten Spendersegment ist. Um Spenderprognosen mittels Künstlicher Intelligenz erstellen zu können benötigt es einen möglichst großen Input an Spenderdaten mit verschiedenen Parametern. Dieser kann beispielsweise aus einem Data Warehouse stammen. Algorithmen des Machine Learnings werden darauf optimiert, Korrelationen in den Eingabedaten zu erkennen und Vorhersagen zu treffen.
Zielsetzung
Um die Zielgruppe der Dauerspender zu verstehen, lohnt sich ein Blick auf den Spender-Funnel. So könnte der Funnel für diese fiktive Fallstudie aussehen:

Der Funnel beschreibt die verschiedenen Schritte der Spenderbindung und -entwicklung. Je höher die Stufe, desto engagierter und wertvoller ist der Spender. Zero Hunger hat das Ziel, den Anteil der Dauerspender innerhalb der nächsten drei Jahren zu verdoppeln. Das heißt, Zero Hunger muss in dieser Zeit möglichst viele Mehrfachspender in Dauerspender überführen.
Dementsprechend definiert Zero Hunger folgende Zielsetzung für die prädikative Analyse mittels Machine Learning:
Identifiziere mir unter den Neu- und Mehrfachspendern alle Spender, die das Potential haben, Dauerspender zu werden.
Diese Spender werden von Zero Hunger mit einer crossmedialen Dauerspender-Kampagne bespielt. Die Kampagne besteht aus einem Print-Mailing, verzahnt mit einer Kampagnen-Landingpage auf der Website von Zero Hunger. Im Vergleich zu Kampagnen ohne vorherige prädikative Analyse minimiert Zero Hunger bei dieser Kampagne die Streuverluste, die es in der Regel bei jeder Spendenkampagne gibt. Es werden gezielt nur die Personen angeschrieben, die laut ML-Modell am nächsten an das Profil eines Dauerspenders heranreichen. Dadurch wird die Conversion-Rate optimiert und der ROI gesteigert.
Exkurs: Beispieltraining
Um das Verfahren von Predictive Analytics mithilfe von Machine Learning zu erklären, haben wir für diesen Blog-Beitrag einen Trainingsdatensatz aus dem E-Commerce-Bereich genutzt und ein entsprechendes Modell auf diesen Daten trainiert. Die gesamte Dokumentation des Trainings kann hier nachgelesen werden:
Im Folgenden fassen wir die wichtigsten Schritte zusammen. Das Training besteht aus vier Schritten, die einen Zyklus bilden:
- Explore and Adapt: man schaut sich verschiedene Eigenschaften des Datensatzes an, und versucht die Zusammenhänge zwischen den Daten genauer zu verstehen. Dann passt man das Modell bzw. den Datensatz an die Erkenntnisse an.
- Train: das Modell trainieren
- Evaluate: die Performance anhand von Daten messen, die zuvor nicht im Training verwendet wurden
- Inference/Go-Live: Verwendung des Modells im Echtbetrieb

Schritt 1: Explore and Adapt
Zunächst wird der Datensatz hinsichtlich seiner Eigenschaften analysiert. Der Datensatz ist ein Test-Datensatz von der Plattform Kaggle, einer von Google betriebenen Online-Community für Datenwissenschaftler. Der Datensatz ist auf Kaggle populär, aber er stammt aus dem Bereich des E-Commerce. Die Grundzüge des Vorgehens lassen sich aber auch auf NGO übertragen.
Wir beschränken uns in diesem Beispiel-Training auf eine einfache Frage: Welcher Kunde erzielte in den letzten zwei Jahren mehr und welcher weniger als 1.000 € Umsatz. Übertragen auf das Szenario von Zero Hunger wären die Kunden mit mehr als 1.000 € Umsatz die potenziellen Dauerspender, die mit einer Kampagne aktiviert werden sollen. Die Spender unter 1.000 € Umsatz fallen als Zielgruppe der Dauerspender-Kampagne heraus. Die Wahrscheinlichkeit, dass diese Spender konvertieren, ist zu gering.
Unser Test-Datensatz hat 2.240 Zeilen (Kunden) mit insgesamt 29 Spalten/Dimensionen. Die Dimensionen beschreiben den Kunden. Es handelt sich beispielsweise um demografische Daten (z.B. ‚Year_Birth‘), Einkommen (‚Income‘), Angaben zum Familienstatus (‚Marital_Status), Abschluss (‚Education‘) usw. Da die Testdaten aus dem E-Commerce-Bereich stammen, sind auch Dimensionen aufgeführt, die für den NGO-Bereich nicht relevant sind.
ID | Year_Birth | Education | Marital_Status | Income | Kidhome | Teenhome | Dt_Customer | Recency | MntWines | MntFruits | MntMeatProducts | MntFishProducts | MntSweetProducts | MntGoldProds | NumDealsPurchases | NumWebPurchases | NumCatalogPurchases | NumStorePurchases | NumWebVisitsMonth | AcceptedCmp3 | AcceptedCmp4 | AcceptedCmp5 | AcceptedCmp1 | AcceptedCmp2 | Complain | Z_CostContact | Z_Revenue | Response | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 5524 | 1957 | Graduation | Single | 58138.0 | 0 | 0 | 04-09-2012 | 58 | 635 | 88 | 546 | 172 | 88 | 88 | 3 | 8 | 10 | 4 | 7 | 0 | 0 | 0 | 0 | 0 | 0 | 3 | 11 | 1 |
1 | 2174 | 1954 | Graduation | Single | 46344.0 | 1 | 1 | 08-03-2014 | 38 | 11 | 1 | 6 | 2 | 1 | 6 | 2 | 1 | 1 | 2 | 5 | 0 | 0 | 0 | 0 | 0 | 0 | 3 | 11 | 0 |
2 | 4141 | 1965 | Graduation | Together | 71613.0 | 0 | 0 | 21-08-2013 | 26 | 426 | 49 | 127 | 111 | 21 | 42 | 1 | 8 | 2 | 10 | 4 | 0 | 0 | 0 | 0 | 0 | 0 | 3 | 11 | 0 |
3 | 6182 | 1984 | Graduation | Together | 26646.0 | 1 | 0 | 10-02-2014 | 26 | 11 | 4 | 20 | 10 | 3 | 5 | 2 | 2 | 0 | 4 | 6 | 0 | 0 | 0 | 0 | 0 | 0 | 3 | 11 | 0 |
4 | 5324 | 1981 | PhD | Married | 58293.0 | 1 | 0 | 19-01-2014 | 94 | 173 | 43 | 118 | 46 | 27 | 15 | 5 | 5 | 3 | 6 | 5 | 0 | 0 | 0 | 0 | 0 | 0 | 3 | 11 | 0 |
... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... |
2235 | 10870 | 1967 | Graduation | Married | 61223.0 | 0 | 1 | 13-06-2013 | 46 | 709 | 43 | 182 | 42 | 118 | 247 | 2 | 9 | 3 | 4 | 5 | 0 | 0 | 0 | 0 | 0 | 0 | 3 | 11 | 0 |
2236 | 4001 | 1946 | PhD | Together | 64014.0 | 2 | 1 | 10-06-2014 | 56 | 406 | 0 | 30 | 0 | 0 | 8 | 7 | 8 | 2 | 5 | 7 | 0 | 0 | 0 | 1 | 0 | 0 | 3 | 11 | 0 |
2237 | 7270 | 1981 | Graduation | Divorced | 56981.0 | 0 | 0 | 25-01-2014 | 91 | 908 | 48 | 217 | 32 | 12 | 24 | 1 | 2 | 3 | 13 | 6 | 0 | 1 | 0 | 0 | 0 | 0 | 3 | 11 | 0 |
2238 | 8235 | 1956 | Master | Together | 69245.0 | 0 | 1 | 24-01-2014 | 8 | 428 | 30 | 214 | 80 | 30 | 61 | 2 | 6 | 5 | 10 | 3 | 0 | 0 | 0 | 0 | 0 | 0 | 3 | 11 | 0 |
2239 | 9405 | 1954 | PhD | Married | 52869.0 | 1 | 1 | 15-10-2012 | 40 | 84 | 3 | 61 | 2 | 1 | 21 | 3 | 3 | 1 | 4 | 7 | 0 | 0 | 0 | 0 | 0 | 0 | 3 | 11 | 1 |
Bezogen auf das Szenario von Zero Hunger käme dieser Datensatz aus dem Data Warehouse. Durch die sauber aufgesetzte Datenstrategie hat der Verein Zugriff auf qualitativ hochwertige Spenderdaten und eine sauber strukturierte, breite Datenbasis, die als Input für das Machine Learning Modell dient. Die Spenderdatensätze können dadurch einfach per CSV-/JSON-Export aus dem Data Warehouse exportiert und für das Training verwendet werden.
Ziel des Trainings ist es, die Kunden in zwei Gruppen aufzuteilen:
- Kunden, die mehr als 1.000 € Umsatz generieren: 1.000 +
- In unserem Szenario sind dies die potenziellen Dauerspender, d.h. die Zielgruppe der Dauerspender-Kampagne
- Kunden, die weniger als 1.000 € Umsatz generieren: 0-999
- In unserem Szenario sind dies alle anderen Einzel- und Mehrfachspender
Diese Kundengruppen werden später als die beiden Ziele/Labels des Trainings dienen. Das Modell soll lernen, die Kundengruppe (1.000 + oder 0-999) vorherzusagen. Für das Training des Modells auf diese beiden Kundengruppen werden nur 7 der ursprünglichen 29 Dimensionen genutzt, und zwar die 7, die den meisten Aufschluss über die gesuchten Kundengruppen geben. Dies haben wir durch mehrere Versuche mit unterschiedlichen Kombinationen und den beiden Visualisierungsverfahren (t-SNE und PCA) herausgefunden.
Visualisierung des Datensatzes mit der t-SNE Methode
Bei dieser Methode der Daten-Visualisierung werden die 7-Dimensionen der Eingabetabelle auf zwei Dimensionen reduziert. Diese 2D-Repräsentation kann man in einem Graphen darstellen:

In der Grafik sieht man, dass es zwar eine Überlappung zwischen beiden Gruppen gibt, sich eine Vielzahl von orangenen (0-999) Kunden aber tatsächlich auf der linken Bildhälfte befindet und die blauen 1000+-Kunden auf der rechten Seite Platz finden. Das legt nahe, dass es tatsächlich möglich sein wird, anhand der o.g. Eingabedaten die beiden Kundengruppen zu unterscheiden. Neben der t-SNE-Methode wurde in der Explore-Phase eine weitere Visualisierungsmethode angewendet: PCA. Auch diese Methode zeigt, dass die beiden gewünschten Kundengruppen voneinander unterscheidbar sind.
Schritt 2: Das Training
Da die Visualisierungen eine Unterscheidung der Eingabedaten anhand der ausgewählten 7 Dimensionen erlauben, kann man nun mit dem Training beginnen.
Das Training wird für 50 Epochen durchgeführt. Dies sind Teilschritte des Trainings. In jeder Epoche wird der Trainingsdatensatz einmal ins Modell gegeben. Dabei wird der Fehler zwischen erwartetem und tatsächlichem Label (0,1) bestimmt. Anschließend wird das Netzwerk optimiert, sodass die Fehlerwahrscheinlichkeit abnimmt.
Bevor wir mit dem Training beginnen, muss jedoch der Datensatz in 3 Teile eingeteilt werden. Die Aufteilung wird automatisiert und zufällig vorgenommen. Der überwiegende Anteil der Daten (z.B. 75%) ist im Trainingsdatensatz und wird für die Optimierung des Modells verwendet. Zwei weitere Teile (z.B. jeweils 12,5%) werden zur Evaluation der Genauigkeit (sog. Accuracy) außerhalb der Optimierung verwendet.
Schritt 3: Die Evaluation
Nach dem Durchlaufen aller Epochen kommen die Testdaten ins Spiel. Mit diesem Datensatz werden weitere Evaluationen am Ende des Trainings durchgeführt. Passt das trainierte Modell gut zu den Testdaten, sagt das Modell mit einer hohen Genauigkeit voraus, welcher Kunde voraussichtlich mehr als 1.000 € Umsatz generiert und welcher weniger.
In unserem Beispiel-Training kommen wir auf eine Genauigkeit von 87,87 %. Das bedeutet, wenn 100 Kunden in das Netzwerk geladen werden, liegt das Netzwerk bei knapp 88% mit der Einschätzung richtig. Die Genauigkeit je Kundengruppe ergibt Folgendes:
- Wenn das Netzwerk den Wert 0-999 vorhersagt, liegt es in 90% der Fälle richtig
- Wenn das Netzwerk den Wert 1000+ vorhersagt, liegt es in 77% der Fälle richtig
Die unterschiedliche Genauigkeit könnte damit zu erklären sein, dass im Trainingsdatensatz wesentlich mehr Kunden mit einem Umsatz zwischen 0-999 € enthalten waren.
Schritt 4: Der Einsatz des Modells
Nachdem wir die Performance anhand von Daten gemessen haben, die zuvor nicht im Training verwendet wurden, und die Genauigkeit zufriedenstellend ist, können wir das Modell nun im Echtbetrieb einsetzen.
Wir haben zwei fiktive Kunden und müssen für diese folgende 7 Parameter kennen: Age, Income, Education, Marital_Status, Kidhome, Teenhome, Dt_Customer_Years
Unsere fiktiven Kunden sind:
Margret Musterfrau
- Alter: 56
- Jahreseinkommen: 100000
- Bildungsniveau: Phd
- Familienstand: Married
- Anzahl der Teenager im Haushalt: 2
- Anzahl der Kinder im Haushalt: 0
- Kunde seit: 3
Max Mustermann
- Alter: 28
- Jahreseinkommen: 25000
- Bildungsniveau: Graduated
- Familienstand: Divorced
- Anzahl der Teenager im Haushalt: 0
- Anzahl der Kinder im Haushalt: 3
- Kunde seit: 2
Gibt man diese fiktiven Kunden ins Modell erhält man folgendes Ergebnis des Trainings:
- Margret: 1000+
- Max: 0-999
Übertragen auf das Szenario von Zero Hunger kann die NGO aus dieser prädikativen Analyse den Schluss ziehen, dass Margret Musterfrau in jedem Fall zu den Adressaten der Dauerspender-Kampagne zählt. Die Erfolgschancen, dass Margret auf die Kampagne konvertiert, sind laut Modell sehr hoch. Max Mustermann hingegen kann bei der Kampagne vernachlässigt werden, da die Wahrscheinlichkeit, ihn in einen Dauerspender zu überführen, laut Modell sehr gering ist.
Erfolgsmessung
Mithilfe des KPI-Frameworks, das Zero Hunger für die Dauerspender Kampagne aufgesetzt hat, kann der Erfolg der Kampagne gemessen werden. Diese Erfolgsmessung ist zugleich auch der Gradmesser für die Güte des Machine Learning Modells. Ziel ist es, durch die vorherige KI-basierte Spenderanalyse die Responserate des Dauerspendermailings im Vergleich zu Mailings ohne vorherige Analyse zu erhöhen, den Return on Invest zu steigern sowie die durchschnittlichen Kosten pro Dauerspender zu senken. Mittel- bis langfristig soll durch eine erfolgreiche Spenderansprache die Spenderloyalität insgesamt gesteigert werden. Die Daten aus dem KPI-Framework fließen schlussendlich wieder zurück in das Machine Learning Modell. Dadurch wird das Modell fortlaufend trainiert und die Spenderprognose weiter optimiert.
Fazit
Diese fiktive Case Study von Zero Hunger zeigt die Entwicklung eines gemeinnützigen Vereins mit geringem Reifegradlevel hin zu einer datengetriebenen Organisation, die mithilfe von KI-basierten Spenderprognosen die Effektivität ihrer Fundraising-Kampagnen erheblich steigert.
Durch das Beispiel-Training mit einem E-Commerce-Datensatz konnten wir die grundlegenden Schritte der prädikativen Analyse mittels Machine Learning beschreiben. Die Einteilung von Kunden in Klassen mit einem Umsatz über und unter 1.000 EUR spiegelt die Unterscheidung zwischen möglichen Dauerspendern und weniger langfristig engagierten Unterstützern wider. Diese Anpassung auf den gemeinnützigen Sektor zeigt das enorme Anwendungspotential, das KI-basierte Spenderprognosen im Fundraising bieten.
Non-Profit-Organisationen können mithilfe von Machine Learning ihre Spenderdaten analysieren, um potenzielle Dauerspender zu identifizieren. Dieser Ansatz erlaubt es den NGOs, ihre Ressourcen gezielt einzusetzen, um jene Unterstützer anzusprechen, die das größte Potential haben, langfristige Bindungen einzugehen.
Unsere Empfehlung an NGOs ist daher klar: Es lohnt sich, die Schätze in den eigenen Spenderdaten mithilfe von KI zu heben. Eine organisationsweise Datenstrategie und eine nachhaltige Datenkultur bieten dafür ein stabiles Fundament.
Die Fallstudie wurde zusammen mit dem IT-Büdchen erarbeitet. Das IT-Büdchen unterstützt insbesondere NGO dabei, Kampagnen zu gestalten, zu kommunizieren, zu steuern und zu messen.
Spenderanalyse mit KI - Teil I
Spenderanalyse mit KI - Teil I
Lesedauer: 7 Minuten
Künstliche Intelligenz (KI) und maschinelles Lernen bieten für NGO vielversprechende Ansätze im Fundraising. So können beispielsweise mithilfe von KI-getriebenen Prozessen Prognosen erstellt werden, welche Unterstützer das größte Potenzial haben, langfristige Dauerspender zu werden. Doch bevor in die Welt von Prognosen und Vorhersagen eingetaucht werden kann, muss sichergestellt sein, dass eine solide Basis für datengestütztes Arbeiten vorliegt.
Einführung in die fiktive Fallstudie
Um die im folgenden Artikel vorgestellten Methoden möglichst praxisnah zu beschreiben und vorzustellen, haben wir ein fiktives Szenario entwickelt. Dieses Szenario umfasst die fiktive Non-Profit-Organisation Zero Hunger e.V.
Wer ist Zero Hunger?
Zero Hunger wurde 1985 als Reaktion auf die große Hungersnot in Äthiopien gegründet. Inzwischen fördert die NGO Ernährungsprojekte in 180 Ländern in Afrika, Lateinamerika und Südostasien.
Das Fundraising von Zero Hunger
Das jährliche Spendenvolumen in Höhe von 142,6 Mio. € speist sich zu 30 % aus staatlichen Mitteln. Vor 5 Jahren lag dieser Anteil noch bei 45 %. Um dem Rückgang von staatlichen Mitteln entgegenzuwirken, hat Zero Hunger eine Dauerspender-Strategie entwickelt. Innerhalb der nächsten 3 Jahre soll sich der Anteil der Dauerspender*innen, die mindestens 50 EUR im Monat spenden, verdoppelt haben. Um dieses Ziel zu erreichen, möchte Zero Hunger eine Kampagne zur Gewinnung von neuen Dauerspendern aufsetzen.
Datengrundlage für das Fundraising
Dem Verein stehen für die Kampagne verschiedenste Fundraising-Kanäle und -Aktivitäten zur Verfügung, z.B. Print-Mailings, Website, Social Media Fundraising, Newsletter etc. Das Problem: Die Daten, die durch die Fundraising-Aktivitäten produziert werden, sind nicht systematisch erfasst. Viele Daten liegen in einzelnen Daten-Silos und sind nicht miteinander vernetzt. Dementsprechend kann der Erfolg der Dauerspender-Kampagne nicht strategisch ausgewertet werden.
Fundraising und KI
Die frisch eingesetzte Geschäftsführerin von Zero Hunger ist ein großer Fan von datengetriebenen Entscheidungen und offen gegenüber Innovationen. Sie nimmt die Dauerspender-Kampagne zum Anlass, um zusammen mit einer externen Beratung eine Datenstrategie zu erarbeiten und zu implementieren, um so den eigenen Digital Analytics Reifegrad zu steigern. Die Datenstrategie soll jedoch nur der erste Schritt sein. Im zweiten Schritt sollen mittels KI und Machine Learning Prognosen über das Verhalten von Spenderinnen und Spendern getroffen werden. Diese Prognosen sollen die Basis für die Kampagne zur Gewinnung von neuen Dauerspendern bilden.
Bevor der fiktive Verein Zero Hunger also in der Lage ist, mittels KI und Predictive Analytics die Kampagne zur Gewinnung von Dauerspendern zu optimieren, muss erst die Grundlage für eine datengetriebene Organisation geschaffen werden. Bis jetzt befindet sich die fiktive NGO Zero Hunger auf einem niedrigen Reifegradlevel. Das bedeutet, dass Daten weder systematisch erfasst noch für die Optimierung der eigenen Fundraising-Maßnahmen genutzt werden. Um die ersten Schritte hin zu einem datengetriebenen Verein zu machen und eine nachhaltige Datenkultur zu etablieren, bildet ab sofort die organisationsweite Datenstrategie die Basis des operativen Handelns.
Schritt 1: Zielsetzung
Um neue Dauerspender zu gewinnen, setzt Zero Hunger auf eine Vielzahl von Fundraising-Kanälen und -Aktivitäten. Die verschiedenen Social-Media-Kanäle oder Newsletter sind super Möglichkeiten, um Awareness für verschiedene Kampagnen und die Mission des Vereins zu generieren. Entlang der Donor Journey im digitalen Fundraising ist allerdings die eigene Website der wichtigste Touchpoint, denn über diese konvertieren Besucher letztendlich zu Spendern. Für Zero Hunger ist es also essenziell, sowohl den Traffic aus den verschiedenen Marketingkanälen als auch den Traffic auf der eigenen Website messbar zu machen und mithilfe von datengetriebenen Insights Handlungsempfehlungen daraus abzuleiten. Dafür muss sich Zero Hunger zunächst folgende Frage beantworten: Warum werden Daten gesammelt und was soll damit erreicht werden?
Mehr Kanäle bedeuten mehr Daten – auch für Zero Hunger. Da bis jetzt keine organisationsweite Datenstrategie vorlag, liegen die Daten der verschiedenen Kanäle dezentral in einzelnen Datensilos. Das Team weiß also gar nicht, welche Daten innerhalb der Dauerspenderkampagne erfasst werden sollen, wo diese hinfließen sollen und in welcher Form diese aufbereitet werden müssen, um eine saubere Entscheidungsgrundlage liefern zu können. Ein einheitliches und allgemeingültiges Zielbild sorgt an dieser Stelle für Ordnung. In diesem sollen die strategischen Ziele der Dauerspender-Kampagne definiert und an das Team kommuniziert werden. Im Zuge der Entwicklung einer Datenstrategie erarbeitet der Verein gemeinsam mit der externen Beratung ein KPI-Framework.
Folgende Fragen muss sich Zero Hunger vor Erstellung des KPI-Frameworks beantworten können:
- Können wir unser strategisches Ziel (Spendenvolumen steigern) in kleinere (Teil-)ziele schneiden?
- Welche Kennzahl eignet sich am besten für die Messung der Zielerreichung?
- Welcher Zielwert stellt einen Erfolg dar?
- Wie möchte ich die einzelnen Kennzahlen segmentieren können?
Mithilfe eines KPI-Frameworks kann Zero Hunger die Erreichung übergeordneter (Teil-)Ziele und die Performance der wichtigsten Kanäle messbar machen. Um die Zielerreichung der Maßnahmen hinterher auf einen Blick einsehen zu können, muss jedem Teilziel ein konkreter Key Performance Indicator (KPI) samt Zielwert zugeordnet werden. Die KPI lässt sich anschließend noch weiter segmentieren, um eine granulare Beobachtung verschiedener Kanäle oder Endgeräte zu ermöglichen.
So könnte ein exemplarisches KPI Framework aussehen:

Zero Hunger hat das übergeordnete, strategische Ziel in drei kleinere Teilziele heruntergebrochen. Im ersten Schritt möchte der Verein wissen, wie effizient die Akquise bzw. Ansprache von Dauerspendern verläuft. Dafür betrachtet Zero Hunger die Responserate von bereits erfassten Spendern in den Kanälen Mailing und Telefon. In nächsten Schritt betrachtet Zero Hunger die durchschnittliche Spendensumme pro Dauerspender. Der Zielwert von 50 Euro wurde bereits von der Geschäftsführung kommuniziert. Die Betrachtung des ROI (Return on Investment) stellt sicher, dass das Marketingbudget in den verschiedenen Kanälen effizient eingesetzt wird. Ergänzend dazu möchte Zero Hunger eine hohe Spenderloyalität sicherstellen. Dafür wird, neben dem bloßen Spendenvolumen, auch die Anzahl der Spenden pro Dauerspender sowie die Spenderbindungsquote festgehalten.
Schritt 2: Datenverarbeitungskonzept
Durch das KPI-Framework stellt Zero Hunger sicher, dass die Performance aller relevanten Touchpoints und Datenpunkte innerhalb der Dauerspenderkampagne messbar gemacht wird. Doch um die Daten später auswerten und interpretieren zu können, müssen diese noch bereinigt, zusammengeführt und in eine Datenbank eingespeist werden. Auf Basis der Datenstrategie entwickelt Zero Hunger dafür ein klares Konzept für die interne Datenverarbeitung. Neben den genutzten Fundraising-Kanälen prüft Zero Hunger auch die Möglichkeit, zusätzliche Datenquellen wie CRM-Systeme, Spenderdatenbanken oder externe APIs in den Techstack aufzunehmen. Um das Konzept wie gewünscht ausliefern zu können, entwirft die externe Beratung eine Checkliste für die Geschäftsführung:
- Dateninventar und -quellen
- Welche aktuellen Datenquellen und -kanäle werden von Zero Hunger genutzt?
- Wie relevant sind diese Daten bezüglich der Zielerreichung der Kampagne?
- Technologieauswahl
- Wie sieht der Tool- und Techstack aktuell aus?
- Wie soll dieser zukünftig erweitert werden?
- Datenqualität und Datenbereinigung
- Wie wird eine ausreichend hohe Datenqualität hinsichtlich Genauigkeit, Vollständigkeit und Aktualität sichergestellt?
- Welche Maßnahmen werden zur Bereinigung und Korrektur von Datenfehlern, -lücken und -dubletten durchgeführt?
- Datenvalidierung und -interpretation
- Wie werden die gewonnenen Daten und deren Interpretation validiert?
- Wer ist verantwortlich für die Ableitung von Handlungsempfehlungen?
- Datenintegration und -zusammenführung
- Wo sollen die Daten zusammengeführt werden?
- Wo sollen diese final gespeichert werden?
- Datenschutz und Datensicherheit
- Wie werden personenbezogene Daten gemäß Datenschutzrichtlinien behandelt?
- Welche Sicherheitsvorkehrungen stehen bereits gegen unbefugten Zugriff und Datenlecks?
- Dokumentation
- Wo und in welchem Format wird die Datenstruktur dokumentiert?
Das neue Datenverarbeitungskonzept ermöglicht es Zero Hunger, unter anderem, sowohl strukturierte als auch unstrukturierte Daten betrachten zu können. In der neu eingeführten Data-Lake-Architektur können die Daten dabei in ihrer ursprünglichen Form gespeichert und bei Bedarf abgerufen werden. Um agil auf wechselnde Anforderungen wie größere Datenmengen reagieren zu können, hält Zero Hunger die Datenarchitektur bewusst flexibel. So können zukünftig neue Datenquellen oder Analysetechnologien einfacher integriert werden.
Um eine ausreichende Datenqualität sicherzustellen, etabliert Zero Hunger leichtgewichtige Prozesse zur Datenqualitätskontrolle. Diese geben vor, wie Daten regelmäßig bereinigt werden, um Duplikate, fehlende Werte oder Inkonsistenzen zu beseitigen. Um die Datentransformation zu vereinfachen, nutzt Zero Hunger ein geeignetes Datenmodell, welches die Struktur der gesammelten Daten widerspiegelt und gleichzeitig die Analyseanforderungen unterstützt. Hier werden sowohl die verschiedenen Segmente der Kampagnendaten (z. B. Spender, Kampagnen, Kanäle) als auch die festgelegten KPI berücksichtigt. Auch an dieser Stelle etabliert Zero Hunger unterstützend zur neuen Technologie (ETL-)Prozesse (Extract, Transform, Load), um die Rohdaten in analysierbare Formate zu bringen. Pro Quellsystem muss es jeweils einen eigenen ETL-Prozess geben. Zusätzlich schult Zero Hunger die eigenen Mitarbeiter kleinteilig und rollenspezifisch im Umgang mit neuen Tools oder Technologien. So bauen diese kontinuierlich die benötigte Datenkompetenz für den Umgang mit diesen auf.
Schritt 3: Datenerfassung
Zero Hunger hat nun ein sehr gutes Verständnis davon, welche Daten relevant für die Zielerreichung der Dauerspender-Kampagne sind und wie der interne Datenfluss aussieht. Ohne dieses gemeinsame Zielbild wäre der Verein im Blindflug unterwegs und einer erhöhten Gefahr des zielfremden Handelns im Marketing und Vertrieb ausgesetzt. Allen Stakeholdern im Verein ist nun klar, welche Kanäle gemessen werden und wie generierte Daten intern weiterverarbeitet werden. Ein Blick auf das neu eingeführte KPI-Framework zeigt, welche Datenpunkte die wichtigsten für die Dauerspender-Kampagne sind und welche Kanäle priorisiert werden müssen. Um eine saubere Datenerfassung und eine qualitativ hochwertige Weiterverarbeitung sicherzustellen, erarbeitet Zero Hunger im nächsten Schritt gemeinsam mit der externen Beratung ein Trackingkonzept inklusive Dokumentation.
Im Trackingkonzept werden alle kampagnenspezifischen Trackingaktionen, Parameter und Events festgehalten. Als Grundlage für das Trackingkonzept dient das KPI-Framework. Für die dort definierten KPIs wird detailliert beschrieben, was konkret auf der Website passiert und wie genau der Trigger, also der Auslöser, für jedes einzelne Event auszusehen hat. Anschließend folgt eine technische Definition des Data Layers. In dieser wird festgehalten, welcher Data Layer Push verwendet wird, um beispielsweise Produkt-Impressionen zu erfassen. Zusätzlich dazu müssen noch die Ereignisparameter für Google Analytics definiert werden. Hier muss jedem Ereignisparameter ein Ereigniswert zugeordnet werden. Nach der Implementierung des Trackingkonzeptes folgt noch ein Testing zur Erfolgskontrolle. Eine anschließende Dokumentation der technischen Integration und Konfiguration der eingesetzten Tools ermöglicht weiteren Kolleg*innen sich leichter einzuarbeiten und zukünftige Anpassungen eigenständig durchzuführen.

Technische Definition: Data Layer
Der Data Layer Push der nötig ist, um den Start des Spenden Checkout Prozesses zu messen (Klickinteraktion auf “Jetzt spenden” Button) muss wie folgt implementiert werden:

Event Parameter
Das Start Event des Checkouts wird genutzt, um den ersten Schritt innerhalb des Checkout-Prozesses zu messen.
Die folgenden Variablen werden mit jedem gestarteten Checkout-Prozess übertragen:

Schritt 4: Datenvisualisierung
Zero Hunger ist jetzt auf einem guten Weg, datengetrieben arbeiten zu können und eine Datenkultur etabliert zu haben. Die für die Dauerspender-Kampagne benötigten Daten werden erfasst und entsprechend aufbereitet. Dem Verein fehlt allerdings noch eine Möglichkeit, um die Daten allen Stakeholdern zur Verfügung zu stellen und sie anschaulich zu visualisieren. Erst dann schaffen die erfassten Daten einen Mehrwert und können in die Entscheidungsunterstützung einfließen. Ein sauber aufgesetztes Dashboard visualisiert die relevanten Daten anschaulich und ermöglicht eine Auswertung des IST-Zustandes einer Kampagne bereits mit wenigen Klicks. Für einfache Kampagnen reicht oft ein Standard-Dashboard ohne große Personalisierung. Je nach Tool lassen sich diese vergleichsweise schnell aufsetzen.
Für die Dauerspender-Kampagne hat sich die Geschäftsführung von Zero Hunger für die Einführung eines maßgeschneiderten Dashboards durch externe Beratung entschieden. Dieses ermöglicht eine Betrachtung und Auswertung der Kampagnenkennzahlen auf einen Blick. Damit die gemeinsame Auswertung der Kampagne keine einmalige Angelegenheit bleibt, führt Zero Hunger einen weiteren leichtgewichtigen Prozess für die bestmögliche Nutzung des Dashboards ein. Hierbei wird beschrieben, dass das gesamte Marketingteam in einem monatlichen Review einen genauen Blick auf die Kampagnenperformance wirft. Sollten die festgelegten Ziele nicht erreicht werden, können datengetriebene Entscheidungen bezüglich weiterer Fundraising-Maßnahmen getroffen werden. Wenn der teuer bezahlte Paid-Kanal nicht die benötigten Dauerspender einbringt, kann das Budget neu verteilt und für erfolgreichere Kanäle wie den Newsletter verwendet werden. Ein gutes Fundraising-Dashboard trägt maßgeblich dazu bei, zielfremdes Handeln zu reduzieren und die Marketingausgaben zu senken. Dieser datengetriebene Ansatz erleichtert auch das Testen neuer Maßnahmen, da der (Miss-)Erfolg deutlich und zeitnah nachgewiesen ist.
So könnte das Dashboard in der fiktiven Fallstudie aussehen:

Fazit
Die Geschäftsführerin von Zero Hunger blickt stolz auf das frisch geschaffene KPI-Framework. Zusammen mit dem Datenverarbeitungs- und dem Tracking-Konzept wurde eine Basis geschaffen, um Fundraising-Aktivitäten ab sofort systematisch messen und auswerten zu können. Der Verein ist nun in der Lage, datengetriebene Entscheidungen für das Fundraising des Vereins zu treffen.
Nun möchte der Verein den nächsten digitalen Reifegrad erreichen: Mit Technologien des Machine Learnings (ML) sollen Prognosen über das Verhalten von Spenderinnen und Spendern getroffen werden. Diese Prognosen sollen die Basis für die geplante Dauerspender-Kampagne bilden.
Im nächsten Teil der fiktiven Fallstudie zeigen wir auf, wie auf Basis der neu geschaffenen Grundlage eine Onboarding Kampagne für Dauerspender mithilfe von Predictive Analytics aufgezogen werden kann.
Die Fallstudie wurde zusammen mit dem IT-Büdchen erarbeitet. Das IT-Büdchen unterstützt insbesondere NGO dabei, Kampagnen zu gestalten, zu kommunizieren, zu steuern und zu messen.
Mit der richtigen Strategie zu Google Analytics 4 – Fünf Tipps für eine gelungene Migration
Mit der richtigen Strategie zu Google Analytics 4 – Fünf Tipps für eine gelungene Migration
Lesedauer: 6 Minuten
Google Analytics ist seit Jahren das am meisten eingesetzte Webanalyse-Tool im Markt. Um den wachsenden Anforderungen gerecht zu werden, hat der Internetgigant seine Lösung nun signifikant weiterentwickelt. Das zieht für alle Anwender eine große Umstellung nach sich. Die neue Lösung Google Analytics 4 (GA4) wird das bisherige Universal Analytics (UA) ersetzen. Dieses wird in Kürze komplett abgeschaltet.
Bereits ab dem 1. Juli 2023 werden in standardmäßigen Universal Analytics Properties keine neuen Treffer mehr verarbeitet. Universal Analytics 360 Properties können noch bis zum 1. Juli 2024 Daten erfassen. Wer Universal Analytics verwendet, sollte spätestens jetzt eine Strategie für den Umstieg auf GA4 entwickeln oder genau prüfen, ob eventuell eine andere Webanalyse-Lösung für die gewünschten Ziele infrage kommt.
Wenn Sie sich jetzt strategisch um die Migration kümmern, können Sie viel Potenzial freischalten: Google verspricht für seine neue Lösung neben verbesserten Analyse- und Visualisierungsmöglichkeiten insbesondere Zukunftssicherheit, da GA4 auch ein datenschutzkonformes, serverseitiges Tracking ermöglicht. Die Prognosen sollen dank Machine Learning präziser werden; zudem lässt sich das Tool gut mit anderen Lösungen im Google-Universum verzahnen.
Doch die Uhr tickt: Bis einschließlich 30. Juni 2023 können Unternehmen in standardmäßigen Universal Analytics-Properties noch Daten erheben und verwenden. Ab dem 1. Juli 2023 ist es nur noch möglich, auf zuvor verarbeitete Daten in der Universal Analytics-Property zuzugreifen. Und auch das ist nur für sechs Monate garantiert. Anschließend werden Universal Analytics-Properties nicht mehr zur Verfügung stehen. Ein konkretes Datum für das komplette Abschalten will Google in Kürze bekanntgeben. Die gute Nachricht: Mit der richtigen Strategie kann schnell und sicher auf GA4 umgestellt werden. Für einfache Setups ist eine Migration meist in ein oder zwei Wochen erledigt. Damit Sie ein Gefühl für das neue Tool bekommen, hat Google ein Demo-Konto eingerichtet.
Wie bei jeder Umstellung lauern allerdings auch hier Tücken. Im Worst Case können Daten verloren gehen, Analysen unterbrechen oder sogar Umsätze ausfallen, wenn bei der Migration Fehler gemacht werden und man zeitweise im Blindflug agiert. Man muss beachten, dass es sich nicht um ein einfaches Update, sondern quasi um ein neues Tool handelt. Bestehende Konten können nicht per copy&paste „übernommen“ werden. Stattdessen müssen neue GA4-Properties konfiguriert werden. Ebenso kann es bei der Umstellung zu Unstimmigkeiten in der Auswertung kommen, wenn nicht sauber migriert wird.
Sie sollten die GA4-Migration daher nicht auf die leichte Schulter nehmen, sie gehört in Experten-Hände. Eine GA4-Migration muss sauber geplant und ebenso sauber umgesetzt werden. Basis für die erfolgreiche technische Umsetzung ist die strategische Planung. Folgende fünf Punkte sollten Sie in Ihrer Strategie unbedingt berücksichtigen, damit der Umstieg problemlos gelingt:
Tipp 1: Nicht abwarten, handeln!
Entwerfen Sie eine Strategie und stellen Sie jetzt die richtigen Weichen für eine gelungene GA4 Migration. Dazu sollten Sie zunächst ihre Erwartungen hinterfragen und ihre Analytics-Ziele definieren: Welche Fragen soll GA4 beantworten, welche Informationen müssen dafür gesammelt werden und wofür sollen diese Informationen genutzt werden? Auf diese Weise wird ersichtlich, welche Daten und Analysen in jedem Fall zu GA4 umgezogen werden müssen. Bei dieser Gelegenheit können Sie gleich überprüfen (oder überprüfen lassen) ob alle benötigten Kennzahlen tatsächlich bereits in Universal Analytics gemessen werden – denn was bisher nicht erhoben wird, kann auch nicht migriert werden. Nutzen Sie die Umstellung also auch als Chance für die Verbesserung Ihrer Messungen! Mitunter kann es sogar sinnvoll sein, die „alten“ Universal Analytics Daten über BigQuery bei Google auszulesen und im eigenen Data Warehouse abzuspeichern. Data Warehouse Experten können Ihnen hier mit weiteren Tipps und Anregungen weiterhelfen, um eine optimale Performance zu erreichen.
Für eine reibungslose Migration sollten Schnittstellen, Ansichten und DSGVO-Anforderungen in der Zielsetzung berücksichtig werden. Informieren Sie sich im Vorfeld auch darüber, welche neuen Möglichkeiten GA4 speziell für ihr Business bietet und nehmen Sie dies als Wunsch an Ihr Implementierungsteam auf. Auch welche KPI gemessen und welche Nutzerinteraktionen erfasst werden sollen, gehören in eine Anforderungsanalyse. Sie wird in der Regel später zusammen mit ihrem Implementierungsteam erarbeitet, aber es ist hilfreich, sich schon frühzeitig damit zu beschäftigen.
Ebenso sollten Sie sich bereits vor der eigentlichen Migration Gedanken über die nötigen Nutzerrollen machen – wer im Unternehmen muss und wer darf Zugriff auf welche Daten haben? Eng damit verknüpft ist die Überlegung, ob durch die angestrebte Rollenverteilung Schulungsbedarf entsteht – und wenn ja, für welche Mitarbeiter.

Foto von Austin Chan auf Unsplash
Tipp 2: Verantwortlichkeiten und Prozesse definieren
Ähnlich wie bei einem klassischen IT-Projekt kommt der Ressourcenplanung bei der GA4-Migration eine Schlüsselrolle zu. Ermitteln Sie, welche Ressourcen für den Migrationsprozess in jedem Fall benötigt werden:
- Sind entsprechende Ressourcen und Know-how intern vorhanden oder benötigen Sie externe Hilfe?
- Wer leitet das Projekt, wer sind Ansprechpartner?
- Können Testszenarien etabliert werden?
- Wie kann im laufenden Betrieb umgestellt werden?
- Bis wann soll der Umstieg abgeschlossen sein? Legen Sie einen detaillierten Zeitrahmen fest.
Damit der Umstieg auch im laufenden Betrieb reibungslos verläuft, sollten Sie Universell Analytics und Google Analytics 4 so lange wie möglich parallel laufen lassen, um Ergebnisse zu vergleichen, feinzujustieren und eine solide Datenbasis in GA4 zu schaffen, bevor UA abgeschaltet wird. Außerdem können Sie im Parallelbetrieb besser nachvollziehen, wie sich Veränderungen in der Datenerhebung und den Metriken im Reporting auswirken.
Tipp 3: Vor Datenverlusten schützen
Voraussichtlich Ende des Jahres 2023 wird der Zugriff auf Universal Analytics Properties komplett gekappt. Daher ist es wichtig, die Berichte zu historischen Daten rechtzeitig zu exportieren. Dies kann in verschiedenen Formaten erfolgen, unter anderem in CSV, PDF, Google Tabellen oder auch Microsoft Excel. Ebenso können Daten mit der Google Analytics Reporting API exportiert werden. Google Analytics 360-Kunden können auch Daten in BigQuery – in das Data Warehouse auf der Google Cloud Platform – exportieren.
Ihre Daten werden aber nicht zwangsläufig von einem System in ein neues übertragen. Vielmehr werden im Regelfall die neuen Daten – mit potenziell gleichen Trackingpunkten – in einem neuen Datentopf erfasst. Um einem Datenverlust schon im Vorfeld vorzubeugen, sollten Sie daher besonderes Augenmerk auf eine akribische Konzeption legen. Sie sollten insbesondere darauf achten, dass keine der bisher relevanten Trackingpunkte beim Umstieg auf GA4 vergessen werden.
Tipp 4: Umsetzen (lassen) und auf Qualität achten
Sind das Know-how und die Ressourcen bei Ihnen inhouse verfügbar, können Sie intern ein Implementierungsteam beauftragen. Sie ersparen sich damit die Dienstleisterkosten. Auf der anderen Seite bietet es sich insbesondere für ein solches Projekt an, auf externe Digital-Experten zurückzugreifen, da diese Dienstleister in der Regel bereits wertvolle Praxiserfahrungen mit der Umstellung anderer Kunden gesammelt haben. Das sorgt für flüssige Prozesse und stellt von vornherein eine hohe Qualität der Migration sicher. Sind Know-how und/oder personelle Ressourcen im eigenen Haus nicht vorhanden, müssen Sie möglichst frühzeitig externe Experten hinzuziehen.
Um die Zusammenarbeit mit dem Implementierungsteam optimal vorzubereiten, sollten Sie Ihre betriebswirtschaftlichen Anforderungen und die benötigten Kennzahlen klar formulieren können. Denken Sie an dieser Stelle auch gern einen Schritt weiter: Müssen noch weitere Daten angebunden werden? Zum Beispiel Google Ads, Google Search Konsole, BigQuery? Und vor allem sollten Sie auch bereits an dieser Stelle die späteren Prozesse in Ihrem Unternehmen im Blick haben: Welche Datenansichten benötigen Sie in Ihrem Bereich, um die richtigen Entscheidungen treffen zu können – loten Sie daher auch die Personalisierungs- und Filtermöglichkeiten des Dashboards aus.
Achten Sie vor allem darauf, dass die Anforderungen an Datenschutz und DSGVO frühzeitig berücksichtigt werden. Dazu ist es beispielsweise auch wichtig zu wissen, welche Cookies von welchem Anbieter wie lange die Daten speichern. Ein ganz besonderes Augenmerk müssen Sie beim Thema Datenschutz auf das Consent Management legen. Ohne Einwilligung der Nutzer dürfen Sie keine Daten zum Nutzerverhalten speichern. Es ist somit sehr hilfreich, sich bereits vor der eigentlichen technischen Migration auf GA4 Gedanken darüber zu machen, wie das Consent-Management stattfinden soll. Sie können zum Beispiel ein Einwilligungsbanner, eine benutzerdefinierte Lösung oder eine Plattform zur Einwilligungsverwaltung (Consent Management Platform, CMP) verwenden. Nicht zuletzt sollten Sie auf eine korrekte Datenschutzerklärung auf der analysierten Website achten.
Tipp 5: Testen, schulen, optimieren
Ist die technische Migration abgeschlossen, sollten Sie ein Feintuning nachschieben. Jetzt gilt es, Berichte und Benutzeroberflächen zu individualisieren, diese immer wieder zu optimieren und – falls nötig – die Mitarbeiter darauf schulen. Dieser Bedarf kann je nach Anforderung und Position unterschiedlich sein, je nachdem ob zum Beispiel Marketing, Sales, C-Level, Webdesigner oder eine andere Rolle im Unternehmen mit den analysierten Daten arbeiten soll. Wichtig ist auch ein kontinuierlicher Qualitätscheck: Funktionieren Verlinkungen und Tracking? Echtzeitberichte geben schnell über Fehler Aufschluss, insbesondere, wenn sie Ergebnisse noch mit der parallellaufenden UA-Version vergleichen können.
Ebenso kann es hilfreich sein, in einem Fragebogen an die Online-Marketing-Stakeholder*innen abzufragen, welche Kennzahlen sie in ihrer Arbeit aus dem Dashboard zurate gezogen haben. Damit lässt sich beispielsweise eine halbjährige Qualitätskontrolle verbinden, indem die Nutzerzufriedenheit abgefragt wird: „Werden die betriebswirtschaftlichen Kennzahlen durch die Metriken so untermauert, dass sie das Arbeiten vereinfachen?“ „Welche Kennzahlen wünschen Sie sich?“ Ein solcher Fragebogen kann gleichzeitig als Grundlage für immer wiederkehrende Optimierungen dienen. Zu guter Letzt sollten Sie die Augen offenhalten und auf Updates achten, um gegebenenfalls neue Funktionen zu implementieren.

Screenshot eines Google Analytics 4 Demo Accounts.
Fazit und Empfehlung
Es zeigt sich, dass eine erfolgreiche Migration mehr ist als eine reine technische Umsetzung. Doch die Zeit drängt. Abwarten ist in Anbetracht des von Google gesteckten Zeitplanes nicht zu empfehlen. Wenn Sie hingegen die ersten Monate dieses Jahres nutzen, um eine passende Strategie für den Umstieg auf die neue Lösung zu entwickeln, steht einer reibungslosen und pünktlichen GA4-Migration nichts im Weg. Auf den Schutz Ihrer Daten und eine hohe Umsetzungsqualität sollten sie dabei besonderes Augenmerk legen. Lassen Sie sich unkompliziert beraten und bringen Sie Ihre Webanalyse auf den richtigen Weg.
Für die eigentliche technische GA4-Migration empfehlen wir, auf eine standartisierte Lösung zu setzen, bei der Kosten, Umfang und Dauer klar definiert sind. Damit vermeiden Sie unangenehme Überraschungen oder Endlos-Migrationen, wie es bei vergleichbaren IT-Projekten mitunter zu beobachten ist.
Sollten Sie Fragen haben, sprechen Sie uns an. Unsere erfahrenen GA4-Experten beraten Sie gern und übernehmen auf Wunsch auch die komplette Umstellung Ihrer Properties.
Besser entscheiden – 5 Tipps für ein exzellentes Dashboard
Besser entscheiden – 5 Tipps für ein exzellentes Dashboard
Lesedauer: 6 Minuten
Es ist eine Krux: Jeder spricht von datenbasierten Entscheidungen, aber in der Praxis ist das oft schwer umsetzbar. Das Hauptproblem ist, dass Daten häufig in unterschiedlichen Silos abgelegt und nicht ganzheitlich betrachtet werden. Teilweise müssen daher mehrere Systeme bedient werden, um sie einsehen zu können. Single Point of Truth? Fehlanzeige. Von den üblichen Diskrepanzen zwischen verschiedenen Teams und Verantwortungsbereichen ganz zu schweigen. Wenn beispielsweise das Marketing den Umweg über die IT gehen muss, um Website-Daten und Analytics Insights einzusehen, sorgt das dafür, dass beide Teams ausgebremst werden und nicht flexibel arbeiten können. Hinzukommen Fachkräftemangel, enge Budgets und immer mehr Zeitdruck: Es ist heutzutage einfach kein Platz mehr für langsame oder falsche Entscheidungen – und die sollten auf Daten basieren und nicht auf dem Bauchgefühl. So wird es eingefordert. Doch keine Sorge: Sie müssen nicht das gesamte Unternehmen auf den Kopf stellen, um datenbasiert bessere Entscheidungen treffen zu können. Optimierte Dashboards können ein gewaltiger Turbo sein.
Gängige Business Intelligence Tools ermöglichen es, Daten aus unterschiedlichen Silos zentral mit Hilfe von Dashboards zu visualisieren und verbessern die Zusammenarbeit – sowohl im Team als auch abteilungsübergreifend. Außerdem erweitern und präzisieren sie das Reporting. Business Intelligence Tools wie Tableau, Power Bi und Domo sind im Markt weit verbreitet. Auch Google bietet mit Looker Studio (ehemals Google Data Studio) eine eigene BI Lösung an. Solche Tools im Default-Modus zu betreiben, ist ein Schritt in die richtige Richtung. Doch die richtige Power entfaltet ein Dashboard erst, wenn man es optimal auf die Ziele und Bedürfnisse der jeweiligen Nutzer ausrichtet.
Und das ist dringend nötig. Ob Personal, Marketing oder Vertrieb – verschiedene Units haben unterschiedliche Anforderungen. Außerdem besteht die Herausforderung, je nach Szenario und Nutzerrolle die wirklich aussagekräftigen Kennzahlen auszuwählen. Wer sich hier mit dem Standard zufrieden gibt, verschenkt viel Potenzial. Wenn Sie hingegen Dashboards gezielt und anforderungsspezifisch optimieren, können Sie Erfolge genauer messen und somit auch präziser und schneller entscheiden. Schneller entscheiden bedeutet übrigens auch, schneller zu reagieren – und das kann sogar beim Kostensparen helfen, denn Sie sehen sofort, wo Geld verbrannt wird und wo das Budget besser investiert wäre. Im Idealfall gibt das System sogar konkrete Handlungsempfehlungen. In der Praxis zeigt sich immer wieder: Schon kleine Optimierungen am Dashboard können Großes bewirken.
Folgende Tipps helfen Ihnen, aus Ihrem Standard-Tool ein exzellentes Dashboard zu machen:
Tipp 1: Gehen Sie strukturiert und in kleinen Schritten vor
Es ist verlockend, zuerst auf den Datenberg zu schauen und sich dann zu fragen, was man daraus machen könnte. Aber das ist der falsche Ansatz. Stattdessen sollten Sie für Ihre Optimierungen mit konkreten Zielvorgaben arbeiten. Was ist das Ziel und welche Entscheidungen sind dafür nötig – und welche Analysen müssen somit optimiert werden, um dieses Ziel besser zu erreichen? Sind die nötigen Analysen identifiziert, muss sichergestellt sein, dass die für diese Optimierung nötigen Datenquellen vorhanden und nutzbar sind.
Aber Achtung: Nicht mehr Daten sind das Ziel, sondern die richtigen. Zu viele Daten können aussagekräftige Visualisierungen und klare Entscheidungen gleichermaßen erschweren. Schärfen Sie Ihre Ziele und die dafür nötigen Reports, und gehen Sie dabei strukturiert vor. Bedenken Sie, dass Dashboards zielgruppenspezifisch angepasst werden müssen. Operative Nutzer benötigen eher tiefgehende und granulare Daten, Geschäftsführer hingegen eher oberflächlichere Daten. Besonders erfolgversprechend ist ein iteratives Optimieren in kleinen Schritten – Team für Team, Abteilung für Abteilung.
Tipp 2: Optimieren Sie Leistung und Geschwindigkeit
Ein gutes Dashboard muss nicht nur einfach zu bedienen sein, sondern auch optimal performen. Leistung und Geschwindigkeit können mitunter schon mit wenigen Einstellungen gesteigert werden. Zunächst sollten Sie das Reporting und die zugrunde liegenden Messdaten auf den Prüfstand stellen: Welche Kennzahlen müssen wirklich im Report aufgeführt werden? Welche sind wenig zielführend? Insbesondere sollten Sie überprüfen, ob wirklich alle Daten eine Visualisierung benötigen. Wenn Sie hier unnötige Informationen aussieben, können Sie Ladezeiten verringern und Speicherkapazitäten einsparen. Aber Achtung: Dabei ist Fingerspitzengefühl gefragt: Falsche Daten führen zu falschen Schlüssen und somit zu falschen Entscheidungen.
Ein gern genommener Fallstrick ist in diesem Zusammenhang, keine Kennzahlen zu betrachten, sondern lediglich viele Messwerte. Doch erst Kennzahlen können Zustände und Vorgänge quantifizieren, da sie Messwerte in Bezug zu anderen Daten oder Prozessen setzen. Für eine Entscheidungsfindung sind insbesondere die KPI (Key Performance Indicators) relevant – also entscheidende Kennzahlen, welche die kritischen Erfolgsfaktoren widerspiegeln, die für eine bestimmte Zielsetzung nötig sind. Management Dashboards sollten sich auf diese beschränken. Idealerweise gibt es im Unternehmen bereits ein einheitliches Verständnis, mit welchem Dashboard KPI welches Ziel gemessen wird. Falls nicht, sollte ein KPI Framework der Dashboard-Optimierung voraus gehen.

Photo by Stephen Dawson on Unsplash
Tipp 3: Visualisieren Sie effizienter und aussagekräftiger
Um aussagekräftige Visualisierungen auf das Dashboard zu zaubern, sollten Sie mit Ebenen und Hierarchien arbeiten. Über clevere Drill-Down-Menüs können Sie ausgehend von einer Gesamtansicht dann detaillierte Einblicke erhalten, indem Sie – oder Ihre Teammitglieder – sich in Ergebnisse „hineinzoomen“. Generell hat sich für den Aufbau der Visualisierungen die „2-20-200“-Regel bewährt: In den ersten zwei Sekunden muss sich beim Blick auf ein Dashboard die Gesamtsituation erschließen. Läuft es gut oder besteht Handlungsbedarf? In den folgenden 20 Sekunden hat man Gelegenheit, genauer hinzuschauen: Welche Entwicklungen sind für das Gesamtbild verantwortlich? Anschließend geht es in einen 200-Sekunden-Deep-Dive, in dem man den Ursachen im wahrsten Sinne des Wortes auf den Grund gehen kann. Mit gezielten Abfragen und Filtern lässt sich nun nach den Gründen der aktuellen Entwicklung forschen.
Um aussagekräftig zu visualisieren, ist es außerdem wichtig, die Ergebnisse in einen Kontext zu setzen. Wie ist diese Grafik zu bewerten? Etablieren Sie daher Vergleiche – zu einem früheren Zeitraum, einem gesteckten Ziel oder einem branchenüblichen Benchmark. Passende Diagrammtypen und eine deutlich unterscheidbare Farbgestaltung sollten dabei selbstverständlich sein. Potenzielle Probleme oder Anomalien sollten Sie automatisch sichtbar machen, beispielsweise indem Sie automatisierte Warnhinweise anlegen, beziehungsweise überdurchschnittliche oder unterdurchschnittliche Ergebnisse automatisch hervorheben lassen. Kommentarfunktionen können helfen, um im Team Ergebnisse schneller richtig zu interpretieren.
Tipp 4: Kreieren Sie Auswertungen, die motivieren und Leistungsanreize schaffen
Controlling war gestern, Teamgeist ist heute: Ein Dashboard sollte den Teamgeist unterstützen. Wenn Dashboards von mehreren Personen genutzt werden, ist es umso wichtiger, dass die Auswertungen allgemein verständlich und möglichst auf einen Blick erfassbar sind. Hier ist es ratsam, zu den aktuellen Auswertungen passende Vergleiche oder Kontexte bereitzustellen, die auf das Team motivierend wirken.
Ebenso sollten Sie Ihr Team mit den Zahlen und Diagrammen nicht allein lassen, sondern „an die Hand nehmen“ – am besten mit konkreten Handlungsempfehlungen. Zum Beispiel kann es sinnvoll sein, für KPI Schwellenwerte zu definieren, um Abstufungen zu visualisieren und nicht sofort „Alarm auszulösen“. Für solche abgestuften Anzeigen lassen sich im Vorfeld ebenfalls entsprechende Handlungsempfehlungen definieren, die dann automatisiert ausgespielt werden.
Tipp 5: Automatisieren Sie Datenströme und achten Sie auf Flexibilität
Die ultimative Performance-Stufe zünden Sie mit cloudbasierten Dashboards und automatisierten Datenströmen. Damit bleiben Sie quasi in Echtzeit up-to-date. Die Datensammlung erfolgt vollautomatisch über entsprechende APIs, gespeichert werden die Daten in einem zentralen Data Lake. Um Reports und Dashboards weiter zu personalisieren, lassen sich weitere Tools problemlos einbinden. Das initiale technische Setup sollten erfahrene Data Engineering Experten für Sie übernehmen, die anschließende Handhabung ist wie gewohnt bequem in Eigenregie möglich.
Auf diese Weise automatisierte Dashboards sorgen für beträchtliche Zeitersparnisse und benötigen weniger Man-Power – in Zeiten des Fachkräftemangels kein unerheblicher Aspekt. Auch die Fehlerquote wird damit auf ein Minimum reduziert. Auf wechselnde Anforderungen können Sie mit automatisierten Dashboards besonders gut reagieren, egal ob sich zum Beispiel Datenströme ändern oder Zeitintervalle angepasst werden sollen. Weitere Informationen zum Ablauf der Anbindung, sowie der Funktionsweise der cloudbasierten Dashboard-Automatisierung, finden Sie in diesem Blog-Beitrag.
Übrigens: Eine exzellente Reporting-Struktur aufzuziehen ist nicht einfach. Und selbst wenn diese bereits aufgebaut wurde, ist die Entwicklung nie ganz abgeschlossen. Daher ist es wichtig, eine Dashboard-Optimierung auch kontinuierlich im Blick zu haben. Welche Auswertungen wurden im vergangenen Zeitraum wirklich genutzt? Welche Datenquellen sind jetzt neu verfügbar? Wo fehlen noch Informationen? Wenn Sie in regelmäßigen Abständen – zum Beispiel alle sechs Monate – genutzte Datenquellen, Informationen und Schnittstellen mit Ihren aktuellen Zielsetzungen abgleichen, haben Sie gute Chancen, jederzeit mit Hilfe eines exzellenten Dashboards bessere Entscheidungen zu treffen. Gleichzeitig etablieren Sie damit einen nachhaltigen Prozess, mit dem Sie Optimierungspotenziale zu jedem Zeitpunkt auf einen Blick erkennen.

Photo by Luke Chesser on Unsplash
Fazit und Empfehlung
Eine exzellente Reporting-Struktur aufzuziehen ist nicht einfach. Und selbst wenn diese bereits aufgebaut wurde, ist die Entwicklung nie ganz abgeschlossen. Daher ist es wichtig, eine Dashboard-Optimierung auch kontinuierlich im Blick zu haben. Welche Auswertungen wurden im vergangenen Zeitraum wirklich genutzt? Welche Datenquellen sind jetzt neu verfügbar? Wo fehlen noch Informationen? Wenn Sie in regelmäßigen Abständen – zum Beispiel alle sechs Monate – genutzte Datenquellen, Informationen und Schnittstellen mit Ihren aktuellen Zielsetzungen abgleichen, haben Sie gute Chancen, jederzeit mit Hilfe eines exzellenten Dashboards bessere Entscheidungen zu treffen. Gleichzeitig etablieren Sie damit einen nachhaltigen Prozess, mit dem Sie Optimierungspotenziale zu jedem Zeitpunkt auf einen Blick erkennen.
Dashboard-Automatisierung mit Hilfe von Cloud-Lösungen
Dashboard-Automatisierung mit Hilfe von Cloud-Lösungen
Lesedauer: 6 Minuten
Welche Bedeutung hat die Automatisierung von Dashboards mit Hilfe von Cloud-Lösungen?
Dashboards sind in der heutigen Unternehmenskultur relevanter als je zuvor, da sie wertvolle Informationen zu gesammelten Daten(material) liefern, die von Managern sowie Teams genutzt werden, um wichtige strategische als auch operative Entscheidungen zu treffen. Zum einen veranschaulichen diese Informationen, wie leistungsstark das Unternehmen ist und zum anderen ermöglichen sie verschiedenen Abteilungen den Zugang zu wichtigen internen KPI, auf deren Basis zu jeder Zeit Maßnahmen ergriffen werden können.
Allerdings stehen Unternehmen zunehmend vor der Herausforderung, die Gesamtheit an relevanten Daten an Ort und Stelle zu bündeln, um daraus aussagekräftige Dashboards zu erstellen. Eine der Hauptursachen für die erschwerten Bedingungen ist häufig fehlendes Know-how im Team. Außerdem ist das manuelle Downloaden von Daten sowie das Uploaden dieser Daten zu diversen BI-Tools mit enorm viel Zeitaufwand und somit auch mit hohen Kosten verbunden, da dieser Prozess meistens im monatlichen oder sogar im wöchentlichen Rhythmus wiederholt werden muss.
Vollständig automatisierte Dashboards mit Hilfe von Cloud-Lösungen schaffen in diesem Fall Abhilfe und können Ihrem Unternehmen dabei helfen, genau diese Herausforderung zu meistern. Bei diesem Ansatz handelt es sich um eine cloudbasierte Automatisierungslösung, die die Erstellung von Dashboards nach einem spezifischen Zeitplan ermöglicht, welcher zuvor vom Nutzer definiert wurde. Dabei handelt es sich um eine End-to-End-Lösung, die folgende Gesichtspunkte umfasst:
- Vollautomatisierte Datensammlung über eine API
- Datenspeicherung im Data Lake
- Erstellung einer ETL-Pipeline zum Aufbau eines cloudbasierten Data Warehouse
- Anknüpfung an diverse BI-Tools zur Erstellung individueller Reports sowie Dashboards
Welchen Nutzen können Unternehmen aus der Automatisierung von Dashboards ziehen?
Die Relevanz von Cloud-Lösungen hat in den vergangenen Jahren stark zugenommen, sodass immer mehr Unternehmen dazu motiviert werden, diesen Ansatz zu ihrem Vorteil zu nutzen und im eigenen Tagesgeschäft zu etablieren. Themen wie z.B. Cloud Computing oder Automatisierung sind heutzutage in aller Munde und dies aus gutem Grund: Es gibt viele Vorteile im Vergleich zu traditionellen Reporting-Lösungen. Diese Vorteile umfassen u.a. folgende Aspekte:
Kostenreduktion
Es werden nicht nur betriebliche Kosten gesenkt, sondern auch Personalkosten, da durch die Automatisierung weniger Bedarf an zusätzlichen Data Engineers sowie Business Analysten besteht. Im Vergleich dazu sind die Kosten für die meisten Cloud Service Lösungen relativ gering.
Zeiteffizienz
Automatisierte Dashboards ermöglichen Ihnen eine immense Zeitersparnis. Dies wird durch die Ablösung der herkömmlichen Vorgehensweise bewerkstelligt, bei welcher Daten manuell heruntergeladen und Reports in monatlichen oder sogar wöchentlichen Intervallen erstellt werden müssen. Stattdessen wird der Aufwand durch die Automatisierung um ein Minimum reduziert, da der neue Prozess nur einmalig aufgesetzt werden muss.
Flexibilität
Es kann häufig vorkommen, dass es im Geschäftsalltag zu unvorhergesehenen Situationen kommt, wie z.B. die Steigerung des Traffics. Mit zunehmendem Traffic nimmt auch der Eingang an Daten aus verschiedensten Quellen zu. Im Vergleich zur herkömmlichen Vorgehensweise stellt dies bei der Dashboard-Automatisierung jedoch kein Problem dar. Hier können Sie neue Daten problemlos in den neuen Prozess integrieren, auch im Falle einer gewünschten Anpassung des Zeitintervalls.
Minimierung der Fehlerquote
Manuelle Arbeiten sind häufig anfällig für Fehler. Das Vorkommen von Fehlern wird durch die Einführung des Prozesses auf ein Minimum reduziert, da dieser vollkommen automatisiert abläuft, die Daten über eine API abgerufen werden und auf manuelle Arbeiten gänzlich verzichtet wird.
Datenschutz
Zum Schutz Ihrer Daten verfügen die meisten Anbieter von Cloud-Service Angeboten (z.B. Google, AWS, Microsoft) über eine globale Infrastruktur, die hohen Sicherheitsstandards entsprechen.
Funktionsweise der Cloud-Lösung
Das Einbinden der Cloud-Lösung setzt Data Engineering-Kenntnisse voraus. Im folgenden Abschnitt werden die einzelnen Prozessschritte sowie Kernfunktionen der Cloud-Lösung heruntergebrochen.

Schritt 1: Datenabruf über eine API
Was ist eine API? API ist die Kurzform für “Application Programming Interface” und stellt eine Schnittstelle dar, die die Kommunikation zwischen verschiedenen System-Komponenten und Anwendungen ermöglicht. Die meisten Datenanalyse-Tools, wie z.B. Google Analytics, Shopify oder Amazon stellen APIs bereit, die von den Entwicklern genutzt werden können, um eine Anbindung zu den jeweiligen Systemen herzustellen und um anschließend auf direktem Wege auf die Daten zugreifen zu können.
Im Vergleich zur manuellen Download-Methode verfügen Daten, auf die über eine API zugegriffen werden, über eine erstaunliche Flexibilität sowie Skalierbarkeit. Mit Hilfe der Schnittstelle sind Sie dazu im Stande, einen Programmcode zu festgelegten Terminen ausführen zu lassen, indem die gewünschten Metriken, die Dauer sowie der Zeitplan vorab von Ihnen definiert werden. Auf diese Weise können Sie sich von iterativen manuellen Arbeiten befreien, wodurch Kosten gespart, aber auch Fehler vermieden werden können.
Schritt 2: Cloud Hosting
Der Code, der den Zugriff auf die Daten über die API ermöglicht, kann im Cloud-Server gehostet werden. Das Hosten auf einer Cloud bringt viele Vorteile mit sich, wie z.B. Agilität, Skalierbarkeit sowie Kosteneinsparungen. Ebenso sind Sie dank des Cloud Hostings nicht dazu gezwungen, den Server 24 Stunden am Tag an sieben Tagen der Woche in Betrieb zu halten. Stattdessen muss der Server insgesamt nur 30 bis 60 Minuten in Betrieb genommen werden, um Programmcodes in Abhängigkeit der Bedürfnisse des Unternehmens auf täglicher oder wöchentlicher Basis auszuführen.
Schritt 3: Datenspeicherung via Data Lake und Data Warehouse
Rohdaten oder Reports von APIs werden auf direktem Wege in der Cloud bzw. in einem Data Lake gesichert. Ein Data Lake ist ein Aufbewahrungsort (Repository), in dem eine beliebige Menge an strukturierten, semi strukturierten oder auch unstrukturierte Daten gespeichert werden können. Des Weiteren können auch Dateien jeglichen Formats (z.B. csv, xls, txt, pdf, etc.) direkt im Data Lake gesichert werden.
Im Gegensatz dazu werden Data Warehouses dazu verwendet, um strukturierte sowie bereinigte Daten abzuspeichern. Hierfür entwickeln Daten-Ingenieure eine ETL-Pipeline, um Daten aus einem Data Lake zu extrahieren, zu transformieren und zu laden (ETL = Extract, Transform, Load) und diese anschließend in ein festgelegtes Data Warehouse zu überführen. Die unten abgebildete Tabelle zeigt die wesentlichen Unterschiede zwischen Data Lake und Data Warehouse:
Attribute | Data Lake | Data Warehouse |
---|---|---|
Daten Format | Alle Daten Formate | Relationale Tabellen |
Daten Qualität | Rohdaten | Kuratierte Daten |
Nutzer | Entwickler, Data Scientists | Business Analysten |
Ziele | Machine learning, Datenanalyse | BI Dashboards |
Kosten | Geringe Kosten | Hohe Kosten |
Schritt 4: Zeitliche Festlegung der Cloud-Service-Komponenten
Die Ausführung eines Cloud-Services kann durch Zeitplanungsprogramme veranlasst werden, wie z.B. AWS EventBridge oder Google Cloud Scheduler. Es ist eine recht einfache Herangehensweise, die dem Ansatz von CronJobs ähnelt.
Exkurs: Was ist ein “CronJob”?
Das Fundament für CronJobs wird durch ein Cron-System geschaffen – hierbei ist Cron die Kurzform von “command run on notice”. Sobald ein Betriebssystem gestartet wird, läuft das Cron-System im Systemhintergrund mit und führt automatisiert Aufgaben (Jobs) nach einem vordefinierten Zeitplan aus. So können bspw. fixe Tage sowie Uhrzeiten festgelegt werden, an denen die CronJobs automatisiert durchgeführt werden sollen.
Der Begriff CronJob ergibt sich demnach aus der Zusammenführung des Cron-Systems und dessen zugewiesenen Aufgaben. Die folgende Abbildung zeigt beispielhaft die Syntax eines Cron-Zeitplans.

Abb. 2: Syntax eines Cron-Zeitplans, Quelle: https://de.wikipedia.org/wiki/Cron
Minute (0-59) |
Stunde (0-23) |
Tag im Monat (1-31) |
Monat (1-12) |
Wochentag (0-6) |
Bedeutung |
---|---|---|---|---|---|
0 | 9 | . | . | . | Start um 9:00 Uhr(UTC+0) jeden Tag |
30 | 6 | . | . | 1 | Start um 6:30 Uhr(UTC+0) jeden Montag |
0 | 19 | . | . | 1-5 | Start um 19:00 Uhr(UTC+0) jeden Montag bis Freitag |
0 | 7 | 1 | . | . | Start um 7:00 Uhr(UTC+0) an jedem ersten Tag des Monats |
Die Tabelle zeigt einen beispielhaften Zeitplan für CronJobs sowie deren Sinngehalt.
Schritt 5: Dashboard
Zum Schluss werden sämtliche Daten in ein Dashboard bzw. eine Reporting-Struktur übertragen und dort visualisiert. Im Allgemeinen fungiert ein Dashboard als eine universelle Übersicht, in der man alle relevanten Informationen und Kennzahlen in komprimierter Form einsehen kann. So kann bspw. das Sales-Team mit nur einem Blick auf das Dashboard Rückschlüsse zur eigenen Vertriebsleistung ziehen. Verantwortliche erkennen zudem direkt, welches Produkt sich am besten verkauft, welche Produkte häufig in Kombination gekauft werden oder in welchem Schritt des Check-out-Prozesses die meisten Besucher ihren Kauf abbrechen. Die Art der Nutzung sowie die Anwendung eines Dashboards variiert nicht nur von Unternehmen zu Unternehmen, sondern auch von Team zu Team.
Dies ist stark von den internen Bedürfnissen eines Unternehmens als auch von den verfolgten Zielen abhängig. Ein ebenfalls wichtiger Gesichtspunkt ist die Wahl des Tools, das für die Visualisierung der Daten im Dashboard genutzt wird. Die am Markt verfügbaren Tools unterscheiden sich stark hinsichtlich deren Usability als auch deren grundlegenden Funktionen voneinander. Daher stellt die Wahl des richtigen Tools eine wichtige Entscheidung dar, die einer hohen Priorität erfordert.
Falls Sie noch auf der Suche nach einem passenden Business Intelligence Tool sind und Impulse für Ihre Entscheidung brauchen, dann verweisen wir Sie gerne auf diesen Artikel, in dem wir bereits eine umfassende Gegenüberstellung ausgewählter Tools vorgenommen haben.
Fazit und Empfehlung
Heutzutage ist eine zeitgemäße Customer Journey durch eine Vielzahl von digitalen Touchpoints geprägt. Diese Touchpoints generieren eine große Menge an Daten, die nur darauf warten, in den alltäglichen Workflow eines Unternehmens integriert zu werden.
Daher stellen sich Unternehmen die folgende Frage: Wie können diese Daten zum eigenen Vorteil genutzt werden, um darauf basierend agil agieren zu können sowie den größtmöglichen Nutzen zu stiften? Die Automatisierung von Dashboards mit Hilfe von Cloud-Lösungen ist einer von vielen Anhaltspunkten, um dieses Zielvorgehen umzusetzen.
Der cloudbasierte Lösungsansatz stellt eine hervorragende End-to-End-Lösung dar, die Ihr Unternehmen mit den neuesten Technologien versorgt und so auf den neuesten technologischen Stand bringt. Mit Hilfe der Automatisierung wird Ihnen die größtmögliche Flexibilität als auch Transparenz geboten und eine große Einsparung an Kosten kann vorgenommen werden, da kein Bedarf mehr an manuellen Routinearbeiten besteht.
Für Fragen oder Anmerkungen stehen wir Ihnen jederzeit gerne zur Verfügung. Kontaktieren Sie uns dafür ganz einfach über unser Kontaktformular.
Vor- und Nachteile von Server Side Tracking
Vor- und Nachteile von Server Side Tracking
Lesedauer: 5 Minuten
Aktuelle Marktsituation
Sie haben sicherlich schon davon gehört: Aufgrund der DSGVO-Bestrebungen ist das Thema Datenschutz in aller Munde. Auf Basis von den Regelungen der DSGVO werden immer mehr Rechtsurteile gesprochen und Strafen verteilt. Den Marketingabteilungen wird das Tracking der Nutzer auf den eigenen Websites oder in den eigenen Apps erschwert, das Thema “Datenschutz” durchdringt viele Abteilungen eines Unternehmens.
Die resultierenden Bedenken im Rahmen des Trackings der Nutzer auf den Websites und Apps ist verständlich und auch richtig. Die Gunst der Stunde kann Server Side Tracking nutzen. Server Side Tracking kann im Rahmen des Trackings als Baustein gesehen werden, um den schärfer werdenden Datenschutzanforderungen gerecht zu werden, alleine wird es diese Anforderungen aber nicht lösen.
Wir möchten in diesem Blogbeitrag allerdings nicht die Bedenken oder gar das Thema Datenschutz behandeln, sondern zeigen einen Weg auf, wie mit Server Side Tracking umgegangen werden kann.
Was ist Server Side Tracking?
Mit Server Side Tracking ist der Einsatz eines eigenen Trackingservers gemeint. Der Trackingserver wird als Zwischeninstanz implementiert, um Nutzerinteraktionen auf der eigenen Website oder App mit Analyse- und Marketingtools zu teilen.
Das Server Side Tracking als eher neue Bewegung am Markt grenzt sich hierbei deutlich vom bisherigen Vorgehen ab, dem Client Side Tracking. Beim Client Side Tracking wird die Nutzerinteraktion auf der Website oder App direkt aus dem Browser des Nutzers bzw. der nativen Applikation an die Analyse- und Marketingtools gesendet. Im Folgenden gehen wir auf die Funktionsweise der Server Side Trackings ein und behandeln die Vor- und Nachteile.
Wie funktioniert Server Side Tracking?
Die Funktionsweise haben wir im vorigen Abschnitt kurz angerissen und vertiefen es hier anhand des Beispiels mit dem Server Side Tracking mit Google Tag Manager.

Request
Geben User in der URL-Zeile ihres Browsers eine Webadresse ein, sendet der Browser eine HTTP-Anfrage an den Server des Website-Inhabers. Somit fragt ein Client Informationen beim Server an und erwartet eine entsprechende Antwort in Form des HTML-Gerüsts, der CSS-Dateien für das Aussehen der Seite und verschiedener Skripte.
Mit anderen Worten: Mit der Adresseingabe in der URL-Zeile fragt der Browser beim Server an, die angefragte Webseite anzeigen zu können.
Response
Sobald der Server das Signal vom Client bzw. Browser erhält, interpretiert er es und sendet seine Antwort. Dazu gehören neben HTML-Gerüst und CSS vor allem JavaScript-Skripte, die unter anderem zum Ausführen von Tracking benötigt werden.
Das heißt, der Server stellt die Informationen bereit, die es braucht, um die Seite im Browser darzustellen.
Tag Manager lädt
Eines dieser Skripte ist beispielsweise der Google Tag Manager (gtm.js), der auf der Seite eingebaut ist. Das ist der client-seitige Container, der vom Google Tag Manager (Website Google Tag Manager) angefordert wird.
Sende Tags
Darin befinden sich anbieter-spezifische Tags, die regalbasiert die erfassten User-Interaktionen auf der Website weiterleiten. Die Besonderheit im Server Side Tracking ist, dass sie jedoch nicht an die jeweiligen Anbieter direkt gesendet werden, sondern an einen eigens eingerichteten Trackingserver. Auf dem Trackingserver ist das Pendant zum Client-Side Tag Manager implementiert, der Server Side Tag Manager.
Datenstrom
Die erfassten und strukturierten Daten auf der Website werden an den Server Side Endpunkt weitergeleitet. Anstatt direkt aus dem Browser die erfassten Daten durch den Tag Manager direkt an die verschiedenen Anbieter zu senden, werden die Daten an den Server Side Tag Manager weitergeleitet. Dies passiert mit jeder zu erfassenden Nutzerinteraktion.
Client
Im Server Side Tag Manager werden die eingehenden Datenströme verarbeitet. Hier gibt es zusätzlich zu den bekannten Tag Manager Funktionen anbieter-spezifische Clients. Diese Skripte warten auf einen Request, der an sie adressiert ist. Sie verarbeiten die eingehenden Informationen zu einem Datenmodell, mit welchem im Server Side Tag Manager gearbeitet wird.
Tags
Basierend auf den eingehenden Datenströmen werden Tags erstellt. Dabei können Daten extrapoliert werden, um Datenhoheit und -qualität zu gewährleisten.
Server Side Tracking Request
Im letzten Schritt wird der neu strukturierte Tag (Request) an das jeweilige Analyse- oder Marketingtool geschickt. Dieser Vorgang ist aus dem Client Side Tracking bekannt. Damit erhalten die Empfänger-Technologien nur noch die Informationen, die ihnen zur Verfügung gestellt werden.
Welchen Nutzen kann ich daraus ziehen?
Durch Server Side Tracking haben Sie gegenüber dem Client Side Tracking Vorteile bezüglich Datenkontrolle, Datenqualität und teilweise in der Websitegeschwindgkeit.
Datenkontrolle / Datenhoheit
Beim Client Side Tracking übernimmt meist ein JavaScript-Skript das Versenden der Daten. Dies geschieht vollautomatisch, was selbstverständlich sehr bequem für das Unternehmen ist.
Beim Server Side Tracking können Sie die Daten im Tag manipulieren. Sie haben die Möglichkeit, gewisse Datenpunkte zu entfernen. Dies könnten z.B. die IP Adresse oder der User Client sein. Durch die volle Kontrolle der versendeten Datenpunkte adressiert das Server Side Tracking hervorragend etwaige bestehende Bedenken hinsichtlich der Data Governance Thematik und Sie gewinnen die Hoheit über Ihre Daten zurück.
Datenqualität trotz AdBlocker & Tracking Prevention
Der nächste Aspekt, den wir aufzeigen werden, ist die Erhöhung Ihrer Datenqualität durch die Umgehung von AdBlockers oder Tracking Prevention Maßnahmen einiger Browseranbieter (Apple Safari, Mozilla Firefox).
Die in der Vergangenheit zugenommenen Werbeausspielungen und Trackings im Internet führten dazu, dass viele Nutzer und einige Browserhersteller Maßnahmen eingeleitet haben, um den Nutzer zu schützen. Die Maßnahmen blockieren Trackings, weswegen die Qualität der Daten in den einzelnen genannten Tools (z.B. Web Analyse oder Online Marketing) abnehmen kann.
Da beim Server Side Tracking die Requests nicht direkt an die Anbieter gesendet werden, sondern an die eigene Subdomain, werden diese Browser-seitigen Maßnahmen zur Trackingprevention umgangen, was zur Erhöhung der Datenqualität führt.
Erhöhung der Websitegeschwindigkeit
Durch die Verlagerung des Tracking aus dem Client Side Tracking zum Server Side Tracking wird der Payload reduziert. Unter Payload versteht man u. a. die Datenmenge, die bei der Kommunikation im Internet hin- und hergeschickt wird.
Die Höhe des möglichen Einsparungspotenzials hängt im Einzelnen von den exisitierenden Track Trackings ab, die aus dem Client Side Tracking in das Server Side Tracking umgelagert werden.
Welche Nachteile sind mit Server Side Tracking verbunden?
Der Einsatz vom Server Side Tracking bringt nicht nur Vorteile mit sich, sondern ist ebenfalls mit Nachteilen verbunden. Die berühmte Kehrseite der Medaille ist in diesem Fall eine steigende Komplexität, verbundene Kosten und das relativ frühe Stadium in der Massentauglichkeit.
Komplexität
Wie Sie sicherlich schon aus dem Blogartikel entnommen haben, steigt mit der Implementierung eines Server Side Trackings auch die Komplexität Ihrer generellen Tracking-Implementierung. Technisches Fachwissen und Expertise zum Aufsetzen eines Tracking Servers und zum Umgang mit dem Server Side Tag Manager sind dringend von nöten.
Durch die Umsetzung eines sauberen Server Side Tracking Setups ist die laufende Instandhaltung hinsichtlich ihrer Komplexität einem bestehenden Client Side Tracking Setups gleichzusetzen.
Kosten
Anders als beim kostenlosen Client Side Tracking mit GTM fallen beim Server Side Tracking Kosten für den Server mit dem Google Tag Manager GTM Container an. Dieser lässt sich sowohl in Cloud Umgebung von entsprechenden Anbietern als auch in einer eigenen Cloud umsetzen und betreiben. Für ein einfaches Setup bietet sich hierzu aktuell die Google Cloud an.
Die entstehenden Kosten setzen sich dabei aus monatlichen Kosten für die benötigten Server (CPU, Speicherplatz, etc.) und Kosten basierend auf den Zugriffen auf der Website / App. Die folgenden beispielhaft errechneten Kosten beziehen sich auf die Nutzung der Google Cloud App Engine.
Pro Server fallen Kosten in Höhe von ca. 40 Euro an, wobei Google den Einsatz von mindestens drei Servern empfiehlt, um Datenverluste zu vermeiden. Folglich sollten für die Server Kosten in Höhe von ca. 120 Euro eingeplant werden. Die Anzahl der benötigten Server steigt, je stärker eine Seite besucht und genutzt wird. Dazu kommen die Nutzungskosten, die über ein flexibles Abrechnungsmodell abgerechnet werden und deren Höhe sich aus der Intensität der Nutzung und Auslastung der Server (Stichwort „Traffic“) ergibt.
Sie können mit Kosten pro Server mit ca. 40 EUR rechnen und weiteren ca. 100 EUR pro 500.000 Requests auf den Server.
Massentauglichkeit
Das Server Side Tracking ist technisch einwandfrei umsetzbar, befindet sich allerdings hinsichtlich der Anzahl unterschiedlicher Anbieter, die serverseitig Daten empfangen können, noch in der early-adopter Phase. Mit fortschreitender Zeit werden immer mehr Anbieter die Möglichkeit schaffen, serverseitig Daten zu empfangen und somit einen weitern Grund liefern, das Server Side Tracking einzusetzen.
Unser Schlusswort
Das Server Side Tracking ist eine zukunftsfähige Technogie, deren Einsatz mit zunehmender Massentauglichkeit sicherlich auch Einzug in die meisten Tracking-Implementierungen halten wird. Die positiven Aspekte, gerade im Rahmen der Data Governance und der Datenqualität, werden die Aspekte Komplexität und Kosten mehr als aufwiegen.
Wenn Sie schon heute zukunftsorientierte Trackinglösungen in Ihrem Unternehmen einsetzen wollen, lassen Sie sich von den Experten der Digital Motion hierzu beraten. Wir nehmen Ihnen die komplexe Implementierung ab und helfen Ihnen, das benötigte Know-How aufzubauen. Unser Produkt “Server Side Tracking (Google)” wurde eigens für die Umsetzung entwickelt.
Für mehr Informationen zum Server Side Tracking (Google) klicken Sie hier.
Probleme und Herausforderungen von kleinen mittelständischen Unternehmen (KMU) mit Digital Analytics
Probleme und Herausforderungen von kleinen mittelständischen Unternehmen (KMU) mit Digital Analytics
Und wie Sie diese lösen können
Lesedauer: 4 Minuten
Digital Analytics – kaum eine Disziplin weckt so gegensätzliche Reaktionen wie diese. Auf der einen Seite haben wir die Expert*innen. Diese konnten in Ihrer Laufbahn bereits eine Menge Erfahrung sammeln. Sie besitzen ein exzellentes Verständnis der Thematik und haben bereits einen fortgeschrittenen Reifegrad erreicht. Auf der entgegengesetzten Seite des Spektrums ist man meistens etwas reservierter. Das liegt daran, dass die Hürden beim Einstieg in das Thema sehr hoch sind. An genau dieser Stelle stehen viele kleine und mittelständische Unternehmen (KMU) in Deutschland. Die Gründe dafür sind vielschichtig und können am fehlenden Know-how, fehlender Verantwortlichkeit oder mangelnden Ressourcen liegen.
Eines lässt sich aber nicht abstreiten: Daten finden immer mehr Verwendung und Bedeutung in Geschäftsprozessen. Daher ist es wenig überraschend, dass die Komplexität im Umgang mit Daten kontinuierlich steigt und regelmäßig neue Tools und Technologien auf den Markt gebracht werden. Wenn Sie sich also nicht regelmäßig mit der Thematik auseinandersetzen, können Sie leicht die Übersicht verlieren. Insbesondere die folgenden drei Stolpersteine sorgen bei KMU für Herausforderungen im Digital Analytics Bereich.

Bestimmen, an welcher Stelle Sie gerade stehen
Digital Analytics ist ein vielschichtiges Thema. Daher ist es von großer Bedeutung, sich dem Thema Schritt für Schritt zu nähern. Insbesondere, wenn Sie noch keine oder nur wenige Berührungspunkte damit hatten. Bevor Sie in Ihrem Unternehmen über Attributionsmodelle oder komplexe Customer Journey Analysen sprechen, sollten Sie zunächst den Status quo Ihrer Digital Analytics Strategie bestimmen. Dafür können Sie sich folgende Fragen stellen:
- Gibt es im Unternehmen (Daten-)spezifische Rollen oder Verantwortlichkeiten?
- Werden Daten gesammelt? Wenn ja, welche?
- Wie werden diese genutzt?
- Wer hat Zugang zu den Daten?
- Wie sieht der Tool-Stack in Ihrem Unternehmen aus?
Definition des angepeilten Zielbilds für Ihr Unternehmen
Nun wissen Sie und Ihr Unternehmen, wo Sie bezüglich Ihrer Digital Analytics Strategie stehen. Die nächste Frage, die Sie sich stellen sollten, lautet: Wohin wollen Sie mit Ihrem Unternehmen?
Oftmals haben KMU das Problem, dass kein gemeinsames Zielbild für die Digital Analytics Strategie erarbeitet worden ist. Ohne dieses gemeinsame Zielbild ist es fast unmöglich, dass alle Beteiligten im Rahmen einer Kampagne an einem Strang ziehen. Dies zeigt sich dadurch, dass Aussagen nicht einheitlich kommuniziert oder Kanäle nicht passend bespielt werden. Aus diesem Grund sollte während der Planung von Kampagnen unbedingt über die Erfolgsmessung dieser gesprochen werden. Dafür ist es unerlässlich, für jede Maßnahme im Rahmen einer Kampagne ein passendes KPI Framework heranzuziehen und die Daten anschließend in eine aussagekräftige Reporting Struktur zu überführen.
Daher sollten Sie Ihren Tool-Stack funktionell unter die Lupe nehmen. Hierfür bieten sich folgende Fragen an:
- Passt Ihr Tool-Stack zu Ihren Zielen?
- Lässt sich im Tool alles so abbilden, wie Sie es sich vorgestellt haben?
- Bekommen Sie aussagekräftige Reports?
Bestimmung des Aufwands und Umsetzung von Optimierungsmaßnahmen
Oftmals haben KMU den Eindruck, dass Digital Analytics für Sie nicht in Frage kommt. Dies basiert auf der Annahme, dass Digital Analytics Beratung für die meisten Unternehmen zu kostspielig ist, ohne einen direkten Nutzen zu bringen. Beratungsmandate sollen über mehrere Monate in Auftrag gegeben werden, ohne zu wissen, wie das Ergebnis in Zukunft konkret aussehen wird.
Insbesondere KMU, bei denen oftmals Zwischenfragen oder kleinere Stolpersteine in der Nutzungsphase von Analytics Tools auftreten, haben keinen Nutzen von solchen überproportionalen Projekten. Hinzu kommt, dass viele Beratungs- und Dienstleistungsmodelle nicht transparent in der Abrechnung sind. Dies sorgt für Unsicherheit bei den Verantwortlichen. Sie sollten sich daher folgende Fragen stellen:
- Was kosten Sie Ihre Digital Analytics Maßnahmen?
- Was bringen Ihnen die Maßnahmen aktuell?
- Welche Aussagen können Sie aus Ihren aktuellen Reports ziehen?
Das KMU Starter Paket für Digital Analytics
Digital Motion hat für genau diese Stolpersteine das KMU Starter Paket entwickelt. Dieses richtet sich speziell an KMU und ermöglicht einen schnellen und unkomplizierten Einstieg in die Digital Analytics Welt. Das KMU Starter Paket besteht aus einem Analytics für KMU Micro Training, einem Web Analytics Tool Check-up und einem Consulting Quarter S-Paket.
Im Analytics für KMU Micro Training entschlüsseln wir zusammen mit den Teilnehmern die Bedeutung von Digital Analytics und zeigen die Relevanz für das eigene Unternehmen auf. Zudem bestimmen wir gemeinsam Ihren Digital Analytics Reifegrad und geben erste Handlungsempfehlungen in Form von Quick Wins für Sie. Erst wenn die Basis gelegt ist, ein Grundverständnis geschaffen wurde und der Digital Analytics Reifegrad ermittelt werden konnte, sollte das Thema strategisch beleuchtet werden.
Im Web Analytics Tool Check-up betrachten wir, gemeinsam mit Ihnen, die technische Implementierung Ihrer Analytics Lösung. Zudem überprüfen wir Tracking Calls und begutachten die einzelnen Bausteine wie Trigger und Variablen im Tag Manager. Im Fall einer statischen Implementierung untersuchen wir die relevanten Code Snippets direkt auf der Seite. Anschließend prüfen wir die entstehenden Reports, um Fehler auszuschließen und Handlungsempfehlungen geben zu können. Wir untersuchen also, ob Ihr Tool-Stack so funktioniert, wie Sie es sich vorgestellt haben.
Nun haben Sie sich einen Überblick über den Status quo verschafft sowie Ihr Zielbild definiert. Im nächsten Schritt unterstützen wir Sie flexibel bei der Umsetzung der identifizierten Quick Wins mit unserem Consulting Quarter (CQ). Bei dem CQ handelt es sich um virtuelle Wertmarken, die jeweils für 15 Minuten Beratungszeit stehen. Diese können individuell nach Bedarf eingesetzt und flexibel abgerechnet werden. Das Consulting Quarter S-Paket enthält 32 CQ, was einem Beratertag entspricht.

Unser Schlusswort
Digital Analytics kann eine sehr komplexe und tiefgehende Disziplin sein, wenn man es denn möchte. Das muss, insbesondere am Anfang der Reise, aber gar nicht der Fall sein.
Alles beginnt mit einer guten Standortbestimmung und einer sauber aufgesetzten (Daten-) Strategie. Die abgeleiteten Maßnahmen dieser sollten auf realistischen und messbaren Zielen basieren und regelmäßig gesteuert werden können. Zudem ist essenziell, eine funktionierende technische Infrastruktur aufzuziehen, die regelmäßige und zuverlässige Reports ermöglicht. Sollte es im Nachgang weiteren Beratungsbedarf oder Zwischenfragen geben, ermöglicht das Consulting Quarter S-Paket eine schnelle und unkomplizierte Beantwortung von diesen.
Das KMU Starter Paket eignet sich perfekt für kleine und mittelständische Unternehmen, die den ersten Schritt in die Digital Analytics Welt gehen wollen.
Was bringen mir Domo, Tableau, Power BI und Looker? Die wichtigsten Business Intelligence Tools auf einen Blick
Was bringt mir Domo, Tableau, Power BI und Looker? Die wichtigsten Business Intelligence Tools auf einen Blick
Lesedauer: 6 Minuten
Der Artikel richtet sich an Leser, die derzeit Schwierigkeiten bei der Auswahl einer Business Intelligence (BI) Lösung haben, diese aber zeitnah im Unternehmen integrieren möchten. Bei der Auswahl müssen zahlreiche Faktoren beachtet werden, wie beispielsweise die Möglichkeiten Daten zu extrahieren, kompilieren, organisieren und zu analysieren. Die Entscheidungsfindung kann, aufgrund der komplexen Voraussetzungen an eine datengesteuerte Entscheidungsfindung, mitunter zeit- und kostenintensiv sein. An dieser Stelle setzt der Artikel an und hilft mit einer Experteneinschätzung weiter.
Eine gut implementierte BI-Strategie mit der passenden Lösung und kontinuierlich sichergestellter Datenqualität stellt die Grundlage für die Steigerung der Arbeitseffizienz in den unterschiedlichen Unternehmensbereichen dar. Nach der Zusammenführung, Bereinigung und Aufarbeitung der Daten dient die BI- Lösung als zentralisierte Informationsquelle und fördert die Entwicklung einer datengestützten Unternehmenskultur.
Einige BI-Lösungen sind so konzipiert, dass sie in erster Linie von Analysten zur Erstellung von Berichten und Dashboards verwendet werden können. Andere sind hingegen als Self-Service Lösungen gedacht, bei denen auch nicht fachkundige Nutzer Einblicke erhalten, ohne dabei auf technische Unterstützung angewiesen zu sein. Im Grundumfang bieten alle BI-Lösungen zudem im Kern die Möglichkeit zur Vorbereitung, Modellierung, Zusammenführung, Visualisierung und Bereitstellung von Erkenntnissen.
Obgleich sich die Lösungen ähneln, kann die Wahl der falschen Lösung potentiell drastische, fortwirkende Auswirkungen haben. So kann es bei einer ungenügenden Abstimmung der Anforderungen beispielsweise dazu kommen, dass notwendige Berichtsmöglichkeiten nicht zur Verfügung stehen, Latenzzeiten zu lang sind oder selbst vermeintlich einfache Berichte nicht ohne weiterführende Kenntnisse in SQL und dergleichen erstellt werden können. Darüber hinaus kann es vereinzelt dazu kommen, dass Probleme bei der Kontrolle der Datenqualität auftauchen und Validierungsprozesse erforderlich machen, die gezielt nach Inkonsistenzen suchen und damit erst eine sinnvolle Anreicherung mit Daten von Drittanbietern ermöglichen.
Zusammenfassend ist es notwendig die spezifische Anforderungserfüllung in Bezug auf Berichterstattung, Kosten, Datenkapazität, Integrationsanforderungen, Benutzerakzeptanz und Self-Service-Design bestmöglich zu antizipieren.
Bei der Vielzahl an verfügbaren BI-Lösungen mit in der Regel mehr als 20 relevanten Kandidaten, kann man daher schnell den Überblick verlieren. Eine sehr vereinfachte Auswahlmethode kann darin bestehen, dass basierend auf einer Vorauswahl von drei bis fünf Lösungen, eine Test-Integration für eine Zeit von den realen Anwendern genutzt wird. Nach einer beispielsweise zweiwöchigen Testphase werden die Eindrücke strukturiert erfasst und eine Entscheidungsvorlage für das Management erstellt. Dank dieses sehr realitätsnahen Vorgehens wird ein gutes Bild bezüglich des Integrationsaufwands, der Benutzerfreundlichkeit und der Möglichkeit zur Datenmigration gewonnen. In diesem Zuge werden insbesondere folgende Fragen beleuchtet:
- Unterstützt das Tool API-Verbindungen, Datenbankabfragen oder CSV-Dateien?
- Wie kompliziert ist es – von Drag-and-Drop bis zur Kodierung – Daten zu modellieren oder KPIs zu berechnen?
- Sind die erstellten Berichte, Datenwerkzeuge oder Visualisierungen von hoher Relevanz, umfangreich und anpassbar?
- Wie gut lässt sich das Produkt eigenständig nutzen und welche Formen der Automatisierung von Berichten etc. gibt es? Können Berichte automatisch per E-Mail verteilt werden?
- Wer sind die Endbenutzer? Sind es ausschließlich Fachanwender und Experten oder alle Mitarbeiter? Wird ein Self-Service Modell den Anforderungen des Unternehmens besser gerecht?
- Was sind die Einschränkungen, und stehen sie im Konflikt mit den Geschäftsanforderungen?
- Wie ist das Support Level? Wie groß ist die Anwender-Community und gibt es zugängliche Wissensplattformen mit Fachartikeln etc.?
- Wie sieht die Preisstruktur aus? Entstehen Kosten pro Nutzer, nach Datenvolumen oder werden sie pauschal vereinbart?
Für die erfolgreiche Durchführung des Tests sind folgende Voraussetzungen notwendig:
- Verfügbare Daten-Beispiele aus Systemen wie BigQuery, Redshift, eine Datenquelle wie Google Analytics oder SQL-Datenbanken
- Klare Kommunikation zwischen allen Beteiligten zur Zielsetzung des Tests und offene Diskussion der Plattformen
- Kapazitäten zur Ausarbeitung der Testergebnisse, was aus Effizienzgründen und zur Einbeziehung einer weiteren neutralen Meinung eine kleinteilige, externe Beratung sinnvoll machen kann
Als erste Orientierung stellen wir in einem Überblick vier besonders relevante Lösungen kurz vor.

Domo
Domo ist eine cloudbasierte BI-Lösung, die sich für Unternehmen aller Größenordnungen eignet. Domo kann sowohl Mikro- als auch Makroanalysen mithilfe von Grafiken, sogenannten “Karten”, durchführen und damit typische Geschäftsfragen visuell und intuitiv verständlich beantworten. Die hochgradig anpassbaren und interaktiven Visualisierungen können über Registerkarten in einem Dashboard organisiert werden, die von verschiedenen Abteilungen oder Teams definiert werden. Die benutzerfreundliche Echtzeit-Verarbeitung und die Panoramadarstellung der Informationen bietet ein schlüssiges und vollständiges Bild der Daten in all ihren Facetten. Dies ist insbesondere hilfreich, um Erkenntnisse über verschiedene Teams hinweg zu gewinnen, zu teilen und damit eine datengeprägte Unternehmenskultur zu fördern. Die größte Schwäche von Domo ist die teils mühsame Verwaltung und Pflege. Teilweise treten vereinzelt Fehler auf, deren Behebung einen fortgeschrittenen Grad an technischem Verständnis voraussetzt. Trotz dieser Einschränkungen nimmt Domo bei der Kundenzufriedenheit einen hohen Rang ein und verfügt über eine große Marktpräsenz. Laut G2-Bericht 2020 ist Domo die beste BI-Lösung mit 87% der Benutzer, die angeben, dass sie Domo weiterempfehlen würden. Domo unterscheidet zwischen Starter-, Profi- oder Unternehmenslizenzen. Die Kosten umfassen eine Vorabgebühr bzw. Plattformkosten, sowie eine monatliche Gebühr.
Tableau
Im Gegensatz zu Domo bietet Tableau eine Desktop- und eine Online-Version, wobei erstere hauptsächlich für die Erstellung von Berichten, Stories oder Dashboards verwendet wird. Die Online-Version dient vor Allem dazu, die Berichte an die unterschiedlichen Stakeholder im gesamten Unternehmen weiterzugeben. Tableau bietet eine schnelle und unkomplizierte Datenintegration, bei der Millionen von Datenzeilen problemlos verarbeitet werden können. Das schnelle Prototyping von Visualisierungen von Datensätzen ist ein weiterer, klarer Vorteil. Darüber hinaus sind interaktive Grafiken in Berichten mithilfe einer Drag-and-Drop-Oberfläche und Filtern einfach zu erstellen. Die insgesamt hohe Benutzerfreundlichkeit, die niedrigen Kosten und die kostenlose 14-tägige Testversion sind positive Argumente für Tableau. Dementgegen steht, dass Tableau keine Datenverschlüsselung unterstützt und keine Unterstützung für Integrationen an verteilten Standorten bietet. Darüber hinaus erfordern umfangreiche Datenintegrationen und andere komplizierte Aufgaben IT-Unterstützung. Trotz der Einschränkungen ist Tableau als älteste der Plattformen diejenige mit der größten Marktpräsenz. Im Vergleich zu den anderen Plattformen ist der Anteil der Nutzer, die Tableau weiterempfehlen würden mit 83% am geringsten ausgeprägt (G2 2020). Tableau rechnet auf der Grundlage der Anzahl der Benutzer und der Benutzerlizenzen ab. Das Abonnement umfasst sowohl Desktop- als auch Online-Cloud-basierten Tableau-Zugriff.
Power-BI
Power BI ist in hinsichtlich der Visualisierung, Benutzerfreundlichkeit und den Kosten sehr ähnlich zu Tableau. Die Lösung von Microsoft bietet eine einfache Drag-and-Drop-Oberfläche, ein unkompliziertes Self-Service-Design für eingenständige Berichtsanforderungen und eine Freemium-Lizenz für einzelne Benutzer, die sich gut skalierbar und zu erschwinglichen Preisen erweitern lässt. Plugin-Bibliotheken mit neuen Grafiken und erweiterten Analysemethoden wie Clustering und Netzwerkgrafiken, bieten einfachen Zugang zu weiterführenden Funktionen. Darüber hinaus sind die Dashboards in Power BI, mit ihren Filtern und Skalen zur Segmentierung oder Manipulation der Daten, nicht nur intuitiv und interaktiv, sondern verfügen auch über inhärente Drill-Down-Funktionen für verschachtelte Daten und Zeitreihendaten. Einige zu berücksichtigende Einschränkungen sind jedoch die begrenzten Datenkapazitäten und die Limitierungen bei der Bearbeitung großer Datenmengen. Da es sich um eine Windows-Anwendung handelt, müssen Nutzer anderer Betriebssystem über Remote-Desktops oder parallele Betriebssystemsoftware auf Power BI zugreifen, was den Zugriff erschweren kann. Laut G2 2020 weist Power BI eine geringe Kundenzufriedenheit auf und schneidet vor Allem in den Punkten qualitativ hochwertiger Support, prädiktive Analyse und Big-Data-Dienste schlecht ab. Trotz der Schwächen würden 87 % der Benutzer Power BI empfehlen.
Looker
Als neueste der BI-Lösungen ist Looker eine interessante Mischung aus den 3 vorherigen Lösungen. Wie Domo bietet Looker eine vollständig webbasierte Plattform mit Echtzeit-Aktualisierung und einem kohärenten Bild der Daten, verwendet aber seine eigene proprietäre SQL-basierte Sprache LookML. Mit LookML kann der Benutzer skalierbare und wiederverwendbare Datenmodelle erstellen. Die Ähnlichkeit von Looker zu Tableau besteht insofern, dass Looker große Datensätze gut handhaben kann, dies jedoch durch die Erstellung lokal gespeicherter Datensätze im Browser erfolgt, wodurch die Ladezeiten verringert werden. Wie Power BI verfügt Looker über intuitive und interaktive Grafiken mit angeborener Drill-Down-Funktionalität und eine umfangreiche Bibliothek für neue Diagramme. Die größte Stärke von Looker ist jedoch der voll funktionsfähige Self-Sevice-BI Ansatz und der Datenmarkt. Benutzer können Daten direkt aus Looker abfragen, indem sie Variablen per Drag-and-Drop manipulieren und somit CSV-Dateien und Pivot-Tabellen für den Export erstellen. Wir haben erlebt, dass sich Anwender komplett von technischer Unterstützung in SQL und dergleichen unabhängig machen und sich stattdessen auf sich verlassen konnten. Dies ist der Schlüssel um tatsächlich flächendeckend in der Lage zu sein, anpassbare, automatisch aktualisierte KPI-Berichte in Echtzeit zu erstellen. Darüber hinaus lässt sich Looker problemlos mit Jupyter-Notebooks verbinden und kann problemlos in datenwissenschaftliche Projekte integriert werden. Laut dem G2 2020-Bericht weist Looker eine hohe Kundenzufriedenheit und ähnlich große Marktpräsenz wie Domo und Tableau auf. Im Vergleich zu den anderen Lösungen hat es mit 88% die höchste Rate von Benutzern, die bereit sind, es weiterzuempfehlen. Was die Preisgestaltung betrifft, so steht eine kostenlose Testversion zur Verfügung, aber die Abonnementpreise richten sich nach der Anzahl der Benutzer.
Unser Schlusswort
Die vier vorgestellten BI-Lösungen sind großartige Technologien, mit denen Sie experimentieren können, um die richtige Lösung für Ihr Unternehmen zu finden. Neben einer soliden BI-Strategie, bei der Metriken, KPI und Stakeholder-Anforderungen im Fokus stehen, ist es auch wichtig, sicherzustellen, dass alle erforderlichen Daten auch immer konsistent und vollständig erfasst werden. Die Datenqualität bildet das Fundament für den Aufbau einer kohärenten Entscheidungsgrundlage. Die passende BI-Lösung setzt darauf auf, stärkt die Beteiligten, vereinheitlicht und zentralisiert Informationen und setzt damit einen Impuls zur Weiterentwicklung hin zu einer datenorientierten Unternehmenskultur.