Vor- und Nachteile von Server Side Tracking

Vor- und Nachteile von Server Side Tracking

Lesedauer: 5 Minuten

Aktuelle Marktsituation

Sie haben sicherlich schon davon gehört: Aufgrund der DSGVO-Bestrebungen ist das Thema Datenschutz in aller Munde. Auf Basis von den Regelungen der DSGVO werden immer mehr Rechtsurteile gesprochen und Strafen verteilt. Den Marketingabteilungen wird das Tracking der Nutzer auf den eigenen Websites oder in den eigenen Apps erschwert, das Thema “Datenschutz” durchdringt viele Abteilungen eines Unternehmens.

Die resultierenden Bedenken im Rahmen des Trackings der Nutzer auf den Websites und Apps ist verständlich und auch richtig.  Die Gunst der Stunde kann Server Side Tracking nutzen. Server Side Tracking kann im Rahmen des Trackings als Baustein gesehen werden, um den schärfer werdenden Datenschutzanforderungen gerecht zu werden, alleine wird es diese Anforderungen aber nicht lösen.

Wir möchten in diesem Blogbeitrag allerdings nicht die Bedenken oder gar das Thema Datenschutz behandeln, sondern zeigen einen Weg auf, wie mit Server Side Tracking umgegangen werden kann.

Was ist Server Side Tracking?

Mit Server Side Tracking ist der Einsatz eines eigenen Trackingservers gemeint. Der Trackingserver wird als Zwischeninstanz implementiert, um Nutzerinteraktionen auf der eigenen Website oder App mit Analyse- und Marketingtools zu teilen.

Das Server Side Tracking als eher neue Bewegung am Markt grenzt sich hierbei deutlich vom bisherigen Vorgehen ab, dem Client Side Tracking. Beim Client Side Tracking wird die Nutzerinteraktion auf der Website oder App direkt aus dem Browser des Nutzers bzw. der nativen Applikation an die Analyse- und Marketingtools gesendet. Im Folgenden gehen wir auf die Funktionsweise der Server Side Trackings ein und behandeln die Vor- und Nachteile.

Wie funktioniert Server Side Tracking?

Die Funktionsweise haben wir im vorigen Abschnitt kurz angerissen und vertiefen es hier anhand des Beispiels mit dem Server Side Tracking mit Google Tag Manager.

Request

Geben User in der URL-Zeile ihres Browsers eine Webadresse ein, sendet der Browser eine HTTP-Anfrage an den Server des Website-Inhabers. Somit fragt ein Client Informationen beim Server an und erwartet eine entsprechende Antwort in Form des HTML-Gerüsts, der CSS-Dateien für das Aussehen der Seite und verschiedener Skripte.

Mit anderen Worten: Mit der Adresseingabe in der URL-Zeile fragt der Browser beim Server an, die angefragte Webseite anzeigen zu können.

Response

Sobald der Server das Signal vom Client bzw. Browser erhält, interpretiert er es und sendet seine Antwort. Dazu gehören neben HTML-Gerüst und CSS vor allem JavaScript-Skripte, die unter anderem zum Ausführen von Tracking benötigt werden.

Das heißt, der Server stellt die Informationen bereit, die es braucht, um die Seite im Browser darzustellen.

Tag Manager lädt

Eines dieser Skripte ist beispielsweise der Google Tag Manager (gtm.js), der auf der Seite eingebaut ist. Das ist der client-seitige Container, der vom Google Tag Manager (Website Google Tag Manager) angefordert wird.

Sende Tags

Darin befinden sich anbieter-spezifische Tags, die regalbasiert die erfassten User-Interaktionen auf der Website weiterleiten. Die Besonderheit im Server Side Tracking ist, dass sie jedoch nicht an die jeweiligen Anbieter direkt gesendet werden, sondern an einen eigens eingerichteten Trackingserver. Auf dem Trackingserver ist das Pendant zum Client-Side Tag Manager implementiert, der Server Side Tag Manager.

Datenstrom

Die erfassten und strukturierten Daten auf der Website werden an den Server Side Endpunkt weitergeleitet. Anstatt direkt aus dem Browser die erfassten Daten durch den Tag Manager direkt an die verschiedenen Anbieter zu senden, werden die Daten an den Server Side Tag Manager weitergeleitet. Dies passiert mit jeder zu erfassenden Nutzerinteraktion.

Client

Im Server Side Tag Manager werden die eingehenden Datenströme verarbeitet. Hier gibt es zusätzlich zu den bekannten Tag Manager Funktionen anbieter-spezifische Clients. Diese Skripte warten auf einen Request, der an sie adressiert ist. Sie verarbeiten die eingehenden Informationen zu einem Datenmodell, mit welchem im Server Side Tag Manager gearbeitet wird.

Tags

Basierend auf den eingehenden Datenströmen werden Tags erstellt. Dabei können Daten extrapoliert werden, um Datenhoheit und -qualität zu gewährleisten.

Server Side Tracking Request

Im letzten Schritt wird der neu strukturierte Tag (Request) an das jeweilige Analyse- oder Marketingtool geschickt. Dieser Vorgang ist aus dem Client Side Tracking bekannt. Damit erhalten die Empfänger-Technologien nur noch die Informationen, die ihnen zur Verfügung gestellt werden.

Welchen Nutzen kann ich daraus ziehen?

Durch Server Side Tracking haben Sie gegenüber dem Client Side Tracking Vorteile bezüglich Datenkontrolle, Datenqualität und teilweise in der Websitegeschwindgkeit.

Datenkontrolle / Datenhoheit

Beim Client Side Tracking übernimmt meist ein JavaScript-Skript das Versenden der Daten. Dies geschieht vollautomatisch, was selbstverständlich sehr bequem für das Unternehmen ist.

Beim Server Side Tracking können Sie die Daten im Tag manipulieren. Sie haben die Möglichkeit, gewisse Datenpunkte zu entfernen. Dies könnten z.B. die IP Adresse oder der User Client sein. Durch die volle Kontrolle der versendeten Datenpunkte adressiert das Server Side Tracking hervorragend etwaige bestehende Bedenken hinsichtlich der Data Governance Thematik und Sie gewinnen die Hoheit über Ihre Daten zurück.

Datenqualität trotz AdBlocker & Tracking Prevention

Der nächste Aspekt, den wir aufzeigen werden, ist die Erhöhung Ihrer Datenqualität durch die Umgehung von AdBlockers oder Tracking Prevention Maßnahmen einiger Browseranbieter (Apple Safari, Mozilla Firefox).

Die in der Vergangenheit zugenommenen Werbeausspielungen und Trackings im Internet führten dazu, dass viele Nutzer und einige Browserhersteller Maßnahmen eingeleitet haben, um den Nutzer zu schützen. Die Maßnahmen blockieren Trackings, weswegen die Qualität der Daten in den einzelnen genannten Tools (z.B. Web Analyse oder Online Marketing) abnehmen kann.

Da beim Server Side Tracking die Requests nicht direkt an die Anbieter gesendet werden, sondern an die eigene Subdomain, werden diese Browser-seitigen Maßnahmen zur Trackingprevention umgangen, was zur Erhöhung der Datenqualität führt.

Erhöhung der Websitegeschwindigkeit

Durch die Verlagerung des Tracking aus dem Client Side Tracking zum Server Side Tracking wird der Payload reduziert. Unter Payload versteht man u. a. die Datenmenge, die bei der Kommunikation im Internet hin- und hergeschickt wird.

Die Höhe des möglichen Einsparungspotenzials hängt im Einzelnen von den exisitierenden Track Trackings ab, die aus dem Client Side Tracking in das Server Side Tracking umgelagert werden.

Welche Nachteile sind mit Server Side Tracking verbunden?

Der Einsatz vom Server Side Tracking bringt nicht nur Vorteile mit sich, sondern ist ebenfalls mit Nachteilen verbunden. Die berühmte Kehrseite der Medaille ist in diesem Fall eine steigende Komplexität, verbundene Kosten und das relativ frühe Stadium in der Massentauglichkeit.

Komplexität

Wie Sie sicherlich schon aus dem Blogartikel entnommen haben, steigt mit der Implementierung eines Server Side Trackings auch die Komplexität Ihrer generellen Tracking-Implementierung. Technisches Fachwissen und Expertise zum Aufsetzen eines Tracking Servers und zum Umgang mit dem Server Side Tag Manager sind dringend von nöten.

Durch die Umsetzung eines sauberen Server Side Tracking Setups ist die laufende Instandhaltung hinsichtlich ihrer Komplexität einem bestehenden Client Side Tracking Setups gleichzusetzen.

Kosten

Anders als beim kostenlosen Client Side Tracking mit GTM fallen beim Server Side Tracking Kosten für den Server mit dem Google Tag Manager GTM Container an. Dieser lässt sich sowohl in Cloud Umgebung von entsprechenden Anbietern als auch in einer eigenen Cloud umsetzen und betreiben. Für ein einfaches Setup bietet sich hierzu aktuell die Google Cloud an.

Die entstehenden Kosten setzen sich dabei aus monatlichen Kosten für die benötigten Server (CPU, Speicherplatz, etc.) und Kosten basierend auf den Zugriffen auf der Website / App. Die folgenden beispielhaft errechneten Kosten beziehen sich auf die Nutzung der Google Cloud App Engine.

Pro Server fallen Kosten in Höhe von ca. 40 Euro an, wobei Google den Einsatz von mindestens drei Servern empfiehlt, um Datenverluste zu vermeiden. Folglich sollten für die Server Kosten in Höhe von ca. 120 Euro eingeplant werden. Die Anzahl der benötigten Server steigt, je stärker eine Seite besucht und genutzt wird. Dazu kommen die Nutzungskosten, die über ein flexibles Abrechnungsmodell abgerechnet werden und deren Höhe sich aus der Intensität der Nutzung und Auslastung der Server (Stichwort „Traffic“) ergibt.

Sie können mit Kosten pro Server mit ca. 40 EUR rechnen und weiteren ca. 100 EUR pro 500.000 Requests auf den Server.

Massentauglichkeit

Das Server Side Tracking ist technisch einwandfrei umsetzbar, befindet sich allerdings hinsichtlich der Anzahl unterschiedlicher Anbieter, die serverseitig Daten empfangen können, noch in der early-adopter Phase. Mit fortschreitender Zeit werden immer mehr Anbieter die Möglichkeit schaffen, serverseitig Daten zu empfangen und somit einen weitern Grund liefern, das Server Side Tracking einzusetzen.


Fazit

Unser Schlusswort

Das Server Side Tracking ist eine zukunftsfähige Technogie, deren Einsatz mit zunehmender Massentauglichkeit sicherlich auch Einzug in die meisten Tracking-Implementierungen halten wird. Die positiven Aspekte, gerade im Rahmen der Data Governance und der Datenqualität, werden die Aspekte Komplexität und Kosten mehr als aufwiegen.

Wenn Sie schon heute zukunftsorientierte Trackinglösungen in Ihrem Unternehmen einsetzen wollen, lassen Sie sich von den Experten der Digital Motion hierzu beraten. Wir nehmen Ihnen die komplexe Implementierung ab und helfen Ihnen, das benötigte Know-How aufzubauen. Unser Produkt “Server Side Tracking (Google)” wurde eigens für die Umsetzung entwickelt.

Für mehr Informationen zum Server Side Tracking (Google) klicken Sie hier.


Probleme und Herausforderungen von kleinen mittelständischen Unternehmen (KMU) mit Digital Analytics

Probleme und Herausforderungen von kleinen mittelständischen Unternehmen (KMU) mit Digital Analytics

Und wie Sie diese lösen können

Lesedauer: 4 Minuten

Digital Analytics – kaum eine Disziplin weckt so gegensätzliche Reaktionen wie diese. Auf der einen Seite haben wir die Expert*innen. Diese konnten in Ihrer Laufbahn bereits eine Menge Erfahrung sammeln. Sie besitzen ein exzellentes Verständnis der Thematik und haben bereits einen fortgeschrittenen Reifegrad erreicht. Auf der entgegengesetzten Seite des Spektrums ist man meistens etwas reservierter. Das liegt daran, dass die Hürden beim Einstieg in das Thema sehr hoch sind. An genau dieser Stelle stehen viele kleine und mittelständische Unternehmen (KMU) in Deutschland. Die Gründe dafür sind vielschichtig und können am fehlenden Know-how, fehlender Verantwortlichkeit oder mangelnden Ressourcen liegen.

Eines lässt sich aber nicht abstreiten: Daten finden immer mehr Verwendung und Bedeutung in Geschäftsprozessen. Daher ist es wenig überraschend, dass die Komplexität im Umgang mit Daten kontinuierlich steigt und regelmäßig neue Tools und Technologien auf den Markt gebracht werden. Wenn Sie sich also nicht regelmäßig mit der Thematik auseinandersetzen, können Sie leicht die Übersicht verlieren. Insbesondere die folgenden drei Stolpersteine sorgen bei KMU für Herausforderungen im Digital Analytics Bereich.

Stolperstein 1

Bestimmen, an welcher Stelle Sie gerade stehen

Digital Analytics ist ein vielschichtiges Thema. Daher ist es von großer Bedeutung, sich dem Thema Schritt für Schritt zu nähern. Insbesondere, wenn Sie noch keine oder nur wenige Berührungspunkte damit hatten. Bevor Sie in Ihrem Unternehmen über Attributionsmodelle oder komplexe Customer Journey Analysen sprechen, sollten Sie zunächst den Status quo Ihrer Digital Analytics Strategie bestimmen. Dafür können Sie sich folgende Fragen stellen:

  • Gibt es im Unternehmen (Daten-)spezifische Rollen oder Verantwortlichkeiten?
  • Werden Daten gesammelt? Wenn ja, welche?
  • Wie werden diese genutzt?
  • Wer hat Zugang zu den Daten?
  • Wie sieht der Tool-Stack in Ihrem Unternehmen aus?

Stolperstein 2

Definition des angepeilten Zielbilds für Ihr Unternehmen

Nun wissen Sie und Ihr Unternehmen, wo Sie bezüglich Ihrer Digital Analytics Strategie stehen. Die nächste Frage, die Sie sich stellen sollten, lautet: Wohin wollen Sie mit Ihrem Unternehmen?
Oftmals haben KMU das Problem, dass kein gemeinsames Zielbild für die Digital Analytics Strategie erarbeitet worden ist. Ohne dieses gemeinsame Zielbild ist es fast unmöglich, dass alle Beteiligten im Rahmen einer Kampagne an einem Strang ziehen. Dies zeigt sich dadurch, dass Aussagen nicht einheitlich kommuniziert oder Kanäle nicht passend bespielt werden. Aus diesem Grund sollte während der Planung von Kampagnen unbedingt über die Erfolgsmessung dieser gesprochen werden. Dafür ist es unerlässlich, für jede Maßnahme im Rahmen einer Kampagne ein passendes KPI Framework heranzuziehen und die Daten anschließend in eine aussagekräftige Reporting Struktur zu überführen.

Daher sollten Sie Ihren Tool-Stack funktionell unter die Lupe nehmen. Hierfür bieten sich folgende Fragen an:

  • Passt Ihr Tool-Stack zu Ihren Zielen?
  • Lässt sich im Tool alles so abbilden, wie Sie es sich vorgestellt haben?
  • Bekommen Sie aussagekräftige Reports?

Stolperstein 3

Bestimmung des Aufwands und Umsetzung von Optimierungsmaßnahmen

Oftmals haben KMU den Eindruck, dass Digital Analytics für Sie nicht in Frage kommt. Dies basiert auf der Annahme, dass Digital Analytics Beratung für die meisten Unternehmen zu kostspielig ist, ohne einen direkten Nutzen zu bringen. Beratungsmandate sollen über mehrere Monate in Auftrag gegeben werden, ohne zu wissen, wie das Ergebnis in Zukunft konkret aussehen wird.
Insbesondere KMU, bei denen oftmals Zwischenfragen oder kleinere Stolpersteine in der Nutzungsphase von Analytics Tools auftreten, haben keinen Nutzen von solchen überproportionalen Projekten. Hinzu kommt, dass viele Beratungs- und Dienstleistungsmodelle nicht transparent in der Abrechnung sind. Dies sorgt für Unsicherheit bei den Verantwortlichen. Sie sollten sich daher folgende Fragen stellen:

  • Was kosten Sie Ihre Digital Analytics Maßnahmen?
  • Was bringen Ihnen die Maßnahmen aktuell?
  • Welche Aussagen können Sie aus Ihren aktuellen Reports ziehen?

Unsere Lösung

Das KMU Starter Paket für Digital Analytics

Digital Motion hat für genau diese Stolpersteine das KMU Starter Paket entwickelt. Dieses richtet sich speziell an KMU und ermöglicht einen schnellen und unkomplizierten Einstieg in die Digital Analytics Welt. Das KMU Starter Paket besteht aus einem Analytics für KMU Micro Training, einem Web Analytics Tool Check-up und einem Consulting Quarter S-Paket.

Im Analytics für KMU Micro Training entschlüsseln wir zusammen mit den Teilnehmern die Bedeutung von Digital Analytics und zeigen die Relevanz für das eigene Unternehmen auf. Zudem bestimmen wir gemeinsam Ihren Digital Analytics Reifegrad und geben erste Handlungsempfehlungen in Form von Quick Wins für Sie. Erst wenn die Basis gelegt ist, ein Grundverständnis geschaffen wurde und der Digital Analytics Reifegrad ermittelt werden konnte, sollte das Thema strategisch beleuchtet werden.

Im Web Analytics Tool Check-up betrachten wir, gemeinsam mit Ihnen, die technische Implementierung Ihrer Analytics Lösung. Zudem überprüfen wir Tracking Calls und begutachten die einzelnen Bausteine wie Trigger und Variablen im Tag Manager. Im Fall einer statischen Implementierung untersuchen wir die relevanten Code Snippets direkt auf der Seite. Anschließend prüfen wir die entstehenden Reports, um Fehler auszuschließen und Handlungsempfehlungen geben zu können. Wir untersuchen also, ob Ihr Tool-Stack so funktioniert, wie Sie es sich vorgestellt haben.

Nun haben Sie sich einen Überblick über den Status quo verschafft sowie Ihr Zielbild definiert. Im nächsten Schritt unterstützen wir Sie flexibel bei der Umsetzung der identifizierten Quick Wins mit unserem Consulting Quarter (CQ). Bei dem CQ handelt es sich um virtuelle Wertmarken, die jeweils für 15 Minuten Beratungszeit stehen. Diese können individuell nach Bedarf eingesetzt und flexibel abgerechnet werden. Das Consulting Quarter S-Paket enthält 32 CQ, was einem Beratertag entspricht.


Fazit

Unser Schlusswort

Digital Analytics kann eine sehr komplexe und tiefgehende Disziplin sein, wenn man es denn möchte. Das muss, insbesondere am Anfang der Reise, aber gar nicht der Fall sein.

Alles beginnt mit einer guten Standortbestimmung und einer sauber aufgesetzten (Daten-) Strategie. Die abgeleiteten Maßnahmen dieser sollten auf realistischen und messbaren Zielen basieren und regelmäßig gesteuert werden können. Zudem ist essenziell, eine funktionierende technische Infrastruktur aufzuziehen, die regelmäßige und zuverlässige Reports ermöglicht. Sollte es im Nachgang weiteren Beratungsbedarf oder Zwischenfragen geben, ermöglicht das Consulting Quarter S-Paket eine schnelle und unkomplizierte Beantwortung von diesen.

Das KMU Starter Paket eignet sich perfekt für kleine und mittelständische Unternehmen, die den ersten Schritt in die Digital Analytics Welt gehen wollen.

Wollen Sie den nächsten Digital Analytics Reifegrad erreichen?
Das KMU Starter Paket erhalten Sie hier.


Was bringen mir Domo, Tableau, Power BI und Looker? Die wichtigsten Business Intelligence Tools auf einen Blick

Was bringt mir Domo, Tableau, Power BI und Looker? Die wichtigsten Business Intelligence Tools auf einen Blick

Lesedauer: 6 Minuten

Der Artikel richtet sich an Leser, die derzeit Schwierigkeiten bei der Auswahl einer Business Intelligence (BI) Lösung haben, diese aber zeitnah im Unternehmen integrieren möchten. Bei der Auswahl müssen zahlreiche Faktoren beachtet werden, wie beispielsweise die Möglichkeiten Daten zu extrahieren, kompilieren, organisieren und zu analysieren. Die Entscheidungsfindung kann, aufgrund der komplexen Voraussetzungen an eine datengesteuerte Entscheidungsfindung, mitunter zeit- und kostenintensiv sein. An dieser Stelle setzt der Artikel an und hilft mit einer Experteneinschätzung weiter.

Eine gut implementierte BI-Strategie mit der passenden Lösung und kontinuierlich sichergestellter Datenqualität stellt die Grundlage für die Steigerung der Arbeitseffizienz in den unterschiedlichen Unternehmensbereichen dar. Nach der Zusammenführung, Bereinigung und Aufarbeitung der Daten dient die BI- Lösung als zentralisierte Informationsquelle und fördert die Entwicklung einer datengestützten Unternehmenskultur.

Einige BI-Lösungen sind so konzipiert, dass sie in erster Linie von Analysten zur Erstellung von Berichten und Dashboards verwendet werden können. Andere sind hingegen als Self-Service Lösungen gedacht, bei denen auch nicht fachkundige Nutzer Einblicke erhalten, ohne dabei auf technische Unterstützung angewiesen zu sein. Im Grundumfang bieten alle BI-Lösungen zudem im Kern die Möglichkeit zur Vorbereitung, Modellierung, Zusammenführung, Visualisierung und Bereitstellung von Erkenntnissen.

Obgleich sich die Lösungen ähneln, kann die Wahl der falschen Lösung potentiell drastische, fortwirkende Auswirkungen haben. So kann es bei einer ungenügenden Abstimmung der Anforderungen beispielsweise dazu kommen, dass notwendige Berichtsmöglichkeiten nicht zur Verfügung stehen, Latenzzeiten zu lang sind oder selbst vermeintlich einfache Berichte nicht ohne weiterführende Kenntnisse in SQL und dergleichen erstellt werden können. Darüber hinaus kann es vereinzelt dazu kommen, dass Probleme bei der Kontrolle der Datenqualität auftauchen und Validierungsprozesse erforderlich machen, die gezielt nach Inkonsistenzen suchen und damit erst eine sinnvolle Anreicherung mit Daten von Drittanbietern ermöglichen.

Zusammenfassend ist es notwendig die spezifische Anforderungserfüllung in Bezug auf Berichterstattung, Kosten, Datenkapazität, Integrationsanforderungen, Benutzerakzeptanz und Self-Service-Design bestmöglich zu antizipieren.

Bei der Vielzahl an verfügbaren BI-Lösungen mit in der Regel mehr als 20 relevanten Kandidaten, kann man daher schnell den Überblick verlieren. Eine sehr vereinfachte Auswahlmethode kann darin bestehen, dass basierend auf einer Vorauswahl von drei bis fünf Lösungen, eine Test-Integration für eine Zeit von den realen Anwendern genutzt wird. Nach einer beispielsweise zweiwöchigen Testphase werden die Eindrücke strukturiert erfasst und eine Entscheidungsvorlage für das Management erstellt. Dank dieses sehr realitätsnahen Vorgehens wird ein gutes Bild bezüglich des Integrationsaufwands, der Benutzerfreundlichkeit und der Möglichkeit zur Datenmigration gewonnen. In diesem Zuge werden insbesondere folgende Fragen beleuchtet:

  • Unterstützt das Tool API-Verbindungen, Datenbankabfragen oder CSV-Dateien?
  • Wie kompliziert ist es – von Drag-and-Drop bis zur Kodierung – Daten zu modellieren oder KPIs zu berechnen?
  • Sind die erstellten Berichte, Datenwerkzeuge oder Visualisierungen von hoher Relevanz, umfangreich und anpassbar?
  • Wie gut lässt sich das Produkt eigenständig nutzen und welche Formen der Automatisierung von Berichten etc. gibt es? Können Berichte automatisch per E-Mail verteilt werden?
  • Wer sind die Endbenutzer? Sind es ausschließlich Fachanwender und Experten oder alle Mitarbeiter? Wird ein Self-Service Modell den Anforderungen des Unternehmens besser gerecht?
  • Was sind die Einschränkungen, und stehen sie im Konflikt mit den Geschäftsanforderungen?
  • Wie ist das Support Level? Wie groß ist die Anwender-Community und gibt es zugängliche Wissensplattformen mit Fachartikeln etc.?
  • Wie sieht die Preisstruktur aus? Entstehen Kosten pro Nutzer, nach Datenvolumen oder werden sie pauschal vereinbart?

Für die erfolgreiche Durchführung des Tests sind folgende Voraussetzungen notwendig:

  • Verfügbare Daten-Beispiele aus Systemen wie BigQuery, Redshift, eine Datenquelle wie Google Analytics oder SQL-Datenbanken
  • Klare Kommunikation zwischen allen Beteiligten zur Zielsetzung des Tests und offene Diskussion der Plattformen
  • Kapazitäten zur Ausarbeitung der Testergebnisse, was aus Effizienzgründen und zur Einbeziehung einer weiteren neutralen Meinung eine kleinteilige, externe Beratung sinnvoll machen kann

Als erste Orientierung stellen wir in einem Überblick vier besonders relevante Lösungen kurz vor.

Was bringt mir?

Domo

Domo ist eine cloudbasierte BI-Lösung, die sich für Unternehmen aller Größenordnungen eignet. Domo kann sowohl Mikro- als auch Makroanalysen mithilfe von Grafiken, sogenannten “Karten”, durchführen und damit typische Geschäftsfragen visuell und intuitiv verständlich beantworten. Die hochgradig anpassbaren und interaktiven Visualisierungen können über Registerkarten in einem Dashboard organisiert werden, die von verschiedenen Abteilungen oder Teams definiert werden. Die benutzerfreundliche Echtzeit-Verarbeitung und die Panoramadarstellung der Informationen bietet ein schlüssiges und vollständiges Bild der Daten in all ihren Facetten. Dies ist insbesondere hilfreich, um Erkenntnisse über verschiedene Teams hinweg zu gewinnen, zu teilen und damit eine datengeprägte Unternehmenskultur zu fördern. Die größte Schwäche von Domo ist die teils mühsame Verwaltung und Pflege. Teilweise treten vereinzelt Fehler auf, deren Behebung einen fortgeschrittenen Grad an technischem Verständnis voraussetzt. Trotz dieser Einschränkungen nimmt Domo bei der Kundenzufriedenheit einen hohen Rang ein und verfügt über eine große Marktpräsenz. Laut G2-Bericht 2020 ist Domo die beste BI-Lösung mit 87% der Benutzer, die angeben, dass sie Domo weiterempfehlen würden. Domo unterscheidet zwischen Starter-, Profi- oder Unternehmenslizenzen. Die Kosten umfassen eine Vorabgebühr bzw. Plattformkosten, sowie eine monatliche Gebühr.

Was bringt mir?

Tableau

Im Gegensatz zu Domo bietet Tableau eine Desktop- und eine Online-Version, wobei erstere hauptsächlich für die Erstellung von Berichten, Stories oder Dashboards verwendet wird. Die Online-Version dient vor Allem dazu, die Berichte an die unterschiedlichen Stakeholder im gesamten Unternehmen weiterzugeben. Tableau bietet eine schnelle und unkomplizierte Datenintegration, bei der Millionen von Datenzeilen problemlos verarbeitet werden können. Das schnelle Prototyping von Visualisierungen von Datensätzen ist ein weiterer, klarer Vorteil. Darüber hinaus sind interaktive Grafiken in Berichten mithilfe einer Drag-and-Drop-Oberfläche und Filtern einfach zu erstellen. Die insgesamt hohe Benutzerfreundlichkeit, die niedrigen Kosten und die kostenlose 14-tägige Testversion sind positive Argumente für Tableau. Dementgegen steht, dass Tableau keine Datenverschlüsselung unterstützt und keine Unterstützung für Integrationen an verteilten Standorten bietet. Darüber hinaus erfordern umfangreiche Datenintegrationen und andere komplizierte Aufgaben IT-Unterstützung. Trotz der Einschränkungen ist Tableau als älteste der Plattformen diejenige mit der größten Marktpräsenz. Im Vergleich zu den anderen Plattformen ist der Anteil der Nutzer, die Tableau weiterempfehlen würden mit 83% am geringsten ausgeprägt (G2 2020). Tableau rechnet auf der Grundlage der Anzahl der Benutzer und der Benutzerlizenzen ab. Das Abonnement umfasst sowohl Desktop- als auch Online-Cloud-basierten Tableau-Zugriff.

Was bringt mir?

Power-BI

Power BI ist in hinsichtlich der Visualisierung, Benutzerfreundlichkeit und den Kosten sehr ähnlich zu Tableau. Die Lösung von Microsoft bietet eine einfache Drag-and-Drop-Oberfläche, ein unkompliziertes Self-Service-Design für eingenständige Berichtsanforderungen und eine Freemium-Lizenz für einzelne Benutzer, die sich gut skalierbar und zu erschwinglichen Preisen erweitern lässt. Plugin-Bibliotheken mit neuen Grafiken und erweiterten Analysemethoden wie Clustering und Netzwerkgrafiken, bieten einfachen Zugang zu weiterführenden Funktionen. Darüber hinaus sind die Dashboards in Power BI, mit ihren Filtern und Skalen zur Segmentierung oder Manipulation der Daten, nicht nur intuitiv und interaktiv, sondern verfügen auch über inhärente Drill-Down-Funktionen für verschachtelte Daten und Zeitreihendaten. Einige zu berücksichtigende Einschränkungen sind jedoch die begrenzten Datenkapazitäten und die Limitierungen bei der Bearbeitung großer Datenmengen. Da es sich um eine Windows-Anwendung handelt, müssen Nutzer anderer Betriebssystem über Remote-Desktops oder parallele Betriebssystemsoftware auf Power BI zugreifen, was den Zugriff erschweren kann. Laut G2 2020 weist Power BI eine geringe Kundenzufriedenheit auf und schneidet vor Allem in den Punkten qualitativ hochwertiger Support, prädiktive Analyse und Big-Data-Dienste schlecht ab. Trotz der Schwächen würden 87 % der Benutzer Power BI empfehlen.

Was bringt mir?

Looker

Als neueste der BI-Lösungen ist Looker eine interessante Mischung aus den 3 vorherigen Lösungen. Wie Domo bietet Looker eine vollständig webbasierte Plattform mit Echtzeit-Aktualisierung und einem kohärenten Bild der Daten, verwendet aber seine eigene proprietäre SQL-basierte Sprache LookML. Mit LookML kann der Benutzer skalierbare und wiederverwendbare Datenmodelle erstellen. Die Ähnlichkeit von Looker zu Tableau besteht insofern, dass Looker große Datensätze gut handhaben kann, dies jedoch durch die Erstellung lokal gespeicherter Datensätze im Browser erfolgt, wodurch die Ladezeiten verringert werden. Wie Power BI verfügt Looker über intuitive und interaktive Grafiken mit angeborener Drill-Down-Funktionalität und eine umfangreiche Bibliothek für neue Diagramme. Die größte Stärke von Looker ist jedoch der voll funktionsfähige Self-Sevice-BI Ansatz und der Datenmarkt. Benutzer können Daten direkt aus Looker abfragen, indem sie Variablen per Drag-and-Drop manipulieren und somit CSV-Dateien und Pivot-Tabellen für den Export erstellen. Wir haben erlebt, dass sich Anwender komplett von technischer Unterstützung in SQL und dergleichen unabhängig machen und sich stattdessen auf sich verlassen konnten. Dies ist der Schlüssel um tatsächlich flächendeckend in der Lage zu sein, anpassbare, automatisch aktualisierte KPI-Berichte in Echtzeit zu erstellen. Darüber hinaus lässt sich Looker problemlos mit Jupyter-Notebooks verbinden und kann problemlos in datenwissenschaftliche Projekte integriert werden. Laut dem G2 2020-Bericht weist Looker eine hohe Kundenzufriedenheit und ähnlich große Marktpräsenz wie Domo und Tableau auf. Im Vergleich zu den anderen Lösungen hat es mit 88% die höchste Rate von Benutzern, die bereit sind, es weiterzuempfehlen. Was die Preisgestaltung betrifft, so steht eine kostenlose Testversion zur Verfügung, aber die Abonnementpreise richten sich nach der Anzahl der Benutzer.


Fazit

Unser Schlusswort

Die vier vorgestellten BI-Lösungen sind großartige Technologien, mit denen Sie experimentieren können, um die richtige Lösung für Ihr Unternehmen zu finden. Neben einer soliden BI-Strategie, bei der Metriken, KPI und Stakeholder-Anforderungen im Fokus stehen, ist es auch wichtig, sicherzustellen, dass alle erforderlichen Daten auch immer konsistent und vollständig erfasst werden. Die Datenqualität bildet das Fundament für den Aufbau einer kohärenten Entscheidungsgrundlage. Die passende BI-Lösung setzt darauf auf, stärkt die Beteiligten, vereinheitlicht und zentralisiert Informationen und setzt damit einen Impuls zur Weiterentwicklung hin zu einer datenorientierten Unternehmenskultur.