28.11.2018

Gartner Datenanalyse-Trends: Alles auf Anfang?

Am 23. + 24. Oktober 2018 fand das „Gartner Data & Analytics Summit“ in Frankfurt statt.

Mein Geschäftsführerkollege Martin und ich nahmen an dieser Veranstaltung teil, um uns über aktuelle Trends in Sachen Datenanalyse zu informieren. Schließlich sind Buzzwords wie Artificial Intelligence, Machine Learning, Cloud Analysen, oder NPL (Natural Language Processing) in aller Munde, und für uns ist natürlich die Einschätzung der aktuellen Lage und der Ausblick auf eine potentielle Gestaltung der Zukunft ein wichtiges Thema.

Wie schnelllebig die digitale Welt geworden ist, zeigt sich unter anderem daran, dass der Begriff „Blockchain“ sich im Gartner Hype Cycle bereits wieder auf dem absteigenden Teil der Kurve befindet - und das, obwohl sich gefühlt nur sehr wenige praxistaugliche, umfassende Implementierungen und Anwendungsszenarien selbst bei digitalen Vorreitern identifizieren lassen. (Ein Eindruck, der übrigens auch auf der DSAG Jahrestagung gestärkt wurde). Da stellt sich natürlich die Frage, wie sich Trends identifizieren lassen, die nachhaltige Auswirkung auf die Themen haben, die für uns im Kontext der Datenanalyse relevant sind. Bevor wir die Trends erläutern, werfen wir einen Blick auf die Historie und Gegenwart:

Vor 15 Jahren: Anwender in den Fachabteilungen sollten dazu gebracht werden, Daten selbst zu analysieren

Warum ist dieser Blogpost mit „Alles auf Anfang?“ betitelt? Nun, als wir vor knapp 15 Jahren angefangen hatten, uns mit dem Thema Datenanalyse zu beschäftigen, war die Situation wie folgt: Analysesoftware wie ACL™ und IDEA gab es zwar; diese war aber damals noch ausschließlich als reine Desktopsoftware verfügbar. In Unternehmen wurde versucht, die Nutzung von Datenanalyse zu etablieren, indem man die Mitarbeiter dazu anhielt, ACL™ Desktop einzusetzen, Daten aus den Systemen in die Software zu laden und Analysen durchzuführen.

Dies scheiterte aus verschiedenen Gründen in vielen Fällen: Die Software war für Fachanwender ohne IT Background oft zu komplex: Manuelle Analysen, das Verknüpfen verschiedener Datenquellen über homogenisierte Primärschlüssel, JOIN Logiken und ähnliche Aspekte überforderten den User, der zudem auch nur unregelmäßig im Tagesgeschäft die Zeit fand, sich mit dem Analysetool zu beschäftigen. Die Folge war, dass zwar viele Lizenzen von Analysesoftware im Umlauf waren – diese aber viel zu wenig genutzt wurden.

2010-2015: Monitoring und BI Plattformen etablieren sich

Dieser Umstand war entscheidend für unser erfolgreiches Geschäftsmodell: Indem wir die Analysen mittels Serverlösungen zentralisierten, den Datenzugriff z.B. auf SAP® Daten sicherstellten und vordefinierten Analysecontent etablierten, wurde Datenanalyse für unsere Kunden auch im Tagesgeschäft nutzbar. Damit kann man unsere Lösung dem, wie Gartner es nannte, „BI Zeitalter“ zuordnen.

2015-dato: Die Mischung aus klassischer BI und Self-Service Plattform wird zum Erfolgsmodell

Allerdings schreibt Gartner diesen BI Plattformen abnehmende Bedeutung zu, und betont eine dramatische Verlagerung weg vom reinen BI Monitoring. Aktuell wäre das Monitoring über Information Portals und Dashboards nahezu gleichbedeutend mit der explorativen Analyse über Analytics Workbenches und Self Service Plattformen. Auch das unterschreiben wir, da wir uns mit Konzepten wie der dab:AnalyticSuite schon lange von „Reports only“ wegbewegt haben, und den Benutzern für verschiedene Geschäftsprozesse eine Datenbasis vorgeben, auf dieser basierend sie eigene Analysen durchführen können, ohne dass bei der Kombination von Rohdaten bei 0 begonnen werden muss.

Kurz- und Mittelfristiger Ausblick 2018-2021

Für die nächsten drei Jahre sieht Gartner eine Unterstützung dieser Self-Service Plattformen durch Data Science, und Artificial Intelligence bzw. Machine Learning. Auch das ist eine nachvollziehbare Überlegung, die wir für uns selber auch bereits mit neuen Produkten wie dab: AnalyticIntelligence angehen. Es wird immer die Notwendigkeit geben, regelbasierte Abfragen in Form bestimmter Reports zu machen, gerade im Kontext des internen Kontrollsystems. Aber flankierend dazu bedingen die steigenden Datenmengen, sowie die Herausforderung, Antworten zu bekommen auf Fragen die man noch gar nicht kennt, neue Methoden der Datenanalyse einzusetzen. Diese ersetzen die klassische Datenanalyse nicht, aber ergänzen sie an wichtigen Stellen.

Ausblick in die erweiterte Zukunft

Diese wird als „Zeitalter der künstlichen Intelligenz“ betitelt; ohne inhaltlich hier konkret zu werden.

Ein Trend, der auf dem Event deutlich wurde, ist die Zunahme von „Business Authored Content“ über Self-Service Plattformen. Der End User soll also dazu gebracht werden, selbst Analysen durchzuführen und neuen Analysecontent zu erstellen, weil der notwendige Umfang und die komplette Durchdringung aller Geschäftsprozesse mit Datenanalyse anders nicht mehr handhabbar ist. Datenanalyse ist kein Geschäftsprozess, sondern Teil aller Geschäftsprozesse. Prämisse ist darum, dass eben nicht mehr versucht wird, das Thema Datenanalyse zentral bei der IT zu platzieren („Don‘t bring them under the IT umbrella“ und „users should not come to IT for writing reports“) – im Gegenzug erfordert dies natürlich ein Vertrauen der IT in Richtung Fachbereiche und den Erstellern von Analysecontent.

… und jetzt einmal kritisch betrachtet: Qualitätsaspekte

Aber wenn man dies dezentralisiert und die Datenanalyse quasi demokratisiert, woher kommt dann die Qualität, und wie stellt man sicher, dass die Analysen, die dezentral von den Usern erstellt werden, korrekt sind? Schließlich stellen sie die Basis für wichtige Entscheidungen dar, oder werden als Verstöße gegen interne Regeln nachverfolgt etc.? Hier wurde in verschiedenen Vorträgen deutlich, dass Gartner die Notwendigkeit von Schulungs- und Zertifizierungsprozessen sieht; dies wurde auch als „Empowerment“ der Benutzer betitelt; der Vergleich zum Auto-Führerschein. Unternehmen müssen sicherstellen, dass die Regeln und Methoden in der notwendigen Qualität bekannt sind, bevor diese im Bereich der Datenanalyse angewendet werden.

… und noch einmal kritisch betrachtet: Ressourcen

Das ist natürlich alles soweit nachvollziehbar und eingängig und klingt nett. Aber jetzt kommen wir zum Titel dieses Beitrags „Alles auf Anfang“: Wer so lange dabei ist wie wir, fühlt sich in die Zeit von vor 15 Jahren zurückgesetzt: Wir haben intensiv daran gearbeitet, die Datenanalyse in die Fachbereiche zu tragen; Benutzer wurden in den Analysetools geschult, es wurden Zertifikate erworben; dabei ging es nicht nur um die reine Bedienung der Analysesoftware, sondern auch darum, ein Verständnis bezüglich Geschäftsprozessen und Datenstrukturen aufzubauen. Soweit, so 2005.

Natürlich kann man anführen, dass mittlerweile die Analysetools noch mächtiger und bedienfreundlicher geworden sind, und seitens der Anwender die IT- und Datenaffinität in den letzten Jahre auf Grund der zunehmenden Digitalisierung zugenommen hat. Aber wir hören häufig Kunden, die wir in Sachen Datenanalyse unterstützen, klagen, dass es schwer ist, die IT Abteilungen mit ausreichend Datenanalyse-Kapazitäten in Form von Human Resources zu bestücken. Wie viel herausfordernder muss es dann erst sein, diese Analysekapazitäten im Rahmen des oben angesprochenen Empowerments in die Fachbereiche zu tragen, was in Sachen Headcount ja eine Vervielfachung dieser Kapazitäten bedeuten würde. Dies ist damit natürlich nicht nur eine Kostenfrage, sondern besonders die Frage nach entsprechender Analyseaffinität zum einen und Qualifikation zum anderen, oder salopp formuliert: „Woher soll man all die guten Leute nehmen?“

 

Unser Fazit

Unsere persönliche Schlussfolgerung ist, dass wir viele der Aussagen der Referenten und die Trends, die sie identifiziert haben basierend auf unserer Erfahrung unterstützen können, auch wenn wichtige Punkte wie z.B. die Ressourcenfrage kritisch betrachtet werden müssen. In Sachen Produktportfolio sind Sie mit unserer Lösung dab:AnalyticSuite ideal platziert, sowohl was klassisches BI, Monitoring und Dashboarding anbelangt, als auch die Unterstützung von Self-Service Plattformen über unsere vordefinierten Datenmodelle, die die Ausführung eigener dezentraler Analysen bestens unterstützen. Da wir die Daten im Vorfeld aufbereiten und kombinieren, kann man hier auch viele klassische Fehlerquellen bereits ausschließen.

Hinsichtlich „Explore the unknown“ treiben wir die nicht-regelbasierte Datenanalyse mit unserer Lösung dab:AnalyticIntelligence voran, so dass wir auch hier abseits des klassischen Reportings unseren Kunden völlig neue Erkenntnisse hinsichtlich ihrer Datenlandschaft ermöglichen.

Und was das Empowerment anbelangt, das ist unser Tagesgeschäft, welches wir seit knapp 15 Jahren erfolgreich betreiben. Was Gartner mit diesem Begriff beschreibt, ist was uns mit unserer Firmenvision antreibt: Datenanalyse zu einer Selbstverständlichkeit zu machen.

Für Sie als Kunden bedeutet das, dass Sie mit uns einen erfahrenen Partner haben, der Sie sowohl mit Software als auch Dienstleistungen auf den Weg in die Zukunft der Datenanalyse zuverlässig begleitet.

Wenn Sie Fragen bezüglich dieser Themen haben, kommen Sie jederzeit gerne auf uns zu – wir freuen uns auf interessante Dialoge mit Ihnen.


Kommentare (0)
Sei der erste, der diesen Blog-Beitrag kommentiert.
Blog Anmeldung

Sie sind nicht angemeldet. Bitte melden Sie sich an um diesen Blogbeitrag zu kommentieren.

anmelden