Angelika Niere

GESCHRIEBEN VON

Dr. Angelika Niere
Marketing Managerin
Von 2009 – 2021 war Dr. Angelika Niere Referentin und Content Managerin des BIEG Hessen. Heute ist sie Marketing Managerin der Ovalo GmbH in Limburg an der Lahn. Die Spezialität der Marketing-Allrounderin und promovierten Germanistin sind Strategien, Storytelling und die einfache Präsentation komplizierter Sachverhalte. Sie hat über 200 Fachartikel zu allen Themen des Online-Marketing geschrieben

Big Data im Kleinunternehmen

Geschrieben von Angelika Niere

In digitalen Trendreports schwirrt seit vielen Jahren der Begriff „Big Data“ herum wie eine lästige Mücke, die durch Wedeln nicht verschwindet und auch mit der Fliegenklatsche nicht erwischt werden kann. Wenn vorne „Big“ dransteht – so scheint sich der deutsche Mittelstand stillschweigend einig zu sein –, kann es für kleinere Unternehmen nicht relevant sein. Tatsächlich verbergen sich hinter dem Schlagwort allerdings so manche unentdeckten Schätze.

Was ist Big Data?

Eigentlich handelt es sich bei „Big Data“ um einen Sammelbegriff, der alle Methoden unter sich vereint, mit deren Hilfe Datenbestände analysiert werden können. Dank IT und Internet verfügen wir nämlich heutzutage über eine nahezu aberwitzige Anzahl organisierter Daten über alle möglichen Themen, die früher nur in den Köpfen einzelner Leute oder verteilt auf mehrere Bücher und Ordner existierten. Es hat sich herausgestellt, dass es bei der Analyse einer ausreichend großen Menge Daten – also von systematisch erfassten Informationsbröckchen – möglich ist, Zusammenhänge und Muster zu erkennen, von deren Existenz zuvor keiner etwas ahnte.

Ein Beispiel: Stellen Sie sich eine Pferdezucht vor, die seit vier Generationen wunderschöne Turnierpferde hervorbringt. Sie wurde vom Urgroßvater des heutigen Besitzers gegründet und von Sohn zu Sohn weitervererbt. Jeder der vier Chefs gab sein Wissen weiter. Sie wussten alles über ihre Tiere: wie alt sie in der Regel werden, zu welchen Krankheiten sie neigen, welche Farben sie haben. Aber trotzdem verteilt sich ihr Wissen auf vier verschiedene Köpfe. Jeder von ihnen hat selbst nur ein Viertel der Pferde gezogen, niemand kann seine ganze Erfahrung weitergeben. Stellen wir uns nun aber vor, alle messbaren Informationen über alle erfolgreich und erfolglos gezüchteten Rösser lägen geordnet in einer Excel-Tabelle vor, und wir würden eine Analysesoftware einsetzen, um Beziehungen und Muster zu erkennen. Dann könnten erstaunliche Erkenntnisse gewonnen werden: Vielleicht entwickeln Schimmel schneller Gelenkprobleme oder ein bestimmtes Futtermittel zu einer bestimmten Jahreszeit stört das Wachstum. Für einen Züchter können derartige Informationen unter Umständen über Erfolg und Misserfolg des gesamten Unternehmens entscheiden. Hätte einer der Chefs diese Zusammenhänge ohne IT-Unterstützung je bemerkt? Vielleicht ja, vielleicht nein, aber ganz bestimmt nicht alle.

Big Data und Smart Data

Das Beispiel mit den Gäulen können wir nicht realisieren, weil es in der Lebenszeit vom Urgroßvater noch kein Excel gab. Es veranschaulicht aber, dass Unternehmen aus ganz unterschiedlichen Branchen über reiche Datenschätze verfügen, mit deren Hilfe heutzutage substanzielle, mehrwertige Analysen durchgeführt werden können. In diesem Zusammenhang fällt häufig der Begriff „Smart Data“, der darauf hinweisen soll, dass die Grundlage für solche Analysen nicht die schiere Menge verfügbarer Daten sein sollte, sondern die smarte Auswahl der richtigen Daten. Ersetzen wir die Pferde gedanklich durch Maschinen, sind wir bei einem typischen Beispiel der Smart-Data-Analyse in der Industrie: Dort werden die Ursachen von Fehlfunktionen, typische Probleme und Defekte bei der Herstellung von Waren eruiert – häufig in Echtzeit – und im Idealfall Störungen vorhergesehen, bevor sie eintreten. Man muss kein Maschineningenieur sein, um zu verstehen, dass es ungeheuer viel Zeit, Geld und Ärger spart, wenn das Ersatzteil bereits bestellt und geliefert wurde, bevor das Original ausfällt. Das „Internet of Things“ – also die digitale Vernetzung von Maschinen – hat in der Fertigungsbranche zu einem gewaltigen Zuwachs an verfügbaren Daten geführt und eine Effizienzsteigerung ermöglicht, die von vielen als Revolution bezeichnet wurde.

Die zweite große Einsatzmöglichkeit von Big-Data-Analysen bezieht sich auf die Analyse von öffentlichen Daten, die uns vor allem im Internet zur Verfügung stehen und die grundsätzlich jeder durchforsten kann, so ihm das richtige Werkzeug zur Verfügung steht. Denken Sie an die Business-Netzwerke XING und LinkedIn: Sie haben Recruitern das Leben erheblich erleichtert, denn sie funktionieren im Prinzip wie riesige Bewerber-Datenbanken. Andersherum können Plattformen wie Facebook eingesetzt werden, um die Mitglieder besonders spitzer Zielgruppen zusammenzubringen, so dass dann auch Angebote besser auf ihre Bedürfnisse angepasst werden können. Ich kenne ein schönes Beispiel aus der medizinischen Forschung, das schon in den Anfangstagen von Facebook von der globalen Vernetzung profitierte: Eine seltene Art von Bauchspeicheldrüsenkrebs konnte nur schwer erforscht werden, weil auf der Welt nur eine Handvoll Patienten mit dieser Diagnose existierten. Als diejenigen unter ihnen, die in den sozialen Medien unterwegs waren, sich in einer Facebook-Gruppe zusammenfanden, schalteten sich innerhalb kürzester Zeit Mediziner ein und konnten bald erhebliche Fortschritte bei ihrer Forschung erzielen. Der gleiche Mechanismus führt in der freien Wirtschaft dazu, dass in den vergangenen beiden Jahrzehnten eine Vielzahl an Geschäftsmodellen entstanden ist, die sich auf die Bedürfnisse von Randgruppen konzentrieren und – sagen wir mal – Trans-Menschen, Parkinson-Patienten oder spezialisierten Wissenschaftlern das Leben erleichtern. Dank Internet können die entsprechenden Informationen jetzt problemlos eingeholt werden. Und dank Internationalisierung des Handels ist es kein Problem mehr, die entsprechenden Waren in die ganze Welt zu verschicken.

Wie kann der Mittelstand Big Data nutzen?

Der Einsatz von Big-Data-Werkzeugen gehört nicht nur in der Industrie mittlerweile zum Standard, sondern beispielsweise auch in der IT und im Finanzbereich. Den Einsatzmöglichkeiten sind aber auch außerhalb dieser Branchen keine Grenzen gesetzt. Ein paar typische Beispiele:

  • Die Analyse und Optimierung von Lagerung, Logistik und Versand (ein beliebtes Best-Practice-Beispiel ist die Automatisierung des Lagers von Amazon: Solange echte Menschen erforderlich waren, um Waren aus dem Lager zu holen, ergab es Sinn, diese Waren anhand von Produktkategorien zu lagern – also beispielsweise alle Heimwerker-Artikel an einem Fleck, alle Kleider an einem anderen und so weiter. Die komplette Erhebung sämtlicher relevanter Lagerdaten ermöglichte jedoch die Automatisierung des Systems und machte ein „geordnetes“ Lager überflüssig. Jetzt stehen die Waren dort, wo sie am wenigsten Platz wegnehmen. Bei Eingang der Bestellung prüft das System, ob die Ware auf Lager ist, und schickt einen Kommissionierroboter zum entsprechenden Fach. Im Kleinen begegnet Ihnen Ähnliches heutzutage beim Gang in die meisten Apotheken, wo der Apotheker das Wunsch-Medikament im PC anfragt, das dann nach kürzester Zeit aus dem Medikamentenschrank in das Entnahmefach purzelt)
  • Die Analyse und Optimierung von Preisstrukturen (ein ganz simples Beispiel: Stellen Sie sich vor, Sie vertreiben Ihr Produkt weltweit. Logischerweise müssen Sie dann je Zielland individuelle Versandkosten verrechnen. Kostenfreier Versand steigert die Attraktivität des Produkts erheblich, doch Preise zu finden, die die Realkosten möglichst genau abdecken, kann ohne entsprechende Analysen von Verkaufsdaten ausgesprochen aufwendig sein)
  • Die Analyse und Optimierung von Nutzerdaten (im Online-Marketing bereits lange gang und gäbe ist die Analyse des Verhaltens von Websitebesuchern, den Nutzern von Social-Media-Plattformen wie Facebook und so weiter. Fast jeder Social-Kanal verfügt über eine integrierte Analysemöglichkeit. Auf Unternehmenswebsites sind Tools wie Google Analytics und Matomo im Einsatz)
  • Die Analyse und Optimierung der Daten von Mitarbeitern, Kunden und Geschäftspartnern (z.B. Analysen von Kredit- und Kundenkarten, die Erstellung von Angeboten oder Marketingkampagnen auf Basis von Kaufgewohnheiten einzelner Kunden, die Berechnung von Risikoportfolios, Erkennung und Prävention von betrügerischem Verhalten, Einschätzung der Vertrauenswürdigkeit von Bewerbern)

Big Data und Datenschutz

In der obigen Liste fallen grundsätzlich nur die letzten beiden Punkte in den Zuständigkeitsbereich des deutschen Datenschutzgesetzes. Die Datenschutzgrundverordnung (DSGVO) betrifft nämlich nur den Schutz von Daten, mit deren Hilfe es möglich ist, die Identität realer („natürlicher“) Personen festzustellen. Maschinen, Prozesse, Gegenstände und Tiere fallen hingegen nicht darunter. Im Bereich Nutzerdatenanalyse zählen bereits verschiedene Anonymisierungsmöglichkeiten zum Standard; die Kürzung von IP-Adressen macht die Identifikation des zugehörigen Nutzers unmöglich und gestaltet die Datenanalyse somit rechtssicher. Ist eine solche Anonymisierungsmöglichkeit bei einem Analysevorhaben noch nicht etabliert, sollte bei der Einführung von Big-Data-Analysen auf jeden Fall ein Datenschutzexperte hinzugezogen werden. Häufig können die Probleme entweder durch Datenanonymisierung oder durch die Einholung entsprechender Genehmigungen gelöst werden.

Ethische Probleme von Big Data

Die wahren Fallstricke lauern im Bereich Big Data überall dort, wo die zahlenbasierte Computeranalyse mit der menschlichen Bewertung kollidiert. Das betrifft zum einen Situationen, in denen die Verknüpfung an sich unproblematischer Daten problematische Erkenntnisse zur Folge hat. Dann wird man vielleicht als kreditunwürdig eingestuft, weil man im falschen Vorort wohnt, den ÖPNV bevorzugt und bei Discountern einkauft. Zum anderen steht der Einsatz von Big Data im Bereich Machine Learning häufig noch auf wackligen Beinen. Amazon testete vor einiger Zeit eine Künstliche Intelligenz, die die Profile von Amazon-Mitarbeitern analysiert und auf dieser Basis passende Bewerber für offene Stellen herausfiltern sollte.

Das Ergebnis: Da in der Führungsetage von Amazon weitestgehend Männer arbeiteten, schloss die KI Frauen kategorisch aus dem Bewerberkreis aus. Unter dem Stichwort „Racial Profiling“ sind ähnlich gelagerte Fälle bekannt, in denen KI dunkle Hautfarbe als „typisch kriminelles“ Merkmal einordneten, so dass sich Farbige grundlos im Kreis der Verdächtigen von Straftaten wiederfanden, Hellhäutige jedoch ignoriert wurden – da Vorurteile in der Vergangenheit zu mehr Verurteilungen von Farbigen geführt hatten, ergab die statistische Analyse, dass sie dem Profil früher Verurteilter mehr ähnelten. Ähnliche Probleme entstehen, wenn es Wissenschaftler versäumen, sich ausreichend Gedanken über ihre Datenbasis zu machen. Wer eine Software entwickelt, die Gesichter analysieren soll, sie dann jedoch hauptsächlich an hellhäutigen Männern testet, darf sich nicht wundern, wenn die Software später zu der Schlussfolgerung gelangt, das Konterfei einer Koreanerin müsse als Teil des Hintergrunds eingestuft werden. Hier ist also immer Vorsicht angebracht, insbesondere wenn Analysetools eingekauft werden sollen. Häufig ist nicht ersichtlich, ob die Daten, mit deren Hilfe Werkzeuge entwickelt oder auf deren Basis Unternehmensdaten abgeglichen wurden, tatsächlich als vertrauenswürdig eingeschätzt werden können. Nur vollständige und gut gepflegte Datensätze bringen auch valide Ergebnisse hervor.

Am Anfang steht die (Big-Data-)Strategie

Wie also vorgehen, wenn Sie in Ihrem Unternehmen oder seinem Umfeld nutzwertige Daten identifiziert haben, auf deren Basis Sie Analysen durchführen wollen? Wie so oft lautet die Antwort der Experten: Verschaffen Sie sich Orientierung im Thema und entwickeln Sie eine Strategie. In vielen kleineren Unternehmen besteht noch keine Kompetenz zum Thema Big Data, und eine Einzelperson mit Knowhow – also Silodenken – ergibt bei einem derartigen Vorhaben besonders wenig Sinn. Prinzipiell sollte jede Führungskraft im Unternehmen grundlegende Kenntnisse in Sachen Data Governance besitzen. Auch Marketingverantwortliche müssen datengetriebenes Marketing verstehen, bevor sie es effektiv umsetzen können. All diese Personen sollten wissen, was für Informationen in welcher Weise überhaupt systematisch erfasst werden können und in welcher Weise das geschehen könnte – beispielsweise durch die Zusammenführung von Daten aus unterschiedlichen IT-Systemen.

Sind die Grundvoraussetzungen geschaffen, geht es an die Entwicklung eines Plans: Verschaffen Sie sich zunächst einen Überblick darüber, welche Daten im Unternehmen und außerhalb des Unternehmens zur Verfügung stehen, wo und in welcher Weise sie erfasst, gespeichert, verwaltet und genutzt werden. Es ergibt keinen Sinn, erst einmal Daten zu sammeln und sich später zu überlegen, was mit ihnen geschehen soll. Legen Sie das Ziel Ihrer Big-Data-Analyse zuvor fest und finden Sie heraus, welche Qualitätskriterien bei der Datenerfassung gelten müssen. Wenn Sie die Daten nicht systematisch erheben, können Sie Sie auch nicht systematisch nutzen. Und wenn Sie nicht genau wissen, welchen Nutzen Sie aus den Daten ziehen wollen, können Sie auch nicht die richtigen Tools einkaufen bzw. die richtigen Analysen durchführen. Sie erhalten sonst nur noch mehr Daten, die weitere Analysen erfordern, aber bestimmt keine Erkenntnisse, mit denen Sie arbeiten können.

Immerhin haben kleinere Unternehmen im Big-Data-Bereich einen großen Vorteil: ihre Agilität. Wer systematische Datenanalysen durchführt, verschafft sich die Möglichkeit, sich immer schneller auf Veränderungen im Unternehmen, im Geschäftsumfeld und auf dem Markt einzustellen. Dabei beweisen die Kleinen in der Regel erheblich größere Flexibilität, schließlich gibt es keine Abteilungen, die sich absprechen und bürokratische Hürden überwinden müssen. Wer wettbewerbsfähig bleiben und zukunftsorientiert arbeiten will, sollte die Möglichkeiten von Big Data Analytics also auf jeden Fall erforschen.