Aktuell grassieren in Corona-Foren zwei Karten der USA, die beide auffällige statistische Ähnlichkeiten aufweisen. Die erste zeigt die Zahl der registrierten Corona-Fälle im Jahr 2020 (orange):
Die zweite zeigt die Zahl der installierten 5G-Masten (blau):
Die Korrelation ist offensichtlich. Daraus jedoch die Kausalität ableiten zu wollen, dass 5G-Masten Corona-Ausbrüche fördern, wäre ein logischer Kurzschluss. Denn der Grund für die Ähnlichkeit ist die schlichte Tatsache, dass an solchen Stellen in den USA mit der größten Bevölkerungsdichte nicht nur die Corona-Häufigkeit am größten ist, sondern eben auch die Anzahl der Handy-Nutzer. Sie sähe ähnlich aus, wenn man statt der 5G-Karte eine Übersicht der Verkehrsunfallzahlen oder der Kriminalitätshäufigkeit in den USA nähme. Auch daraus könnte man nicht auf eine direkte kausale Beziehung zwischen Verkehrsdichte, respektive Verbrechensrate, und der Häufigkeit von Corona-Fällen schließen.
Das schwierige Verhältnis von Korrelation und Kausalität
Für Unternehmen ist es wichtig, solche Verwechslungen zwischen Korrelation und Kausalität zu vermeiden. Nur so können sie beide für sich nutzbar machen. Eine Korrelation ist zuerst einmal eine auffällige Übereinstimmung statistischer Größen. Kausalität dagegen liegt erst dann vor, wenn eine Beziehung von Ursache und Wirkung (wenn - dann) besteht.
Um die Differenzierung zwischen beiden so schwierig wie möglich zu machen, sind jedoch viele Abstufungen möglich. So wird beispielsweise mehr Speiseeis verkauft, wenn viele Menschen einen Sonnenbrand haben. Auf den ersten Blick besteht zwischen beiden Phänomenen kein kausaler Zusammenhang. Sonnenbrand erhöht den Appetit auf Speiseeis keineswegs signifikant.
Sieht man jedoch genauer hin, dann erkennt man eine kausale Beziehung, die beiden Verteilungen zugrunde liegt: das heiße Wetter. Je besser das Wetter ist, desto mehr Menschen haben einen Sonnenbrand. Und bei Sonnenschein haben auch mehr Menschen Lust auf ein Eis. Hier existiert also genau wie bei Corona und 5G sowohl ein korrelativer als auch ein indirekter kausaler Zusammenhang. Wie stark solche Zusammenhänge sind, hängt immer vom Anwendungsfall ab.
Korrelation und Kausalität im Business
Bei der Nutzbarmachung von Korrelationen und Kausalitäten für Unternehmen gilt es daher im Kontext von Analytics und Data Science festzulegen: Wollen wir bestimmte Zusammenhänge in Daten verstehen oder wollen wir sie nur zu einem konkreten Zweck nutzen? Denn klar ist: Möchte man den Speiseeisverbrauch vorhersagen und sollten Wetterdaten aus welchen Gründen auch immer dafür nicht verfügbar sein, so wäre die Anzahl registrierter Sonnenbrände nach wie vor eine hilfreiche, erklärungsstarke und handlungsweisende Variable, unabhängig davon wie direkt der kausale Zusammenhang ist.
Viele Fragen im Unternehmenskontext können durch Data Science und Machine Learning beantwortet werden, ohne dass dabei explizit kausale Zusammenhänge identifiziert werden. Möchte etwa der Einkauf vorhersagen, wie lange der Lieferant wirklich braucht, bis er die Ware liefert, oder möchte der Produktionsleiter im Vorfeld wissen, wie lange die Endmontage dauert, so ist oft nicht ausschlaggebend, woran das im Detail liegt, also welche Kausalketten dafür existieren. Für die Beantwortung dieser Fragen sind präzise Zahlen, ein niedrigerer Lagerbestand und höhere Termintreue meist viel wichtiger.
Für korrelative Analysen nutzen Data Scientist in der Regel Frameworks, die auch für Machine Learning genutzt werden. Einige der bekanntesten sind beispielsweise scikit-learn für die Programmiersprache Python und mlr und caret für R. Die daraus gewonnen Korrelationen sind wertvoll bei der Identifikation von Einflussgrößen, der Erhöhung der Differenzierungsstärke oder für präzisen Vorhersagen. Der Maschinenbau liefert mit analytischen Anwendungen wie Predictive Maintenance und Predictive Quality (Ausschluss-Analyse) plakative Beispiele dafür.
- Dr. Christoph Hönscheid, NTT Security
„Erfolgreich ist, wer eine Gesamtstrategie zum Schutz vertraulicher Daten hat. Natürlich ist die EU-Datenschutzgrundverordnung eine unvermeidbare Herausforderung, der sich Unternehmen stellen müssen. Sie kann ein wichtiger Impuls sein, um beim Datenschutz wirklich zu handeln. Klug ist es aber, über Compliance und Regulatorik hinaus zu schauen. Ein Gesamtkonzept sollte erstens gesetzliche Vorgaben, zweitens Verpflichtungen gegenüber Partnern und drittens die ureigenen Interessen des Unternehmens, sein digitales Eigentum zu schützen, im Blick haben. Nur so entsteht eine tragfähige Grundlage, um entsprechende Technologien einzusetzen. Dazu gehören DLP, eine dateibasierte Verschlüsselung wie Digital Rights Management oder auch Tokenisierung. Eine Datenklassifizierung, die über diese Schutzmechanismen letztendlich die Entscheidung trägt, muss ein tragender Pfeiler in diesem Gesamtkonzept sein.“ - Christian Nern, KPMG
„Grundsätzlich existieren technische Lösungen oder BI-Lösungen um herauszufinden, wo der größte Schutzbedarf in Unternehmen besteht. Am wichtigsten ist aber, dass die Mitarbeiter aus den Fachbereichen nicht nur geschult werden, sondern auch wissen, was genau sie mit den Daten machen dürfen. Dies erreicht man viel besser über den Austausch über richtige oder falsche Verhaltensweisen beziehungsweise durch Beispielszenarien oder fachspezifische Templates. Auf diese Weise kommt man sukzessive in eine Qualitäts- beziehungsweise Sicherheitskultur, die jedes Unternehmen für Security by Design benötigt, um KI zielgerichtet anzuwenden.“ - Marisa Parrilla, Horn & Company
„Der kulturelle Aspekt muss über die Data Governance hinaus gehen und auch ethische Aspekte berücksichtigen. Denn nicht alles, was man laut DSGVO darf, sollte ein Unternehmen auch tun. Data Protection hat viel mit Vertrauen zu tun und man muß keine Angst haben, diese Transparenz auch nach außen zu schaffen. Vielmehr müssen Unternehmen beide Aspekte in eine Datenstrategie und somit einer Gesamtstrategie integrieren, um so langfristig Wettbewerbsvorteile aus den Daten zu erzielen.“ - Dr. Jean-Michel Lourier, Lufthansa Industry Solutions
„Bei Datenschutz muss man zwei Dinge unterscheiden: Security und Privacy. Während man beim ersten gut aufgestellt ist, herrscht bei letzteren bei vielen noch sehr große Unsicherheit. Durch die Schwammigkeit der DSGVO weiß man oft nicht genau wie weit man gehen muss, um wirklich compliant zu sein – und das ist das Problem. Das führt dazu, dass man immer versucht, auf der sicheren Seite zu sein, wodurch man sich viele Chancen für Data Analytics entgehen lässt.“ - Stefan Zsegora, Telefónica Germany NEXT
„Wenn zehn Data Scientists gleichzeitig beim Datenschützer nachfragen, ob das was sie tun ok ist, dauert es vermutlich zwei Jahre, bis das geklärt ist. Von daher braucht es zum einen eine Umgebung, in der der Data Scientist eine Use-Case-unabhängige Rechtssicherheit hat. Dafür haben wir zum Beispiel eine spezielle Anonymisierungsplattform entwickelt, die genau diese Sicherheit gibt. Zum anderen braucht es Zertifizierungsstellen, die für jeden transparent bescheinigen, dass das, was mit den Daten gemacht wird, rechtlich in Ordnung ist. Denn gerade im Kundengeschäft hat man keine Chance, wenn da auch nur ein Hauch von Schabernack in der Luft liegt.“ - Dominik Koch, Teradata
„Data Analytics und Data Protection schließen sich nicht aus, sondern gehen immer Hand in Hand. Data Scientists müssen sich daher unbedingt mit den allgemeinen und branchenspezifischen Richtlinien für Datenschutz und Datensicherheit auskennen. Um zu wissen, mit welchen Daten sie arbeiten dürfen und mit welchen nicht, müssen sie entsprechend geschult sein. Dafür müssen sie eng mit IT-Security-Spezialisten zusammenarbeiten und in komplexen Fällen auf deren Knowhow zurückgreifen können.“
Das Ziel bestimmt den Weg
Für andere Anwendungsszenarien dagegen ist die Identifizierung von kausalen Zusammenhängen essentiell. Soll beispielsweise herausgefunden werden, warum sich die Umsatzzahlen an bestimmten Standorten unbefriedigend entwickeln oder woran es liegt, dass eine Marketing-Kampagne exzellent funktioniert hat, dann spielen echte Kausalitäten eine große Rolle. Es reicht meist nicht zu wissen, dass der Umsatz an einem Standort nächstes Jahr vermutlich schlecht sein wird. Die Frage lautet, was der Grund dafür ist und was dagegen unternommen werden kann. Für den Speiseeisverkauf ist die Information, dass es eine hohe Korrelation zwischen Sonnenbränden und Speiseeisumsätzen gibt, dann nicht mehr hinreichend.
Die jeweilige analytische Vorgehensweise muss sich an der Zielsetzung des konkreten Projekts orientieren. Sollen Zusammenhänge lediglich beobachtet, und für die Vorhersage genutzt werden, reichen gut gewählte Trainings- und Testdatensätze. Der Testdatensatz hat dann hauptsächlich die Funktion sicherzustellen, dass der Algorithmus keine zufälligen Zusammenhänge im Trainingsdatensatz beobachtet hat, die es ausschließlich dort gibt.
Sollen aber kausale Zusammenhänge identifiziert werden, ist ein Hypothesen-gestützter Ansatz meist unumgänglich. Mittels Domänenwissen werden dabei Theorien aufgestellt und anschließend mit Hilfe der Daten getestet. Es wird dabei explizit nach Störfaktoren (Confounding Variables) und mehrschichtigen kausalen Zusammenhängen gesucht, um diese und ihren Effekt auf das eigentliche Ziel der Analyse zu verstehen. Für die Arbeit an solchen Kausalitäten haben Data Scientists ein immer größer werdendes Set an Werkzeugen wie Root Cause Analysis, Causal Discovery oder Causal Inference. Einige der bekanntesten Frameworks für Kausalitätsanalysen sind die CausalDiscoveryToolbox oder Microsofts DoWhy für Python sowie pcalg für R.
Suchen und Finden
Das schwierige, und oft verschleierte Verhältnis zwischen Korrelation und Kausalität klärt auch die Frage, warum sich Ernährungsstudien regelmäßig widersprechen. Die Antwort ist einfach: In solchen Studien wird zwar nach kausalen Zusammenhängen gesucht, aber es werden ausschließlich korrelative Analysen dafür genutzt. Noch dazu meist mit erschreckend kleinen Stichprobengrößen. Das erlaubt immer die gezielte Suche nach dem, was man letztlich finden will. Der Erkenntnisgewinn daraus ist ebenso gering wie der praktische Nutzen. (mb)