1. Wie nutzen traditionelle Branchen Maschinenlernen, um frischen Input für ihr Business zu erhalten?
McKinsey bringt an dieser Stelle ein Beispiel aus dem Basketball - einer in den USA durchaus traditionellen Branche. Deren Mitglieder - als die Mannschaften - bedienen sich des Know-hows von Second Spectrum, einem Start-up aus Kalifornien. Das Analysiert die Spielverläufe mehrerer Saisons bis ins kleinste Detail. Mit den Ergebnissen ist es dann zum Beispiel möglich, so Second Spectrum-CEO Rajiv Maheswaran, "einen schlechten Werfer, der zufällig gerade mal trifft, von einem guten Werfer, der gerade mal nicht trifft, zu unterscheiden."
2. Was passiert außerhalb von Nordamerika?
In Europa, das jedenfalls ist die Kernbeobachtung von McKinsey, haben mehr als ein Dutzend Banken ihre alten, statischen Statistik-Modelle durch selbstlernende Systeme ersetzt. Das Ergebnis seien durchschnittlich zehn Prozent mehr verkaufte Finanzprodukte bei um 20 Prozent geringeren Kosten.
Konkret geschah das durch besseres Empfehlungsmanagement und bessere Prognosemethoden. Die erlauben es den Banken, zum Beispiel früher als bisher festzustellen, welcher Bankkunde unzufrieden ist und entsprechend gegenzusteuern.
3. Wie ist "Machine Learning" entstanden?
Die zentralen Ideen für das, was wir heute als künstliche Intelligenz bezeichnen, stammen aus den 1930er und 1940er Jahren, allerdings blieben sie so lange Theorie, bis um 1980 die ersten leistungsfähigen Computer zur Verfügung standen. Ihre Möglichkeiten voll ausspielen können die Ideen seit etwa fünf Jahren, weil sich seitdem auch mit vergleichsweise preiswerten Rechnern in überschaubarer Zeit komplexe Rechenoperationen ausführen lassen.
4. Wie steige ich am besten in das Thema ein?
Nach Ansicht von McKinsey sollten C-Level-Chefs künstliche Intelligenz vor allem als Werkzeug begreifen, um ihre strategische Vision umzusetzen. Ohne den Nutzen genau zu definieren, bliebe jeder entsprechende Ansatz (nur) ein Tool unter vielen.
Data Scientists, also die Entwickler vonMachine-Learning-Systemen, bräuchten dabei Führung durch CxOs. Konkret spricht McKinsey von zwei Machertypen, die vonnöten seien: "Quants", also die Entwickler, und "Translators", die die Brücken bauen zwischen Lösungen und ihrer Nutzbarmachung.
Und noch einen wichtigen Rat hat McKinsey parat: "Fang klein an, konzentriere dich auf die niedrig hängenden Früchte und posaune jeden kleinen Anfangserfolg laut heraus. Das hilft, schon frühzeitig ein Unterstützernetzwerk aufzubauen."
5. Welche Rolle spielt das Top-Management?
Echte Verhaltensänderungen sind schwierig und dauern lange. Sie zu begleiten und anzuregen, ist die Kernaufgabe des Top-Managements im Zusammenhang mit künstlicher Intelligenz.
Gleichzeitig müssen die Chefs loslassen und sich damit abfinden, dass durch die breite Verfügbarkeit leistungsfähiger Systeme viele datenbasierten Entscheidungen sozusagen eine Etage unter ihnen, will sagen im Mittelmanagement, getroffen werden. McKinsey nennt das die "Demokratisierung von Analytics".
6. Werden in Zukunft Maschinen wirklich auch Manager ersetzen?
Natürlich interessiert sich in diesem Zusammenhang absolut jeder für die Frage: Werde ich irgendwann überflüssig? An dieser Stelle hat McKinsey eher tröstende Worte parat. Sinngemäß in etwa: Egal, wie schlau Computer werden, es werden immer Manager gebraucht, um die wichtigen Entscheidungen zu treffen.
Resümee: In ein paar Jahren, sagt McKinsey, wird es keine Diskussionen mehr darüber geben ob Menschen dauerhaft schlauer sind als Maschinen oder umgekehrt.
Künstliche Intelligenz wird in der Praxis aus bereitgestellten Prozessen und Services bestehen, die wir nutzen wie andere auch. Bis es so weit ist, müssen sich Manager überlegen, welche Funktionen sie an solche Systeme übertragen wollen und wie ihr Unternehmen mit ihnen zusammenarbeiten will.
- Predictive Analytics
das Treffen von Prognosen durch die Analyse von Daten. Im Gegensatz zur Analyse historischer Zusammenhängen und Erkenntnissen; auch durch die Analyse von Daten, die möglicherweise urächlich nicht miteinander in Zusammenhang stehen (Quelle: Bitkom) - Open Source
quelloffene Werke, zum Beispiel Software bei der man den Quellcode erhält (Quelle: Bitkom) - Open Data
Konzept zum Zugang zu hoheitlichen Daten zu jedermann, beispielsweise Auskunft über die bei einer Meldestelle gespeicherten Daten über einen Bürger und die Einrichtungen, an die die Daten übermittelt worden sind. (Quelle: Bitkom) - Metadaten
Daten zur Beschreibung von Daten, unter anderem, um Datenmodelle zu entwickeln. (Quelle: Bitkom) - Mahout
wörtlich: Elefantentreiber; hier: eine Apache-Komponente zum Aufbau von Bibliotheken für das Machine Learning MapReduce Verfahren zur Datenverwaltung und Indizierung (Quelle: Bitkom) - Machine Learning
Oberbegriff für die künstliche Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann nach Beendigung der Lernphase verallgemeinern. Das System „erkennt“ Gesetzmäßigkeiten und kann somit auch unbekannte Daten beurteilen. (siehe Wikipedia). (Quelle: Bitkom) - Lustre
Linux-basierendes Betriebssystem für den Betrieb von Cluster-Architekturen (Quelle: Bitkom) - Lambda-Architektur
Eine konstruktiv nutzbare Vorlage für den Entwurf einer Big-Data-Anwendung. Die in der Architektur vorgesehene Modularisierung spiegelt typische Anforderungen an Big-Data-Anwendungen wider und systematisiert sie. (Quelle: Bitkom) - In-Memory
Bei In-Memory werden die Daten nicht physisch auf Datenträger gespeichert und wieder ausgelesen, sondern im Arbeitsspeicher gehalten und dadurch mit sehr hoher Geschwindigkeit verarbeitet. (Quelle: Bitkom) - HANA
Ursprünglich: High-Performance Analytical Appliance; ein von SAP entwickeltes Produkt zum Betrieb von Datenbanken im (sehr großen) Hauptspeicher eines Computersystems (Quelle: Bitkom) - Hadoop
Open-Source-Version des MapReduce-Verfahrens, in verschiedenen Distributionen erhältlich. (Quelle: Bitkom) - Fraud Detection
Erkennung von Betrugsversuchen durch die Analyse von Transaktionen und Verhaltensmustern (Quelle: Bitkom) - Eventual Consistency
Eine Schnittmenge des CAP-Modells hinsichtlich der ereignisbezogenen Konsistenz von Modellen. (Quelle: Bitkom) - Data Science
Datenkunde: die Kenntnis bzw. Anwendung neuer Verfahren zur Arbeit mit Daten und Informationen, z.B. Verwendung semantischer Verfahren oder die Erschließung neuer Datenquellen (Sensordaten) und die Erarbeitung von Mustern oder statistischen Verfahren zur Auswertung solcher Daten. (Quelle: Bitkom) - Data Mining
Anwendung statistischer Methoden auf sehr große Datenmengen, bspw. Im Gegensatz zur manuellen Auswertung über Funktionen eines Tabellenkalkulationsprogrammes (Quelle: Bitkom) - Data Management
Methoden und Verfahren zur Verwaltung von Daten, oft über Metadaten (Daten, die Daten beschreiben) (Quelle: Bitkom) - Customer Analytics
Gewinnung von Erkenntnissen über das Kundenverhalten (überwiegend in Consumer-orientierten Unternehmen), beispielsweise mit dem Ziel der Entwicklung massenindividualisierter Produkte und Dienstleistungen (Quelle: Bitkom) - CEP
Sammelbegriff für Methoden, Techniken und Werkzeuge, um Ereignisse zu verarbeiten, während sie passieren. CEP leitet aus Ereignissen höheres Wissen in Form von komplexen Ereignissen ab, d. h. Situationen, die sich nur als Kombination mehrerer Ereignisse erkennen lassen (vgl. Wikipedia). (Quelle: Bitkom) - Complex Event Processing (CEP)
Complex Event Processing (CEP, Verarbeitung komplexer Ereignisse) ist ein Themenbereich der Informatik, der sich mit der Erkennung, Analyse, Gruppierung und Verarbeitung voneinander abhängiger Ereignisse beschäftigt. (Quelle: Bitkom) - CEPH
ein Dateisystem, das gleichzeitig Objekte, Dateien und Datenblöcke verwalten kann (Quelle: Bitkom) - CAP-Theorem
Laut dem CAP-Theorem kann ein verteiltes System zwei der folgenden Eigenschaften erfüllen, jedoch nicht alle drei: C = Consistency = Konsistenz, A = Availability = Verfügbarkeit, P = Partition Tolerance = Partitionstoleranz (siehe Wikipedia) - Business Intelligence
Gewinnung von Erkenntnissen über Zusammenhänge zwischen Informationen aus polystrukturierten Daten aus unterschiedlichsten Quellen (Quelle: Bitkom) - Broker
Makler/Buchmacher, hier: Rolle des Übermittlers von Daten zwischen Quelle und Anwender Business Analytics Ermittlung von Kennzahlen für Unternehmen, durch die Analyse größerer Datenmengen mit dem Ergebnis neuer Erkenntnisse aufgrund einer breiteren Datenbasis. (Quelle: Bitkom) - Big Data
die Gewinnung neuer Informationen – die in kürzester Zeit sehr vielen Nutzern zur Verfügung stehen müssen – mittels enorm großer Datenbestände aus unterschiedlichsten Quellen, um dadurch schneller wettbewerbskritische Entscheidungen treffen zu können. (Quelle: Bitkom) - Analytics Appliance
vorkonfigurierte oder paketierte Lösungen aus Hardware und Software für die Koordinierung von polystrukturierten Daten, die Ausführung von Analysen und die Präsentation der Erkenntnisse. (Quelle: Bitkom) - Analytics Analyse
Gewinnung von Erkenntnissen durch komplexe Abfragen auf polsystrukturierte Daten, Datenbanken und Data-Warehouses mit spezifischen Abfragesprachen wie SQL oder Pig. (Quelle: Bitkom)