Nutzen Cloud-Provider Mainframes?
CW: Apropos Mainframes: IBM selbst fokussiert sich ja auch auf das Cloud-Geschäft. Wie groß ist das Interesse von Cloud-Providern, die großen Mainframe-Maschinen einzusetzen?
Rosamilia: Es gibt in der Tat Managed-Service-Provider, die Mainframes nutzen, um Rechenkapazität an Third-Parties zur Verfügung zu stellen. Ein Beispiel ist die südafrikanische Firma BCX oder Business Connexion. Die bedienen praktisch ganz Afrika in Sektoren wie Bergbau, Einzelhandel oder Finanzdienstleistungen. Es gibt auch neue Anwender in New Jersey, die als Backup- und Disaster-Recovery-Zentren für einige Wallstreet-Unternehmen fungieren.
CW: Sie sagen also, es gibt noch Neukunden für das Mainframe-Geschäft?
Rosamilia: Ja. Sicherlich nicht zu Tausenden. Aber in den vergangenen 2,5 Jahren haben wir einige Hundert neue Mainframekunden hinzugewinnen können. Einige davon sind in den gerade besprochenen Feldern tätig. Bei anderen handelt es sich um Banken (verschiedener Größenordnungen) überall in der Welt. Sie sehen, dass große Banken ihre Kerngeschäfte auf Mainframes abwickeln. Die kleineren wollen dasselbe tun, während sie wachsen.
Wieviel Geld investiert IBM in Hardware?
CW: Wieviel der Ausgaben für Forschung und Entwicklung, die IBM investiert, fließen in Hardware? Und für welche Techniken in der Hardware?
Rosamilia: IBM investiert ungefähr sechs Prozent seines Umsatzes in Forschung und Entwicklung. Das sind grob sechs Milliarden Dollar pro Jahr. Etwa die Hälfte davon fließt in die Systems and Technology Group.
Wir werden in den kommenden fünf Jahren rund drei Milliarden Dollar investieren, um neue Chiptechnologien für Systeme zu entwickeln, die für Cloud, Big Data und Cognitive Computing notwendig sind. Wir denken, dass Strukturbreiten von 10 Nanometer möglich sind. Momentan basieren die Power-8-Systeme auf 22-Nanometer-Techniken. Die nächste Generation wird auf 14-Nanometer-Systemen basieren. Dann werden wir die Strukturbreiten der Chips auf zehn Nanometer reduzieren. Mit der Produktionstechnik, die wir jetzt nutzen, sind vielleicht sogar sieben Nanometer machbar. Dann wird es aber schwierig. Wir werden unsere Anstrengungen auf andere Techniken wie beispielsweise Quantencomputer richten müssen. Wir sehen das Ende der Silizium-Ära kommen. Die Technik wird es sicherlich noch ein paar Jahre geben, aber man kann ein Ende absehen.
Grundsätzlich gilt: Wir leben heute in der Big-Data-Ära. Da fallen exorbitante Datenmengen an. Bei jedem Telefonat, bei jedem Posting oder Tweet in sozialen Netzen, den Mengen von Sensoren in Autos, Fabriken oder zu Hause, produzieren wir unstrukturierte Daten. Und mit dem Internet of Things wächst die Datenflut ins Unermessliche. Damit man all diese Daten analysieren, auswerten und verwertbare Aussagen daraus ziehen kann, braucht man unsere Systeme. Systeme, die flexibel agieren können, auf denen man Analyse betreiben kann und die zudem Front- und Backoffice Systeme integrieren können, um Kundenbeziehungen perfekt auf- und ausbauen zu können.
- Predictive Analytics
das Treffen von Prognosen durch die Analyse von Daten. Im Gegensatz zur Analyse historischer Zusammenhängen und Erkenntnissen; auch durch die Analyse von Daten, die möglicherweise urächlich nicht miteinander in Zusammenhang stehen (Quelle: Bitkom) - Open Source
quelloffene Werke, zum Beispiel Software bei der man den Quellcode erhält (Quelle: Bitkom) - Open Data
Konzept zum Zugang zu hoheitlichen Daten zu jedermann, beispielsweise Auskunft über die bei einer Meldestelle gespeicherten Daten über einen Bürger und die Einrichtungen, an die die Daten übermittelt worden sind. (Quelle: Bitkom) - Metadaten
Daten zur Beschreibung von Daten, unter anderem, um Datenmodelle zu entwickeln. (Quelle: Bitkom) - Mahout
wörtlich: Elefantentreiber; hier: eine Apache-Komponente zum Aufbau von Bibliotheken für das Machine Learning MapReduce Verfahren zur Datenverwaltung und Indizierung (Quelle: Bitkom) - Machine Learning
Oberbegriff für die künstliche Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann nach Beendigung der Lernphase verallgemeinern. Das System „erkennt“ Gesetzmäßigkeiten und kann somit auch unbekannte Daten beurteilen. (siehe Wikipedia). (Quelle: Bitkom) - Lustre
Linux-basierendes Betriebssystem für den Betrieb von Cluster-Architekturen (Quelle: Bitkom) - Lambda-Architektur
Eine konstruktiv nutzbare Vorlage für den Entwurf einer Big-Data-Anwendung. Die in der Architektur vorgesehene Modularisierung spiegelt typische Anforderungen an Big-Data-Anwendungen wider und systematisiert sie. (Quelle: Bitkom) - In-Memory
Bei In-Memory werden die Daten nicht physisch auf Datenträger gespeichert und wieder ausgelesen, sondern im Arbeitsspeicher gehalten und dadurch mit sehr hoher Geschwindigkeit verarbeitet. (Quelle: Bitkom) - HANA
Ursprünglich: High-Performance Analytical Appliance; ein von SAP entwickeltes Produkt zum Betrieb von Datenbanken im (sehr großen) Hauptspeicher eines Computersystems (Quelle: Bitkom) - Hadoop
Open-Source-Version des MapReduce-Verfahrens, in verschiedenen Distributionen erhältlich. (Quelle: Bitkom) - Fraud Detection
Erkennung von Betrugsversuchen durch die Analyse von Transaktionen und Verhaltensmustern (Quelle: Bitkom) - Eventual Consistency
Eine Schnittmenge des CAP-Modells hinsichtlich der ereignisbezogenen Konsistenz von Modellen. (Quelle: Bitkom) - Data Science
Datenkunde: die Kenntnis bzw. Anwendung neuer Verfahren zur Arbeit mit Daten und Informationen, z.B. Verwendung semantischer Verfahren oder die Erschließung neuer Datenquellen (Sensordaten) und die Erarbeitung von Mustern oder statistischen Verfahren zur Auswertung solcher Daten. (Quelle: Bitkom) - Data Mining
Anwendung statistischer Methoden auf sehr große Datenmengen, bspw. Im Gegensatz zur manuellen Auswertung über Funktionen eines Tabellenkalkulationsprogrammes (Quelle: Bitkom) - Data Management
Methoden und Verfahren zur Verwaltung von Daten, oft über Metadaten (Daten, die Daten beschreiben) (Quelle: Bitkom) - Customer Analytics
Gewinnung von Erkenntnissen über das Kundenverhalten (überwiegend in Consumer-orientierten Unternehmen), beispielsweise mit dem Ziel der Entwicklung massenindividualisierter Produkte und Dienstleistungen (Quelle: Bitkom) - CEP
Sammelbegriff für Methoden, Techniken und Werkzeuge, um Ereignisse zu verarbeiten, während sie passieren. CEP leitet aus Ereignissen höheres Wissen in Form von komplexen Ereignissen ab, d. h. Situationen, die sich nur als Kombination mehrerer Ereignisse erkennen lassen (vgl. Wikipedia). (Quelle: Bitkom) - Complex Event Processing (CEP)
Complex Event Processing (CEP, Verarbeitung komplexer Ereignisse) ist ein Themenbereich der Informatik, der sich mit der Erkennung, Analyse, Gruppierung und Verarbeitung voneinander abhängiger Ereignisse beschäftigt. (Quelle: Bitkom) - CEPH
ein Dateisystem, das gleichzeitig Objekte, Dateien und Datenblöcke verwalten kann (Quelle: Bitkom) - CAP-Theorem
Laut dem CAP-Theorem kann ein verteiltes System zwei der folgenden Eigenschaften erfüllen, jedoch nicht alle drei: C = Consistency = Konsistenz, A = Availability = Verfügbarkeit, P = Partition Tolerance = Partitionstoleranz (siehe Wikipedia) - Business Intelligence
Gewinnung von Erkenntnissen über Zusammenhänge zwischen Informationen aus polystrukturierten Daten aus unterschiedlichsten Quellen (Quelle: Bitkom) - Broker
Makler/Buchmacher, hier: Rolle des Übermittlers von Daten zwischen Quelle und Anwender Business Analytics Ermittlung von Kennzahlen für Unternehmen, durch die Analyse größerer Datenmengen mit dem Ergebnis neuer Erkenntnisse aufgrund einer breiteren Datenbasis. (Quelle: Bitkom) - Big Data
die Gewinnung neuer Informationen – die in kürzester Zeit sehr vielen Nutzern zur Verfügung stehen müssen – mittels enorm großer Datenbestände aus unterschiedlichsten Quellen, um dadurch schneller wettbewerbskritische Entscheidungen treffen zu können. (Quelle: Bitkom) - Analytics Appliance
vorkonfigurierte oder paketierte Lösungen aus Hardware und Software für die Koordinierung von polystrukturierten Daten, die Ausführung von Analysen und die Präsentation der Erkenntnisse. (Quelle: Bitkom) - Analytics Analyse
Gewinnung von Erkenntnissen durch komplexe Abfragen auf polsystrukturierte Daten, Datenbanken und Data-Warehouses mit spezifischen Abfragesprachen wie SQL oder Pig. (Quelle: Bitkom)