Während viele Unternehmen noch mit der Implementierung einer Big Data-Architektur zu kämpfen haben, wird ihr CIO schon von Softwareanbietern mit Cloud-Lösungen geradezu bombardiert. Obwohl CIOs noch keine ausreichenden Business Cases (Geschäftsszenarien) und keinen adäquaten geschäftlichen Nutzen für die Implementierung von prädiktiven Modellen gefunden haben, stellt das Thema Cloud sie bereits vor neue Herausforderungen.

SDG "Augmented Business Architecture" (ABA) soll unseren Kunden die Vorteile aufzeigen, die sie durch die Implementierung der innovativen digitalen Plattform erzielen können.

Die herkömmliche Business Intelligence-Architektur wird folgenden Anforderungen nicht gerecht:

 

Real-time Analytics (Echtzeitanalyse)

Echtzeitanalyse hat nicht die gleiche Bedeutung wie Echtzeitintegration. Recht häufig fragen sich Unternehmen, warum sie ein Front-End-System für Echtzeitanalysen haben sollen, obwohl sie bereits einige CDC-Komponenten (Change Data Capture) eingerichtet und konfiguriert haben. Anders als im Fall der ETL-Logik (Extrahieren, Transformieren, Laden) ist die Funktion von CDC, Daten zu integrieren, wenn sie geändert werden. Doch bislang bietet die CDC-Technologie keine umfassenden Transformationsbibliotheken. Wenn also kein Front-End-System für Echtzeitanalysen vorhanden ist, müssen die Infrastrukturen die Daten aufnehmen und analysieren, wodurch Unmengen von Daten ohne geschäftlichen Nutzen gespeichert werden.

Real-time Analytics beinhaltet Lösungen, mit denen Unternehmen Daten vor dem Speichern analysieren können, um nur nützliche Daten zu speichern.

 

Real Time Ingestion (Echtzeiterfassung)

Ein herkömmliches Data Warehouse (DWH) ist nicht in der Lage, große Datenmengen mit hoher Geschwindigkeit und Flexibilität zu erfassen. MPP-Infrastrukturen (Massive Parallel Processing) sollen eine leistungsstarke Datenbank für schnelle, aussagekräftige Abfragen bieten, bergen jedoch die Gefahr, dass sie mit SQL-Abfragen für häufig wiederkehrende Transaktionen komplett überlastet und blockiert sind.

Mit einer dateibasierten PSA (Pluggable Storage Architecture) könnten Unternehmen Echtzeitdaten in eine Analyseumgebung aufnehmen.

 

Externe oder unstrukturierte Daten

MPP und DWH sollen stark strukturierte Daten bearbeiten, die aus verschiedenen Quellsystemen eingehen. In zunehmendem Maße müssen Unternehmen jedoch interne Daten mit Dokumenten aus externen Quellen zusammenführen, die nicht notwendigerweise aus einer Datenbank stammen. Mit einer dateibasierten PSA sind Unternehmen in der Lage, Daten jeder Art zu integrieren und zu analysieren.

 

Skalierbarkeit

Da ein herkömmliches DWH keine vertikale oder horizontale Skalierung vornimmt, lässt sich ein vorhandenes analytisches Framework nicht ohne Weiteres durch zusätzliche Rechen- oder Speicherressourcen erweitern. Daher äußern Unternehmen den Wunsch, das Intervall für das Laden von Daten zu verkürzen, um den Detailgrad der Analysen zu erhöhen, einen längeren Datenverlauf zu speichern und neue Unternehmen in das DWH zu integrieren. Bei einer herkömmlichen DWH-Architektur wäre dafür ein Eingriff in die relevante Infrastruktur notwendig, damit Anwender die genannten Erwartungen erfüllen könnten.

 

Predictive Analytics

Bei einem herkömmlichen BI-Framework können Unternehmen keine flexiblen und leistungsstarken Lösungen für Predictive Modelling bereitstellen, selbst wenn Softwareanbieter behaupten, dass sie spezielle Tools dafür haben, oder sich auf R-Integration oder In-Database-Analytics (datenbankinterne Analysen) berufen. Diese Modelle erfordern große Rechenressourcen, einen langen Datenverlauf und detaillierte Daten, die nur zur Verfügung stehen, wenn Unternehmen ihre Architektur mit einer dateibasierten PSA erweitern.

 

Self-Service-Analysen

Ein Big Data Framework muss Analysen mit detaillierten Daten bereitstellen, ohne Anwender durch die Implementierung einer Software für Ad-hoc-Analysen mit vorkonfigurierten Berichten einzuschränken. Dabei muss das Framework den Anwendern nur die für ihre Prozesse und geschäftlichen Transaktionen relevanten Daten zur Verfügung stellen. Es muss also nicht „alle Spalten aus jeder Tabelle in jedem Quellsystem“ übernehmen. Wenn Sie über Self-Service BI nachdenken, werden Sie bei der Bereitstellung von BI-Tool-Datensätzen zusätzlich zu MPP feststellen, dass die Architektur überfordert ist und zusammenbricht. Anwender werden sich darüber beklagen, dass die Daten nicht übereinstimmen.

Anwender, die neben PSA und HPD eine SDG Scalable Architecture nutzen, würden garantiert von hervorragenden Self-Service-Analysen profitieren.