BIG DATA

START SMART – GET BIG: BIG DATA MIT VIRTUAL7

Qualifizierte Rückschlüsse aus Produktions-, Forschungs- oder Kundendaten zu ziehen bringt vielen Unternehmen heute entscheidende Marktvorteile. Um die angefallenen und gesammelten Daten allerdings richtig zu verstehen und auszuwerten, benötigt man Lösungen und Konzepte, die unternehmensindividuell entwickelt werden müssen. Allgemeine Standardvorgehen reichen hier meist nicht aus. Auf Basis von bestehenden ORACLE-Produkten schaffen wir für Sie eine Big Data Lösung, die für Sie einen enormen Mehrwert bringen kann. Ihre Fragestellungen und Analyseanforderungen bilden für uns die Grundlage für die gemeinsame Entwicklung von Use Cases, die Erstellung eines Konzeptes und der Prüfung was Ihre Daten hergeben und wie smart die Ergebnisse aussehen können.  Wir helfen bei:

  • Definition der Architektur und Auswahl der Technologien
  • Berechnung des Business Cases für die Einführung von Big Data
  • Implementierung der Big Data Lösung
  • Integration der Schnittstellen
  • Sizing der Lösung
  • Strukturierung von Data Lakes
  • Analyse der Daten (Analytical Services)
big_data_virtual7

V Wie VOLUME, VELOCITY, VERACITY

Die Herausforderungen an Big Data werden vielfältiger. In der ursprünglichen Wahrnehmung war Big Data die Antwort auf das Problem der zunehmenden Datenmengen (Volume), dabei hauptsächlich in Bezug auf Datenhaltung und Batch-Verarbeitung. Zu der als Volume-Problem bekannten Herausforderung kamen noch die Herausforderungen die Geschwindigkeit der Datenverarbeitung (Velocity), die Verarbeitbarkeit unterschiedlicher Datenformate (Veracity) und weitere.

ARCHITEKTUR

In der Ausgestaltung einer Big Data Architektur gibt es viele Möglichkeiten. Aktuell oft thematisiert sind die Lambda- und Kappa-Architekturen. Diese versuchen unterschiedliche Herausforderungen an die Reaktionszeiten mit einem einheitlichen Ansatz zu beantworten. Hier gilt es den passenden Ansatz zu wählen, zukunftssicher aber nicht unnötig komplex.

INTEGRATION

Eine losgelöste Big Data Initiative wird nicht den Erfolg erzielen, wie eine, welche die bisherigen Systeme einbezieht. Hierbei kann die Big Data Lösung sowohl Datenspeicher als auch -lieferant sein. Gerade im Zusammenspiel mit einem klassischen Data Warehouse wird es im ORACLE-Umfeld spannend. Mit dem ORACLE Data Integrator und den Konnektoren der Datenbank sind professionelle Werkzeuge verfügbar, welche die Integration zwischen Daten in der Big Data Architektur und dem Data Warehouse einfach und schnell machen. Die Möglichkeiten bei Verwendung der ORACLE Engineered Systems sind noch vielfältiger.

WACHSEN MIT DEN ANFORDERUNGEN

Einen Teil der Anforderungen an Big Data Lösungen können durch einfache Architekturen und mit wenigen Hilfsmitteln bedient werden. Mit der Zeit und mit gesammelter Erfahrung können die Systeme komplexer werden, ohne dadurch zu Beginn übermäßige Initialkosten produzieren zu müssen.
Anfänglich kann eine Infrastruktur mit wenigen Knoten und Open Source Lösungen genutzt werden. Diese kann mit zunehmenden Anforderungen bis hin zu einem ausgewachsenen Data Lake unter Verwendung einer Big Data Appliance anwachsen.

WISSEN SCHAFFEN, WERTE SCHÖPFEN

Alleine die Speicherung von vielen, historischen Daten ist nur begrenzt sinnvoll. Erst durch das Aufzeigen neuer Zusammenhänge, das Finden neuer Geschäftsstrategien, wird eine Big Data Lösung wertvoll. Natürlich besteht auch das Potential auf Kosteneinsparung bspw. durch geringere Speicherkosten. Die meisten Potentiale sind üblicherweise durch den Einsatz von Data Mining, Machine Learnings und anderer Analysemethoden zu heben.

EXADATA UND WEITER

Sie haben selbst in der Exa keinen Speicherplatz mehr für historische Daten oder keine Rechenzeit für komplexe Berechnungen? Nutzen Sie bspw. Sqoop für die Integration der Daten zwischen Hadoop-Cluster und Datenbank. Natürlich können Sie auch andere Open Source Produkte nutzen. Fragen Sie uns!

UNSERE DIENSTLEISTUNGSÜBERSICHT: