BigData Kernkomponenten - Grundlagen zur Analytics Infrastruktur

Ziel dieser Schulung ist es, ein Verständnis für die grundlegenden Konzepte für BigData Kernkomponeten, Einsatzszenarien und Produktion, Betrieb sowie zur Sicherheit für Artificial Intelligence und Analytics Infrastrukturen zu schaffen. Mit Theorie und Übungen.

Facts

Teilnehmerpreise:

Regulär: € 1.125,- zzgl. MwSt. max. 8 Pers.
Studenten: auf Anfrage
Gruppenrabatt: 10% ab dem 3. Teilnehmer
Early Bird: 10% bis 10 Wochen vor Seminarstart

In-House Seminare: auf Anfrage ab 5 Teilnehmern

Kursdauer: 2 Tage

Zielgruppe sind alle Personen, die mit den Themen HDFS, MapReduce und Hive beginnen möchten.

Seminarziel

Profitieren Sie von unserer jahrelangen branchenübergreifenden Erfahrung. Best Practices von in der Praxis stehenden zertifizierten Referenten, garantieren Ihnen die maximale Effizienz bei der Ausbildung.

Sonstiges:
Im Falle einer Absage gibt es keine Erstattung des Teilnehmerpreises. Es besteht jedoch die Möglichkeit den ausgefallenen Teilnehmer durch eine andere Person zu ersetzten.

Das Training beinhaltet alle Trainingsmaterialien und Verpflegung während des Trainings.

BigData Kernkomponenten

  • Einführung
    Ziel dieses Moduls ist es ein einheitliches Verständnis für die grundlegenden Konzepte von HDFS, MapReduce und Hive, sowie den Entwicklungsprozess zu schaffen. Die Konzepte werden durch abstrakte Beispiele veranschaulicht. Darüber hinaus werden potenzielle Einsatzgebiete für HDFS, MapReduce und Hive gegenüber etablierten Lösungsansätzen am Markt abgegrenzt.
     
  • Übung
    Aufbauend auf dem theoretischen Verständnis von HDFS und Hive wird das gewonnene Wissen mit praktischen Übungen an einem Testsystem gefestigt. Ziel ist, den Umgang mit dem nativen HDFS Client und die Unterschiede zu kernelbasierten Dateisystemen kennenzulernen. Anhand einer einfachen Abfragemöglichkeit lernen die Teilnehmer die Vorteile von Hive in einer praktischen Übung kennen. 

Einsatzszenarien von BigData

  • Anhand von einfachen Beispielen wird der Einsatz von HDFS, Hive oder Streaming-Diensten dargestellt und aufgezeigt, wie durch den Einsatz einer BigData Anwendung administrative Aufgaben erleichtert werden können. Die potenzielle Implementierung für einen Operational Intelligence Ansatz wird vorgestellt.

Produktion, Betrieb, Sicherheit eines BigData Cluster (Bsp. Distribution Cloudera)

  • Eine BigData Plattform beinhaltet eine Vielzahl von Services und Prozessen, die betreut und implementiert werden müssen. Hierbei sind Anforderungen an Datensicherheit und Datenschutz zu berücksichtigen bzw. einzuhalten
     
  • Die für den Betrieb notwendigen Rollen in einem Unternehmen werden dazu näher betrachtet. Zur Erfüllung regulatorischer Anforderungen oder Einhaltung von Datenschutzmaßnahmen werden Schutzmöglichkeiten vorgestellt.
    Darüber hinaus werden die Vorteile von Hadoop Distributionen vorgestellt und kurz die Anbieter (Cloudera vs. Horton Works) gegeneinander abgegrenzt.

Anmeldung