SEM215

Big Data im Einsatz: DER Kurs für Administratoren

Installation und Betrieb von Hadoop-Cluster auf Basis von Hortonworks

Ihr Nutzen aus diesem Kurs:

In diesem Kurs lernen Administratoren und IT-Entscheider die Grundlagen von Big Data kennen. Sie erhalten einen Überblick über relevante Big Data-Produkte und Infrastrukturen am Markt. Sie vertiefen an praktischen Einheiten den Aufbau und den Betrieb eines Hadoop-Clusters auf Basis der Hortonworks-Distribution. Die Teilnehmer nehmen einen Hadoop-Cluster in der Amazon-Cloud mit EC2-Instanzen in Betrieb, Installieren zahlreiche Anwendungen und nehmen MapReduce-Jobs in Betrieb.

Seminarprogramm:

Big Data im Überblick

Hier erhalten Sie einen soliden Einstieg in aktuell am Markt positionierte Produkte und deren Marktanteile.

  • Marktüberblick (Cloudera, SAP Hana, IBM, Hortonworks, Amazon)
  • Hadoop-Distributionen & Unterschiede

Grundlagen Hadoop

  • Hadoop Architektur
  • NameNodes, DataNodes, HDFS
  • MapReduce v1/v2 (YARN)
  • Hadoop-Distributionen
  • Hadoop-Ökosystem (Accumulo, Pig, Tez, Zookeeper, …)

Grundlagen von Big Data in der Cloud

Sie bauen Ihren eigenen Hadoop-Cluster auf Basis der Amazon Web-Services auf.

  • Amazon AWS
  • Amazon EC2-Computing
  • Installation von Hadoop

Praktische Übungen:

Installation & Konfiguration

Für den soliden Betrieb von Hadoop erhalten Sie einen umfangreichen Einblick in alle wichtige Konfigurationsdateien, richten hochverfügbare NameNodes ein und lernen die wichtigsten Administrationswerkzeuge kennen.

  • Manuelles Cluster-Setup
  • Installation via Ambari
  • Konfigurationsdateien
  • Debugging
  • Anwendungen (Accumulo, Pig, Zookeeper)
  • Überblick über wichtige Ports und Dienste
  • Hochverfügbare NameNodes / JournalNodes.

Betrieb & Tuning

In dieser Session lernen Sie, wie Sie Ihren Hadoop-Cluster überwachen und den Überblick über die laufenden Applikationen und Jobs behalten.

  • Debugging
  • Umgang mit Logfiles und Exceptions
  • Java Performance Tuning
  • Monitoring mit Ganglia und Nagios

Wichtige Tools, die den Arbeitsalltag mit Hadoop erleichtern

  • Ambari Shell
  • Monitoring-Tools
  • dfsadmin

Laborumgebung:
Installation, Konfiguration und Inbetriebnahme eines Hadoop-Clusters

  • Mind. 4 Amazon AWS EC2-Instanzen
  • SLES 11 mit SSH-Zugriff
  • Master / Data Nodes.

Praktische Übungen:

  • Installation & Konfiguration der Basisdienste (HDFS, NameNode, DataNode)
  • Installation Ambari, ZooKeeper, Pig
  • Fehlersuche
  • Konfiguration
  • Performance-Tuning
  • Ausfall-Szenarios
  • Redundanz
  • Inbetriebnahme / Deployment von MapReduce-Jobs.

Kursdetails:

Dauer: 5 Tage

Termine:

Durchführung:

  • Garantiert ab 3 Teilnehmern
  • Maximal 10 Teilnehmer

Enthaltene Leistungen:

  • Schulungsunterlagen
  • Teilnahmebescheinigung
  • reichhaltiges Mittagessen
  • 2 Kaffeepausen
  • Erfrischungsgetränke

Teilnahmegebühr:

  • 3.695,- EUR / 4.295,- CHF
    (zzgl. gesetzl. MwSt)

 

 

Haben Sie Fragen?

Gerne beraten wir Sie persönlich per Telefon oder per E-Mail.

IFTT Service-Line:
+49 (0)69 - 78 910 810

E-Mail: