Plan Szkolenia

Wprowadzenie do rozwiązań Cloud Computing i Big Data

Ewolucja Apache Hadoop: HDFS, MapReduce, YARN

Instalacja i konfiguracja Hadoop w trybie Pseudo-distributed

Uruchamianie zadań MapReduce na klasterze Hadoop

Planowanie, instalacja i konfiguracja klastera Hadoop

Ekośrodowisko Hadoop: Pig, Hive, Sqoop, HBase

  • Przyszłość Big Data: Impala, Cassandra

Wymagania

  • podstawowe umiejętności administrowania
  • podstawowe umiejętności programowania
 21 godzin

Liczba uczestników


cena netto za uczestnika

Opinie uczestników (5)

Propozycje terminów

Powiązane Kategorie