Lokalne, prowadzone przez instruktorów kursy szkoleniowe Apache Hadoop na żywo demonstrują poprzez interaktywne praktyczne ćwiczenia podstawowe elementy ekosystemu Hadoop oraz sposoby wykorzystania tych technologii do rozwiązywania problemów na dużą skalę. Szkolenie Hadoop jest dostępne jako "szkolenie online na żywo" lub "szkolenie na żywo na miejscu". Szkolenie na żywo online (inaczej "zdalne szkolenie na żywo") odbywa się za pomocą interaktywnego, zdalnego pulpitu . Szkolenie na żywo na miejscu może odbywać się lokalnie w siedzibie klienta w Olsztyn lub w korporacyjnych centrach szkoleniowych NobleProg w Olsztyn. NobleProg — Twój lokalny dostawca szkoleń
Olsztyn
sale szkoleniowe NobleProg, ul. Gietkowska 6a, Olsztyn, poland, 10-170
Sala o charakterze szkoleniowo – konferencyjnym z pełnym wyposażeniem audio-wizualnym.
Funkcjonalne meble zapewniają możliwość ustawienie ich w układzie konferencyjnym, szkolnym, warsztatowym lub kinowym w zależności od potrzeb Klienta.
To prowadzone przez instruktora szkolenie na żywo w Olsztyn (na miejscu lub zdalnie) jest przeznaczone dla programistów, którzy chcą używać i integrować Spark, Hadoop i Python do przetwarzania, analizowania i przekształcania dużych i złożonych zestawów danych.
Pod koniec tego szkolenia uczestnicy będą mogli
Skonfigurować środowisko niezbędne do rozpoczęcia przetwarzania dużych zbiorów danych za pomocą Spark, Hadoop i Python.
Zrozumieć funkcje, podstawowe komponenty i architekturę Spark i Hadoop.
Dowiedz się, jak zintegrować Spark, Hadoop i Python w celu przetwarzania dużych zbiorów danych.
Poznanie narzędzi w ekosystemie Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka i Flume).
Tworzenie systemów rekomendacji opartych na filtrowaniu kolaboracyjnym podobnych do Netflix, YouTube, Amazon, Spotify i Google.
Wykorzystanie Apache Mahout do skalowania algorytmów uczenia maszynowego.
Odbiorcy:Kurs przeznaczony jest dla specjalistów IT poszukujących rozwiązania do przechowywania i przetwarzania dużych zbiorów danych w środowisku systemów rozproszonychGoal:Głęboka wiedza na temat Hadoop administracji klastrami.
Big Data Hadoop to otwarta, rozproszona i skalowalna platforma, stworzona do przechowywania, przetwarzania i analizy dużych zbiorów danych.
Hadoop umożliwia przechowywanie dużych ilości danych na klastrze komputerów, dzięki czemu można obsługiwać petabajty danych.
Framework Hadoop zawiera system plików Hadoop Distributed File System (HDFS) oraz framework do przetwarzania rozproszonego MapReduce. Pozwala to na równoległe przetwarzanie danych na wielu maszynach w klastrze.
Platforma Hadoop jest łatwa w skalowaniu. Można ją rozbudować poprzez dodanie nowych węzłów do klastra, co zwiększa przepustowość i przetwarzanie danych. Składa się z różnych modułów, takich jak HDFS, MapReduce, YARN (Yet Another Resource Negotiator) oraz dodatkowych narzędzi i bibliotek, które mogą być używane w zależności od potrzeb projektu.
Hadoop umożliwia pracę z różnorodnymi typami danych, w tym strukturyzowanymi, półstrukturyzowanymi i nieustrukturyzowanymi.
Jest używany do analizy dużych zbiorów danych, tworzenia raportów, analizy trendów, przewidywania oraz uczenia maszynowego.
Hadoop posiada bogaty ekosystem narzędzi i frameworków, takich jak Apache Hive, Apache Pig, Apache Spark, Apache HBase, które wspierają różne aspekty przetwarzania i analizy danych.
Zapewnia mechanizmy bezpieczeństwa, kontroli dostępu i zarządzania użytkownikami, aby chronić dane przechowywane i przetwarzane w klastrze Hadoop.
Big Data Hadoop jest popularnym narzędziem do przetwarzania i analizy dużych zbiorów danych, stosowanym w różnych branżach, w tym w analizie rynkowej, medycynie, finansach, przemyśle i wielu innych, gdzie konieczne jest zarządzanie i analiza dużej ilości danych.
Analityka Big Data obejmuje proces badania dużych ilości różnorodnych zestawów danych w celu odkrycia korelacji, ukrytych wzorców i innych przydatnych informacji.
Branża medyczna dysponuje ogromnymi ilościami złożonych, heterogenicznych danych medycznych i klinicznych. Zastosowanie analizy dużych zbiorów danych na danych dotyczących zdrowia stanowi ogromny potencjał w uzyskiwaniu wglądu w celu poprawy świadczenia opieki zdrowotnej. Jednak ogrom tych zbiorów danych stanowi ogromne wyzwanie w analizach i praktycznych zastosowaniach w środowisku klinicznym.
W tym prowadzonym przez instruktora szkoleniu na żywo (zdalnie) uczestnicy dowiedzą się, jak przeprowadzić analizę dużych zbiorów danych w zakresie zdrowia, przechodząc przez serię praktycznych ćwiczeń laboratoryjnych na żywo.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Instalowanie i konfigurowanie narzędzi do analizy dużych zbiorów danych, takich jak Hadoop MapReduce i Spark.
Zrozumienie charakterystyki danych medycznych
Stosowanie technik big data do przetwarzania danych medycznych
Badanie systemów i algorytmów big data w kontekście aplikacji zdrowotnych
Uczestnicy
Programiści
Naukowcy ds. danych
Format kursu
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna.
Uwaga
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
Szkolenie pozwoli w pełni zapoznać się i zrozumieć wszystkie niezbędne kroki do obsługi i utrzymywania klastra Hadoop. Dostarcza wiedzę począwszy od zagadnień związanych ze specyfikacją sprzętu, instalacją i konfiguracją systemu, aż do zagadnien związanych z równoważeniem obciążenia, strojeniem, diagnozowaniem i rozwiązywaniu problemów przy wdrożeniu.Kurs dedykowany administratorom, którzy będą tworzyć lub/i utrzymywać klaster Hadoop.Materiały szkoleniowe
Apache Hadoop to najpopularniejszy framework do przetwarzania Big Data na klastrach serwerów. Podczas tego trzydniowego (opcjonalnie czterodniowego) kursu uczestnicy dowiedzą się o korzyściach biznesowych i przypadkach użycia Hadoop i jego ekosystemu, jak zaplanować wdrożenie i rozwój klastra, jak zainstalować, utrzymywać, monitorować, rozwiązywać problemy i optymalizować Hadoop. Uczestnicy przećwiczą również masowe ładowanie danych w klastrze, zapoznają się z różnymi dystrybucjami Hadoop oraz przećwiczą instalację i zarządzanie narzędziami ekosystemu Hadoop. Kurs kończy się dyskusją na temat zabezpieczania klastra za pomocą Kerberos.
"... Materiały były bardzo dobrze przygotowane i dokładnie omówione. Laboratorium było bardzo pomocne i dobrze zorganizowane" - Andrew Nguyen, główny inżynier integracji DW, Microsoft Online Advertising
Publiczność
Hadoop Administratorzy
Format
Wykłady i praktyczne laboratoria, przybliżona równowaga 60% wykładów, 40% laboratoriów.
Apache Hadoop jest najpopularniejszym frameworkiem do przetwarzania Big Data na klastrach serwerów. Ten kurs wprowadzi programistę w różne komponenty (HDFS, MapReduce, Pig, Hive i HBase) Hadoop ekosystemu.
Apache Hadoop jest jednym z najpopularniejszych frameworków do przetwarzania Big Data na klastrach serwerów. Ten kurs zagłębia się w zarządzanie danymi w HDFS, zaawansowane Pig, Hive i HBase. Te zaawansowane techniki programowania będą korzystne dla doświadczonych Hadoop programistów.
Odbiorcy: programiści
Czas trwania: trzy dni
Format: wykłady (50%) i praktyczne laboratoria (50%).
To prowadzone przez instruktora szkolenie na żywo w Olsztyn (online lub na miejscu) jest przeznaczone dla administratorów systemów, którzy chcą dowiedzieć się, jak konfigurować, wdrażać i zarządzać klastrami Hadoop w swojej organizacji.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Instalacja i konfiguracja Apache Hadoop.
Zrozumienie czterech głównych komponentów ekosystemu Hadoop: HDFS, MapReduce, YARN i Hadoop Common.
Używanie rozproszonego systemu plików Hadoop (HDFS) do skalowania klastra do setek lub tysięcy węzłów.
Konfigurowanie HDFS do działania jako silnik pamięci masowej dla lokalnych wdrożeń Spark.
Konfiguracja Spark, aby uzyskać dostęp do alternatywnych rozwiązań pamięci masowej, takich jak Amazon S3 i systemów baz danych NoSQL, takich jak Redis, Elasticsearch, Couchbase, Aerospike itp.
Wykonywanie zadań administracyjnych, takich jak udostępnianie, zarządzanie, monitorowanie i zabezpieczanie klastra Apache Hadoop.
Ten kurs wprowadza HBase – magazyn NoSQL na szczycie Hadoop. Kurs jest przeznaczony dla programistów, którzy będą używać HBase do tworzenia aplikacji i administratorów, którzy będą zarządzać klastrami HBase.
Przeprowadzimy programistę przez architekturę HBase, modelowanie danych i tworzenie aplikacji na HBase. Omówimy również korzystanie z MapReduce z HBase oraz niektóre tematy administracyjne związane z optymalizacją wydajności. Kurs jest bardzo praktyczny i zawiera wiele ćwiczeń laboratoryjnych.
Czas trwania : 3 dni
Odbiorcy : Programiści & Administratorzy
To prowadzone przez instruktora szkolenie na żywo w Olsztyn (na miejscu lub zdalnie) wprowadza Hortonworks Data Platform (HDP) i przeprowadza uczestników przez wdrożenie rozwiązania Spark + Hadoop.
Pod koniec tego szkolenia uczestnicy będą mogli:
Używać Hortonworks do niezawodnego uruchamiania Hadoop na dużą skalę.
Ujednolicić możliwości Hadoop w zakresie bezpieczeństwa, zarządzania i operacji ze zwinnymi analitycznymi przepływami pracy Spark.
Wykorzystanie Hortonworks do badania, walidacji, certyfikacji i wsparcia każdego z komponentów projektu Spark.
Przetwarzanie różnych typów danych, w tym ustrukturyzowanych, nieustrukturyzowanych, w ruchu i w spoczynku.
Cloudera Impala to silnik zapytań typu open source do masowego przetwarzania równoległego (MPP) SQL dla klastrów Apache Hadoop.
Cloudera Impala umożliwia użytkownikom wysyłanie zapytań o niskim opóźnieniu SQL do danych przechowywanych w Hadoop Distributed File System i Apache Hbase bez konieczności przenoszenia lub przekształcania danych.
Odbiorcy
Ten kurs jest skierowany do analityków i badaczy danych przeprowadzających analizy danych przechowywanych w Hadoop za pośrednictwem narzędzi Business Intelligence lub SQL.
Po ukończeniu tego kursu uczestnicy będą w stanie
Wyodrębniać znaczące informacje z klastrów Hadoop za pomocą Impala.
Pisać specjalne programy ułatwiające Business Intelligence w Impala SQL dialekcie.
W tym prowadzonym przez instruktora szkoleniu na żywo w Olsztyn (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak wdrożyć i zarządzać Apache NiFi w środowisku laboratoryjnym na żywo.
Pod koniec tego szkolenia uczestnicy będą mogli:
Zainstalować i skonfigurować Apachi NiFi.
Pozyskiwać, przekształcać i zarządzać danymi z różnych, rozproszonych źródeł danych, w tym baz danych i dużych jezior danych.
Automatyzować przepływy danych.
Włączać analitykę strumieniową.
Stosowanie różnych podejść do pozyskiwania danych.
Przekształcanie danych Big Data w informacje biznesowe.
W tym prowadzonym przez instruktora szkoleniu na żywo w Olsztyn uczestnicy poznają podstawy programowania opartego na przepływie, opracowując szereg rozszerzeń demonstracyjnych, komponentów i procesorów przy użyciu Apache NiFi.
Pod koniec tego szkolenia uczestnicy będą mogli:
Zrozumieć architekturę NiFi i koncepcje przepływu danych.
Rozwijać rozszerzenia przy użyciu NiFi i interfejsów API innych firm.
Rozwijać własny procesor Apache Nifi.
Pozyskiwać i przetwarzać dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych.
Więcej...
Ostatnia aktualizacja:
Opinie uczestników (10)
Przykłady w czasie rzeczywistym
Ahmet Bolat - Accenture Industrial SS
Szkolenie - Python, Spark, and Hadoop for Big Data
Przetłumaczone przez sztuczną inteligencję
Przygotowanie i organizacja trenera oraz jakość materiałów dostępnych na GitHub.
Mateusz Rek - MicroStrategy Poland Sp. z o.o.
Szkolenie - Impala for Business Intelligence
Przetłumaczone przez sztuczną inteligencję
Projekt do samodzielnego przygotowania, interesujący przykład DevOps-owej pacy z Ambari, wsparcie trenera (logowanie na maszynę wirtualną, dobra i bezpośrednia komunikacja)
Bartlomiej Krasinski - Rossmann SDP
Szkolenie - HBase for Developers
To have it from the beginning.
Peter Scales - CACI Ltd
Szkolenie - Apache NiFi for Developers
Przetłumaczone przez sztuczną inteligencję
Praktyczne sprawy zostały dobrze wykonane, a także teoria została dobrze przedstawiona przez Ajaya.
Dominik Mazur - Capgemini Polska Sp. z o.o.
Szkolenie - Hadoop Administration on MapR
Przetłumaczone przez sztuczną inteligencję
Koleżeńska komunikacja z osobami biorących udział w szkoleniu.
Andrzej Szewczuk - Izba Administracji Skarbowej w Lublinie
Szkolenie - Apache NiFi for Administrators
Książka wirtualna, która bardzo mi się podobała
Nauczyciel był bardzo wyznawczy co do tematu oraz innych tematów, był bardzo miły i przyjazny
Podobało mi się miejsce w Dubaju.
Safar Alqahtani - Elm Information Security
Szkolenie - Big Data Analytics in Health
Przetłumaczone przez sztuczną inteligencję
Lubiłem bardzo interaktywny sposób uczenia się.
Luigi Loiacono
Szkolenie - Data Analysis with Hive/HiveQL
Przetłumaczone przez sztuczną inteligencję
Najbardziej podobały mi się przykłady z życia rzeczywistego podawane przez trenera.
Simon Hahn
Szkolenie - Administrator Training for Apache Hadoop