Prowadzone przez instruktorów kursy szkoleniowe Apache Spark na żywo w trybie online lub stacjonarnym pokazują poprzez praktyczne ćwiczenia, w jaki sposób Spark pasuje do ekosystemu Big Data i jak używać Sparka do analizy danych.
Szkolenie Apache Spark jest dostępne jako "szkolenie na żywo online" lub "szkolenie na miejscu". Szkolenie na żywo online (inaczej "zdalne szkolenie na żywo") odbywa się za pośrednictwem interaktywnego, zdalnego pulpitu. Szkolenie na miejscu może być prowadzone lokalnie w siedzibie klienta w dolnośląskie lub w korporacyjnych centrach szkoleniowych NobleProg w dolnośląskie.
NobleProg - lokalny dostawca szkoleń
Wrocław
NobleProg, Ludwika Rydygiera 2a/22, Wroclaw, Polska, 50-249
Lokal znajduje się w samym centrum miasta (vis-à-vis hotelu HP Park Plaza), zaledwie 10 minut spacerem od Rynku, tuż przy skrzyżowaniu ulic Drobnera i Rydygiera.
Wejście do budynku zlokalizowane jest od strony ulicy Śrutowej, tuż przy skrzyżowaniu z Bolesława Drobnera. Idąc od strony pl. Bema, mijamy po prawej stronie Rossmann i tuż za nim skręcamy w Śrutową - wejście będzie po prawej. Kierując się od pl. Dubois, mijamy po lewej aptekę Ziko oraz Carrefour Express i dochodzimy aż do skrzyżowania z ul. Śrutową - skręcamy w nią, wejście do budynku będzie po prawej stronie.
Sala szkoleniowa znajduje się na drugim piętrze.
Parking
W pobliżu sali szkoleniowej liczba miejsc parkingowych jest ograniczona, nie obowiązuje strefa płatnego parkowania (wzdłuż ulic Rydygiera, Śrutowej i Henryka Brodatego, Bolesława Drobnera). Ul. Ludwika Rydygiera jest jednokierunkowa, wjazd od ul. Bolesława Drobnera. Ul. Śrutowa także jest jednokierunkowa, wjazd od ul. Henryka Brodatego.
Dojazd komunikacją miejską
To prowadzone przez instruktora szkolenie na żywo w dolnośląskie (na miejscu lub zdalnie) jest przeznaczone dla średnio zaawansowanych analityków danych i inżynierów, którzy chcą korzystać z Google Colab i Apache Spark do przetwarzania i analizy dużych zbiorów danych.
Pod koniec tego szkolenia uczestnicy będą w stanie
Skonfigurować środowisko big data przy użyciu Google Colab i Spark.
Efektywnie przetwarzać i analizować duże zbiory danych za pomocą Apache Spark.
Wizualizować duże zbiory danych w środowisku współpracy.
Zintegrować Apache Spark z narzędziami opartymi na chmurze.
To prowadzone przez instruktora szkolenie na żywo w dolnośląskie (na miejscu lub zdalnie) jest przeznaczone dla programistów, którzy chcą używać i integrować Spark, Hadoop i Python do przetwarzania, analizowania i przekształcania dużych i złożonych zestawów danych.
Pod koniec tego szkolenia uczestnicy będą mogli
Skonfigurować środowisko niezbędne do rozpoczęcia przetwarzania dużych zbiorów danych za pomocą Spark, Hadoop i Python.
Zrozumieć funkcje, podstawowe komponenty i architekturę Spark i Hadoop.
Dowiedz się, jak zintegrować Spark, Hadoop i Python w celu przetwarzania dużych zbiorów danych.
Poznanie narzędzi w ekosystemie Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka i Flume).
Tworzenie systemów rekomendacji opartych na filtrowaniu kolaboracyjnym podobnych do Netflix, YouTube, Amazon, Spotify i Google.
Wykorzystanie Apache Mahout do skalowania algorytmów uczenia maszynowego.
This instructor-led, live training in dolnośląskie (online or onsite) is aimed at beginner-level to intermediate-level system administrators who wish to deploy, maintain, and optimize Spark clusters.
By the end of this training, participants will be able to:
Install and configure Apache Spark in various environments.
Manage cluster resources and monitor Spark applications.
Optimize the performance of Spark clusters.
Implement security measures and ensure high availability.
W tym prowadzonym przez instruktora szkoleniu na żywo w dolnośląskie uczestnicy dowiedzą się, jak używać Python i Spark razem do analizy dużych zbiorów danych podczas pracy nad ćwiczeniami praktycznymi.
Pod koniec tego szkolenia uczestnicy będą mogli:
Dowiedzieć się, jak używać Sparka z Python do analizy Big Data.
Pracować nad ćwiczeniami, które naśladują rzeczywiste przypadki.
Używać różnych narzędzi i technik do analizy dużych zbiorów danych przy użyciu PySpark.
Ten kurs jest skierowany do programistów i naukowców zajmujących się danymi, którzy chcą zrozumieć i wdrożyć sztuczną inteligencję w swoich aplikacjach. Szczególna uwaga poświęcona jest analizie danych, rozproszonej sztucznej inteligencji i przetwarzaniu języka naturalnego.
Analityka Big Data obejmuje proces badania dużych ilości różnorodnych zestawów danych w celu odkrycia korelacji, ukrytych wzorców i innych przydatnych informacji.
Branża medyczna dysponuje ogromnymi ilościami złożonych, heterogenicznych danych medycznych i klinicznych. Zastosowanie analizy dużych zbiorów danych na danych dotyczących zdrowia stanowi ogromny potencjał w uzyskiwaniu wglądu w celu poprawy świadczenia opieki zdrowotnej. Jednak ogrom tych zbiorów danych stanowi ogromne wyzwanie w analizach i praktycznych zastosowaniach w środowisku klinicznym.
W tym prowadzonym przez instruktora szkoleniu na żywo (zdalnie) uczestnicy dowiedzą się, jak przeprowadzić analizę dużych zbiorów danych w zakresie zdrowia, przechodząc przez serię praktycznych ćwiczeń laboratoryjnych na żywo.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Instalowanie i konfigurowanie narzędzi do analizy dużych zbiorów danych, takich jak Hadoop MapReduce i Spark.
Zrozumienie charakterystyki danych medycznych
Stosowanie technik big data do przetwarzania danych medycznych
Badanie systemów i algorytmów big data w kontekście aplikacji zdrowotnych
Uczestnicy
Programiści
Naukowcy ds. danych
Format kursu
Część wykładu, część dyskusji, ćwiczenia i ciężka praktyka praktyczna.
Uwaga
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
W tym prowadzonym przez instruktora szkoleniu na żywo w dolnośląskie uczestnicy zapoznają się z ofertą technologiczną i podejściami wdrożeniowymi do przetwarzania danych grafowych. Celem jest identyfikacja obiektów świata rzeczywistego, ich cech i relacji, a następnie modelowanie tych relacji i przetwarzanie ich jako danych przy użyciu podejścia Graph Computing (znanego również jako Graph Analytics). Zaczynamy od szerokiego przeglądu i zawężamy się do konkretnych narzędzi, przechodząc przez serię studiów przypadków, ćwiczeń praktycznych i wdrożeń na żywo.
Pod koniec tego szkolenia uczestnicy będą mogli
Zrozumieć, w jaki sposób dane wykresu są utrwalane i przemierzane.
Wybrać najlepszą platformę dla danego zadania (od grafowych baz danych po ramy przetwarzania wsadowego).
Zaimplementować Hadoop, Spark, GraphX i Pregel do równoległego przetwarzania grafów na wielu maszynach.
Postrzeganie rzeczywistych problemów związanych z dużymi zbiorami danych w kategoriach grafów, procesów i przejść.
To prowadzone przez instruktora szkolenie na żywo w dolnośląskie (online lub na miejscu) jest przeznaczone dla administratorów systemów, którzy chcą dowiedzieć się, jak konfigurować, wdrażać i zarządzać klastrami Hadoop w swojej organizacji.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Instalacja i konfiguracja Apache Hadoop.
Zrozumienie czterech głównych komponentów ekosystemu Hadoop: HDFS, MapReduce, YARN i Hadoop Common.
Używanie rozproszonego systemu plików Hadoop (HDFS) do skalowania klastra do setek lub tysięcy węzłów.
Konfigurowanie HDFS do działania jako silnik pamięci masowej dla lokalnych wdrożeń Spark.
Konfiguracja Spark, aby uzyskać dostęp do alternatywnych rozwiązań pamięci masowej, takich jak Amazon S3 i systemów baz danych NoSQL, takich jak Redis, Elasticsearch, Couchbase, Aerospike itp.
Wykonywanie zadań administracyjnych, takich jak udostępnianie, zarządzanie, monitorowanie i zabezpieczanie klastra Apache Hadoop.
To prowadzone przez instruktora szkolenie na żywo w dolnośląskie (na miejscu lub zdalnie) wprowadza Hortonworks Data Platform (HDP) i przeprowadza uczestników przez wdrożenie rozwiązania Spark + Hadoop.
Pod koniec tego szkolenia uczestnicy będą mogli:
Używać Hortonworks do niezawodnego uruchamiania Hadoop na dużą skalę.
Ujednolicić możliwości Hadoop w zakresie bezpieczeństwa, zarządzania i operacji ze zwinnymi analitycznymi przepływami pracy Spark.
Wykorzystanie Hortonworks do badania, walidacji, certyfikacji i wsparcia każdego z komponentów projektu Spark.
Przetwarzanie różnych typów danych, w tym ustrukturyzowanych, nieustrukturyzowanych, w ruchu i w spoczynku.
W tym instruktażowym szkoleniu na żywo w dolnośląskie (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak skonfigurować i zintegrować różne Stream Processing frameworki z istniejącymi systemami przechowywania dużych zbiorów danych oraz powiązanymi aplikacjami i mikrousługami.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Instalowanie i konfigurowanie różnych Stream Processing frameworków, takich jak Spark Streaming i Kafka Streaming.
Zrozumieć i wybrać najbardziej odpowiedni framework dla danego zadania.
Przetwarzanie danych w sposób ciągły, współbieżny i rekord po rekordzie.
Integracja Stream Processing rozwiązań z istniejącymi bazami danych, hurtowniami danych, jeziorami danych itp.
Integracja najbardziej odpowiedniej biblioteki przetwarzania strumieniowego z aplikacjami korporacyjnymi i mikrousługami.
Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla naukowców zajmujących się danymi, którzy chcą używać stosu SMACK do tworzenia platform przetwarzania danych dla rozwiązań Big Data.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Wdrożenie architektury potoku danych do przetwarzania dużych zbiorów danych.
Rozwój infrastruktury klastrowej przy użyciu Apache Mesos i Docker.
Analiza danych za pomocą Spark i Scala.
Zarządzanie nieustrukturyzowanymi danymi za pomocą Apache Cassandra.
Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla inżynierów, którzy chcą skonfigurować i wdrożyć system Apache Spark do przetwarzania bardzo dużych ilości danych.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Instalacja i konfiguracja Apache Spark.
Szybkie przetwarzanie i analizowanie bardzo dużych zbiorów danych.
Zrozumienie różnicy między Apache Spark i Hadoop MapReduce i kiedy używać którego z nich.
Integracja Apache Spark z innymi narzędziami uczenia maszynowego.
Krzywa uczenia się Apache Spark powoli rośnie na początku, wymaga dużo wysiłku, aby uzyskać pierwszy zwrot. Ten kurs ma na celu przeskoczenie pierwszej trudnej części. Po ukończeniu tego kursu uczestnicy zrozumieją podstawy Apache Spark , będą wyraźnie odróżniać RDD od DataFrame, nauczą się Pythona i Scala API, zrozumieją executory i zadania itp. Również zgodnie z najlepszymi praktykami, kurs ten silnie koncentruje się na wdrażaniu w chmurze, Databricks i AWS. Studenci zrozumieją również różnice między AWS EMR i AWS Glue, jedną z najnowszych usług Spark w AWS.
AUDIENCJA:
Inżynier ds. danych, DevOps, Naukowiec ds. danych
CEL:
Ten kurs wprowadzi Apache Spark. Studenci dowiedzą się, jak Spark pasuje do ekosystemu Big Data i jak używać Spark do analizy danych. Kurs obejmuje powłokę Spark do interaktywnej analizy danych, elementy wewnętrzne Spark, interfejsy API Spark, Spark SQL, przesyłanie strumieniowe Spark oraz uczenie maszynowe i graphX.
AUDIENCJA :
Programiści / analitycy danych
To prowadzone przez instruktora szkolenie na żywo w dolnośląskie (na miejscu lub zdalnie) jest przeznaczone dla naukowców zajmujących się danymi i programistów, którzy chcą używać Spark NLP, zbudowanego na bazie Apache Spark, do opracowywania, wdrażania i skalowania modeli i potoków przetwarzania tekstu w języku naturalnym.
Pod koniec tego szkolenia uczestnicy będą mogli
Skonfigurować niezbędne środowisko programistyczne, aby rozpocząć tworzenie potoków NLP za pomocą Spark NLP.
Zrozumieć funkcje, architekturę i zalety korzystania z Spark NLP.
Używać wstępnie wytrenowanych modeli dostępnych w Spark NLP do implementacji przetwarzania tekstu.
Dowiedz się, jak budować, trenować i skalować modele Spark NLP dla projektów klasy produkcyjnej.
Zastosuj klasyfikację, wnioskowanie i analizę nastrojów w rzeczywistych przypadkach użycia (dane kliniczne, spostrzeżenia dotyczące zachowań klientów itp.)
Spark SQL to moduł Apache Spark do pracy z ustrukturyzowanymi i nieustrukturyzowanymi danymi. Spark SQL dostarcza informacji o strukturze danych, a także o wykonywanych obliczeniach. Informacje te mogą być wykorzystywane do przeprowadzania optymalizacji. Dwa typowe zastosowania Spark SQL to:
- wykonywanie zapytań SQL.
- odczytywanie danych z istniejącej instalacji Hive.
W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak analizować różne typy zestawów danych za pomocą Spark SQL.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Instalowanie i konfigurowanie Sparka SQL.
Przeprowadzanie analizy danych przy użyciu Spark SQL.
Zapytania do zestawów danych w różnych formatach.
Wizualizacja danych i wyników zapytań.
Format kursu
Interaktywny wykład i dyskusja.
Dużo ćwiczeń i praktyki.
Praktyczne wdrożenie w środowisku live-lab.
Opcje dostosowywania kursu
Aby zamówić niestandardowe szkolenie dla tego kursu, skontaktuj się z nami.
MLlib to biblioteka Spark’s do uczenia maszynowego (ML). Jej celem jest uczynienie praktycznego uczenia maszynowego skalowalnym i łatwym. Składa się z popularnych algorytmów uczenia się i narzędzi, w tym klasyfikacji, regresji, klastrowania, filtrowania opartego na współpracy, redukcji wymiarowości, a także prymitywów optymalizacji niższego poziomu i interfejsów API potoków wyższego poziomu.
Dzieli się na dwa pakiety:
spark.mllib zawiera oryginalny interfejs API zbudowany na bazie RDD.
spark.ml zapewnia API wyższego poziomu zbudowane na DataFrames do konstruowania potoków ML.
Uczestnicy
Ten kurs jest skierowany do inżynierów i programistów, którzy chcą korzystać z wbudowanej biblioteki maszynowej dla Apache Spark
Więcej...
Ostatnia aktualizacja:
Opinie uczestników (10)
Dużo praktycznych przykładów, różne sposoby podejścia do tego samego problemu i czasem nie tak oczywiste triki, jak poprawić obecne rozwiązanie
Rafal - Nordea
Szkolenie - Apache Spark MLlib
Przetłumaczone przez sztuczną inteligencję
Doświadczenie praktyczne trenera, nie koloryzowanie omawianego rozwiązania ale też nie wprowadzanie negatywnego nacechowania. Mam poczucie, że trener przygotowuje mnie do realnego i praktycznego wykorzystania narzędzia - tych cennych szczegółów nie ma zazwyczaj w książkach.
Krzysztof Miodek - Krajowy Rejestr Dlugow Biuro Informacji Gospodarczej S.A.
Szkolenie - Apache Spark Fundamentals
Przykłady w czasie rzeczywistym
Ahmet Bolat - Accenture Industrial SS
Szkolenie - Python, Spark, and Hadoop for Big Data
Przetłumaczone przez sztuczną inteligencję
bardzo interaktywny...
Richard Langford
Szkolenie - SMACK Stack for Data Science
Przetłumaczone przez sztuczną inteligencję
Wystarczająca praktyka, trener jest kompetentny
Chris Tan
Szkolenie - A Practical Introduction to Stream Processing
Przetłumaczone przez sztuczną inteligencję
Dowiedz się o Spark Streaming, Databricks i AWS Redshift
Lim Meng Tee - Jobstreet.com Shared Services Sdn. Bhd.
Szkolenie - Apache Spark in the Cloud
Przetłumaczone przez sztuczną inteligencję
praktyczne zadania
Pawel Kozikowski - GE Medical Systems Polska Sp. Zoo
Szkolenie - Python and Spark for Big Data (PySpark)
Przetłumaczone przez sztuczną inteligencję
Książka wirtualna, która bardzo mi się podobała
Nauczyciel był bardzo wyznawczy co do tematu oraz innych tematów, był bardzo miły i przyjazny
Podobało mi się miejsce w Dubaju.
Safar Alqahtani - Elm Information Security
Szkolenie - Big Data Analytics in Health
Przetłumaczone przez sztuczną inteligencję
To:
To jest jedno z najlepszych praktycznych kursów programowania z ćwiczeniami, jakie kiedykolwiek ukończyłem.
Laura Kahn
Szkolenie - Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
Przetłumaczone przez sztuczną inteligencję
Richard jest bardzo spokojny i metodyczny, posiadający analityczne wyczucie - dokładnie te cechy, które są potrzebne do prowadzenia tego typu kursu.