Building Kafka Solutions with Confluent - Plan Szkolenia
To prowadzone przez instruktora szkolenie na żywo (w trybie online lub na miejscu) jest przeznaczone dla inżynierów, którzy chcą korzystać z Confluent (dystrybucji Kafka) do budowania i zarządzania platformą przetwarzania danych w czasie rzeczywistym dla swoich aplikacji.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Instalować i konfigurować platformę Confluent.
- Korzystać z narzędzi i usług zarządzania Confluent do łatwiejszego uruchamiania Kafka.
- Przechowywać i przetwarzać nadchodzące dane strumieniowe.
- Optymalizować i zarządzać klasterami Kafka.
- Zabezpieczać strumienie danych.
Format kursu
- Interaktywne wykłady i dyskusje.
- Wiele ćwiczeń i praktyki.
- Przykładowa implementacja w środowisku live-lab.
Opcje dostosowywania kursu
- Ten kurs oparty jest na wersji open source Confluent: Confluent Open Source.
- Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu umówienia.
Plan Szkolenia
Wprowadzenie
- Uruchamianie Apache Kafka w dużą skalę z Confluent.
Konfiguracja Confluent
Przegląd funkcji i architektury Confluent
Tworzenie platformy przesyłania strumieniowego
Proces publikowania i subskrybowania
Jak Kafka przechowuje dane
Przetwarzanie danych w locie
Studium przypadku: Twitter Analytics
Wdrażanie interfejsów API Kafki
- Producer, Consumer, Streams, i Connect
Tworzenie aplikacji na bazie Kafki
Monitorowanie Kafki
Narzędzia administracyjne
Studium przypadku: Netflix Rekomendacje filmowe
Dodawanie nowych systemów
Wykrywanie problemów z dostarczaniem wiadomości
Bezpieczeństwo w przedsiębiorstwie
Odzyskiwanie danych po awarii
Funkcje dla deweloperów
Rozwiązywanie problemów
Podsumowanie i wnioski
Wymagania
- Ogólne zrozumienie Apache Kafka
- Doświadczenie w programowaniu Java
Grupa docelowa
- Developeri
- Architekci
- Administratorzy systemów
Szkolenia otwarte są realizowane w przypadku uzbierania się grupy szkoleniowej liczącej co najmniej 5 osób na dany termin.
Building Kafka Solutions with Confluent - Plan Szkolenia - Booking
Building Kafka Solutions with Confluent - Plan Szkolenia - Enquiry
Building Kafka Solutions with Confluent - Zapytanie o Konsultacje
Zapytanie o Konsultacje
Opinie uczestników (5)
Wystarczająca praktyka, trener jest kompetentny
Chris Tan
Szkolenie - A Practical Introduction to Stream Processing
Przetłumaczone przez sztuczną inteligencję
Kurs był doskonały. Nasz trener Andreas był bardzo przygotowany i odpowiedział na wszystkie pytania, które zadawaliśmy. Ponadto pomógł nam, gdy mieliśmy problemy, i wyjaśnił szczegóły, gdy to było potrzebne. Najlepszy kurs, w którym kiedykolwiek brałem udział.
Bozhidar Marinov - Pejsejf B"lgaria EOOD
Szkolenie - Microservices with Spring Cloud and Kafka
Przetłumaczone przez sztuczną inteligencję
To have it from the beginning.
Peter Scales - CACI Ltd
Szkolenie - Apache NiFi for Developers
Przetłumaczone przez sztuczną inteligencję
Koleżeńska komunikacja z osobami biorących udział w szkoleniu.
Andrzej Szewczuk - Izba Administracji Skarbowej w Lublinie
Szkolenie - Apache NiFi for Administrators
Przypominanie/przeglądanie kluczowych punktów omówionych tematów.
Paolo Angelo Gaton - SMS Global Technologies Inc.
Szkolenie - Building Stream Processing Applications with Kafka Streams
Przetłumaczone przez sztuczną inteligencję
Propozycje terminów
Szkolenia Powiązane
Apache Ignite for Administrators
7 godzinFormat kursu
- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
- Aby poprosić o spersonalizowane szkolenie dla tego kursu, skontaktuj się z nami.
Unified Batch and Stream Processing with Apache Beam
14 godzinApache Beam to otwarty, zunifikowany model programowania do definiowania i wykonywania równoległych potoków przetwarzania danych. Jego moc polega na możliwości uruchamiania zarówno potoków wsadowych, jak i strumieniowych, przy czym wykonanie jest przeprowadzane przez jeden z obsługiwanych przez Beam back-endów przetwarzania rozproszonego: Apache Apex, Apache Flink, Apache Spark i Google Cloud Dataflow. Rozwiązanie Apache Beam jest przydatne w zadaniach ETL (Extract, Transform, and Load), takich jak przenoszenie danych między różnymi nośnikami pamięci i źródłami danych, przekształcanie danych w bardziej pożądany format i ładowanie danych do nowego systemu.
W tym prowadzonym przez instruktora szkoleniu na żywo (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak zaimplementować Apache Beam SDK w aplikacji Java lub Python, która definiuje potok przetwarzania danych w celu dekompozycji dużego zbioru danych na mniejsze fragmenty w celu niezależnego, równoległego przetwarzania.
Pod koniec tego szkolenia uczestnicy będą mogli
- Zainstalować i skonfigurować Apache Beam.
- Używać pojedynczego modelu programowania do przeprowadzania zarówno przetwarzania wsadowego, jak i strumieniowego z poziomu aplikacji Java lub Python.
- Wykonywać potoki w wielu środowiskach.
Format kursu
- Wykład częściowy, dyskusja częściowa, ćwiczenia i ciężka praktyka praktyczna
Uwaga
- Ten kurs będzie dostępny Scala w przyszłości. Prosimy o kontakt w celu ustalenia szczegółów.
Building Data Pipelines with Apache Kafka
7 godzinApache Kafka to rozproszona platforma streamingowa. Jest de facto standardem w budowaniu potoków danych i rozwiązuje wiele różnych przypadków użycia związanych z przetwarzaniem danych: może być używana jako kolejka komunikatów, rozproszony dziennik, procesor strumieniowy itp.
Zaczniemy od ogólnej teorii dotyczącej potoków danych, a następnie przejdziemy do podstawowych koncepcji Kafki. Odkryjemy również ważne komponenty, takie jak Kafka Streams i Kafka Connect.
Apache Flink Fundamentals
28 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) wprowadza zasady i podejścia stojące za rozproszonym przetwarzaniem danych strumieniowych i wsadowych oraz prowadzi uczestników przez proces tworzenia aplikacji do strumieniowego przesyłania danych w czasie rzeczywistym w Apache Flink.
Pod koniec tego szkolenia uczestnicy będą w stanie
- Skonfigurować środowisko do tworzenia aplikacji do analizy danych.
- Zrozumieć, jak działa biblioteka przetwarzania grafów Apache Flink (Gelly).
- Pakować, wykonywać i monitorować oparte na Flink, odporne na błędy aplikacje do strumieniowego przesyłania danych.
- Zarządzanie różnorodnymi obciążeniami.
- Wykonywanie zaawansowanych analiz.
- Konfigurowanie wielowęzłowego klastra Flink.
- Mierzyć i optymalizować wydajność.
- Integracja Flink z różnymi Big Data systemami.
- Porównywanie możliwości Flink z możliwościami innych platform przetwarzania dużych zbiorów danych.
A Practical Introduction to Stream Processing
21 godzinW tym instruktażowym szkoleniu na żywo w Polsce (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak skonfigurować i zintegrować różne Stream Processing frameworki z istniejącymi systemami przechowywania dużych zbiorów danych oraz powiązanymi aplikacjami i mikrousługami.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Instalowanie i konfigurowanie różnych Stream Processing frameworków, takich jak Spark Streaming i Kafka Streaming.
- Zrozumieć i wybrać najbardziej odpowiedni framework dla danego zadania.
- Przetwarzanie danych w sposób ciągły, współbieżny i rekord po rekordzie.
- Integracja Stream Processing rozwiązań z istniejącymi bazami danych, hurtowniami danych, jeziorami danych itp.
- Integracja najbardziej odpowiedniej biblioteki przetwarzania strumieniowego z aplikacjami korporacyjnymi i mikrousługami.
Distributed Messaging with Apache Kafka
14 godzinTen kurs jest przeznaczony dla architektów korporacyjnych, programistów, administratorów systemów i każdego, kto chce zrozumieć i korzystać z wysokowydajnego rozproszonego systemu przesyłania wiadomości. Jeśli masz bardziej specyficzne wymagania (np. tylko strona administracji systemu), ten kurs może być dostosowany do Twoich potrzeb.
Apache Kafka for Python Programmers
7 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla inżynierów danych, naukowców zajmujących się danymi i programistów, którzy chcą korzystać z funkcji Apache Kafka w strumieniowym przesyłaniu danych z Python.
Pod koniec tego szkolenia uczestnicy będą mogli używać Apache Kafka do monitorowania i zarządzania warunkami w ciągłych strumieniach danych przy użyciu Python programowania.
Stream Processing with Kafka Streams
7 godzinW tym prowadzonym przez instruktora szkoleniu na żywo uczestnicy dowiedzą się, jak zintegrować Kafka Streams z zestawem przykładowych Java aplikacji, które przekazują dane do i z Apache Kafka w celu przetwarzania strumieniowego.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Rozumieć funkcje i zalety Kafka Streams w porównaniu z innymi ramami przetwarzania strumieniowego
- Przetwarzać dane strumieniowe bezpośrednio w ramach klastru Kafka
- Napisać aplikację lub mikrousługę Java lub Scala, która integruje się z Kafka i Kafka Streams
- Napisać zwięzły kod, który przekształca tematy wejściowe Kafka w tematy wyjściowe Kafka
- Budować, pakować i wdrażać aplikację
Uczestnicy
- Developers
Format kursu
- Część wykładu, część dyskusji, ćwiczenia i intensywne praktyczne ćwiczenia
Uwagi
- Aby poprosić o spersonalizowane szkolenie dla tego kursu, proszę skontaktować się z nami w celu ustalenia szczegółów
Confluent KSQL
7 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla programistów, którzy chcą wdrożyć przetwarzanie strumieniowe Apache Kafka bez pisania kodu.
Pod koniec tego szkolenia uczestnicy będą mogli
- Zainstalować i skonfigurować Confluent KSQL.
- Skonfigurować potok przetwarzania strumieniowego przy użyciu tylko SQL poleceń (bez kodowania Java lub Python).
- Przeprowadzać filtrowanie danych, transformacje, agregacje, łączenia, okienkowanie i sesjonowanie w całości w SQL.
- Projektowanie i wdrażanie interaktywnych, ciągłych zapytań dla strumieniowego ETL i analiz w czasie rzeczywistym.
Apache NiFi for Administrators
21 godzinW tym prowadzonym przez instruktora szkoleniu na żywo w Polsce (na miejscu lub zdalnie) uczestnicy dowiedzą się, jak wdrożyć i zarządzać Apache NiFi w środowisku laboratoryjnym na żywo.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zainstalować i skonfigurować Apachi NiFi.
- Pozyskiwać, przekształcać i zarządzać danymi z różnych, rozproszonych źródeł danych, w tym baz danych i dużych jezior danych.
- Automatyzować przepływy danych.
- Włączać analitykę strumieniową.
- Stosowanie różnych podejść do pozyskiwania danych.
- Przekształcanie danych Big Data w informacje biznesowe.
Apache NiFi for Developers
7 godzinW tym prowadzonym przez instruktora szkoleniu na żywo w Polsce uczestnicy poznają podstawy programowania opartego na przepływie, opracowując szereg rozszerzeń demonstracyjnych, komponentów i procesorów przy użyciu Apache NiFi.
Pod koniec tego szkolenia uczestnicy będą mogli:
- Zrozumieć architekturę NiFi i koncepcje przepływu danych.
- Rozwijać rozszerzenia przy użyciu NiFi i interfejsów API innych firm.
- Rozwijać własny procesor Apache Nifi.
- Pozyskiwać i przetwarzać dane w czasie rzeczywistym z różnych i nietypowych formatów plików i źródeł danych.
Spark Streaming with Python and Kafka
7 godzinTo prowadzone przez instruktora szkolenie na żywo w Polsce (na miejscu lub zdalnie) jest przeznaczone dla inżynierów danych, naukowców zajmujących się danymi i programistów, którzy chcą korzystać z funkcji Spark Streaming w przetwarzaniu i analizowaniu danych w czasie rzeczywistym.
Pod koniec tego szkolenia uczestnicy będą mogli używać Spark Streaming do przetwarzania strumieni danych na żywo do użytku w bazach danych, systemach plików i pulpitach nawigacyjnych na żywo.
Microservices with Spring Cloud and Kafka
21 godzinSzkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla programistów, którzy chcą przekształcić tradycyjną architekturę w wysoce współbieżną architekturę opartą na mikrousługach przy użyciu Spring Cloud, Kafka, Docker, Kubernetes i Redis.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
- Ustawienie niezbędnego środowiska programistycznego do budowania mikrousług.
- Zaprojektowanie i wdrożenie wysoce współbieżnego ekosystemu mikrousług przy użyciu Spring Cloud, Kafka, Redis, Docker i Kubernetes.
- Transformacja usług monolitycznych i SOA do architektury opartej na mikrousługach.
- Zastosowanie podejścia DevOps do tworzenia, testowania i wydawania oprogramowania.
- Zapewnienie wysokiej współbieżności między mikrousługami w produkcji.
- Monitorowanie mikrousług i wdrażanie strategii odzyskiwania.
- Przeprowadzanie strojenia wydajności.
- Poznanie przyszłych trendów w architekturze mikrousług.