Plan Szkolenia

Wprowadzenie

Przegląd funkcji i architektury Spark Streaming

  • Obsługiwane źródła danych
  • Podstawowe interfejsy API

Przygotowanie środowiska

  • Zależności
  • Spark i kontekst przesyłania strumieniowego
  • Łączenie z Kafką

Przetwarzanie wiadomości

  • Parsowanie wiadomości przychodzących jako JSON
  • Procesy ETL
  • Uruchamianie kontekstu przesyłania strumieniowego

Wykonywanie Windowed Stream Processing

  • Interwał slajdów
  • Konfiguracja dostarczania punktu kontrolnego
  • Uruchamianie środowiska

Prototypowanie kodu przetwarzania

  • Łączenie się z tematem Kafka
  • Pobieranie JSON ze źródła danych przy użyciu Paw
  • Wariacje i dodatkowe przetwarzanie

Przesyłanie strumieniowe kodu

  • Zmienne sterujące zadaniami
  • Definiowanie wartości do dopasowania
  • Funkcje i warunki

Pozyskiwanie danych wyjściowych strumienia

  • Liczniki
  • Dane wyjściowe Kafka (dopasowane i niedopasowane)

Rozwiązywanie problemów

Podsumowanie i wnioski

Wymagania

  • Doświadczenie z Python i Apache Kafka
  • Znajomość platform przetwarzania strumieniowego

Uczestnicy

  • Inżynierowie danych
  • Naukowcy zajmujący się danymi
  • Programiści
 7 godzin

Liczba uczestników


cena netto za uczestnika

Opinie uczestników (5)

Propozycje terminów

Powiązane Kategorie