Lokalne, prowadzone przez instruktora kursy szkoleniowe na żywo dotyczące GPU (Graphics Processing Unit) demonstrują poprzez interaktywną dyskusję i praktyczne ćwiczenie podstaw GPU i programowania GPU. Szkolenie GPU jest dostępne jako "szkolenie online na żywo" lub "szkolenie na żywo na miejscu". Szkolenie na żywo online (inaczej "zdalne szkolenie na żywo") odbywa się za pomocą interaktywnego, zdalnego pulpitu . Szkolenie na żywo na miejscu może odbywać się lokalnie w siedzibie klienta w podkarpackie lub w korporacyjnych centrach szkoleniowych NobleProg w podkarpackie. NobleProg — Twój lokalny dostawca szkoleń
Rzeszów
RISE, Plac Wolności 13, Rzeszów, Polska, 35-073
Sala szkoleniowa znajduje się w samym sercu Rzeszowa, co sprawia, że jest łatwo dostępna dla uczestników. W bezpośrednim sąsiedztwie znajdują się duże węzły komunikacji publicznej, takie jak miejskie autobusy (MPK), kolej (PKP) oraz autobusy dalekobieżne (PKS), co ułatwia dotarcie do niej z różnych części miasta oraz spoza niego. Dodatkowo, niedaleko znajduje się podziemny garaż w galerii Center Park, co umożliwia wygodne parkowanie dla osób korzystających z własnego samochodu.
Sala szkoleniowa znajduje się jedynie 10 km na południowy zachód od Rzeszowa, bezpośrednio przy trasie Rzeszów-Radom, co zapewnia łatwy dostęp z obu tych miast. Dodatkowo, lokalizacja blisko autostrady A4 oraz lotniska Jasionka ułatwiają dojazd zarówno dla osób podróżujących samochodem, jak i korzystających z transportu lotniczego.
Huawei Ascend to rodzina procesorów AI zaprojektowanych do wysokowydajnego wnioskowania i uczenia.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do inżynierów AI i naukowców danych na poziomie średniozaawansowanym, którzy chcą tworzyć i optymalizować modele sieci neuronowych za pomocą platformy Huawei Ascend i zestawu narzędzi CANN.
Na koniec tego szkolenia uczestnicy będą mogli:
Konfigurować i uruchamiać środowisko rozwojowe CANN.
Rozwojować aplikacje AI za pomocą MindSpore i przepływów CloudMatrix.
Optymalizować wydajność na jednostkach Ascend NPU za pomocą niestandardowych operatorów i podziału.
Wdrażać modele w środowiskach krawędziowych lub chmurowych.
Format kursu
Interaktywne wykłady i dyskusje.
Praktyczne wykorzystanie Huawei Ascend i zestawu narzędzi CANN w przykładowych aplikacjach.
Przewodniki do ćwiczeń skupionych na budowaniu, uczeniu i wdrażaniu modeli.
Opcje dostosowania kursu
Aby złożyć wniosek o dostosowane szkolenie w ramach tego kursu na podstawie swojej infrastruktury lub zestawów danych, skontaktuj się z nami w celu ustalenia.
Stos Huawei’s AI — od SDK poziomu CANN do ramki MindSpore — oferuje spójne środowisko rozwoju i wdrażania sztucznej inteligencji zoptymalizowane dla sprzętu Ascend.
To prowadzone przez instruktora szkolenie na żywo (online lub na miejscu) skierowane jest do początkujących i średnio zaawansowanych specjalistów technicznych, którzy chcą zrozumieć, jak składniki CANN i MindSpore wspierają zarządzanie cyklami życia AI i podejmowanie decyzji dotyczących infrastruktury.
Na zakończenie tego szkolenia uczestnicy będą w stanie:
Zrozumieć warstwową architekturę stosu obliczeniowego AI Huawei.
Określić, jak CANN wspiera optymalizację modeli i wdrażanie na poziomie sprzętu.
Ocenić ramkę i narzędzia MindSpore w porównaniu z alternatywami branżowymi.
Umieścić stos AI Huawei w środowiskach przedsiębiorstw lub chmur/na miejscu.
Format kursu
Interaktywne wykłady i dyskusje.
Demo systemów na żywo i przejścia oparte na przypadkach.
Opcjonalne kierowane laboratoria na przepływ modeli od MindSpore do CANN.
Opcje dostosowywania kursu
Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów.
To prowadzone przez instruktora szkolenie na żywo w podkarpackie (na miejscu lub zdalnie) jest przeznaczone dla początkujących i średnio zaawansowanych programistów, którzy chcą używać OpenACC do programowania heterogenicznych urządzeń i wykorzystywania ich równoległości.
Pod koniec tego szkolenia uczestnicy będą w stanie
Skonfigurować środowisko programistyczne, które obejmuje OpenACC SDK, urządzenie obsługujące OpenACC i Visual Studio Code.
Utworzyć podstawowy program OpenACC, który wykonuje dodawanie wektorowe na urządzeniu i pobiera wyniki z pamięci urządzenia.
Użyj dyrektyw i klauzul OpenACC, aby dodać adnotacje do kodu i określić regiony równoległe, ruch danych i opcje optymalizacji.
Używanie interfejsu API OpenACC do odpytywania informacji o urządzeniu, ustawiania numeru urządzenia, obsługi błędów i synchronizacji zdarzeń.
Korzystanie z bibliotek OpenACC i funkcji interoperacyjności w celu integracji OpenACC z innymi modelami programowania, takimi jak CUDA, OpenMP i MPI.
Używanie narzędzi OpenACC do profilowania i debugowania programów OpenACC oraz identyfikowania wąskich gardeł i możliwości związanych z wydajnością.
Optymalizacja programów OpenACC przy użyciu technik takich jak lokalność danych, fuzja pętli, fuzja jądra i automatyczne dostrajanie.
SDK CANN (architektura obliczeniowa dla Neural Networks) zapewnia potężne narzędzia do wdrażania i optymalizacji aplikacji AI w czasie rzeczywistym w dziedzinie komputerowego widzenia i NLP, szczególnie na sprzęcie Huawei Ascend.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do praktyków AI na poziomie średnim, którzy chcą budować, wdrażać i optymalizować modele wizji i języka za pomocą SDK CANN do scenariuszy produkcyjnych.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Wdrażać i optymalizować modele CV i NLP za pomocą CANN i AscendCL.
Korzystać z narzędzi CANN do konwertowania modeli i ich integracji w żywe pipeline.
Optymalizować wydajność inferencji dla zadań takich jak detekcja, klasyfikacja i analiza sentymentu.
Budować pipeline CV/NLP w czasie rzeczywistym dla scenariuszy wdrażania na krawędzi lub w chmurze.
Format kursu
Interaktywne wykłady i demonstracje.
Ćwiczenia laboratoryjne z wdrażaniem modeli i profilowaniem wydajności.
Projektowanie żywych pipeline za pomocą rzeczywistych scenariuszy CV i NLP.
Opcje dostosowywania kursu
Aby poprosić o dostosowane szkolenie dla tego kursu, skontaktuj się z nami w celu uzgodnień.
To prowadzone przez instruktora szkolenie na żywo w podkarpackie (na miejscu lub zdalnie) jest przeznaczone dla początkujących i średnio zaawansowanych programistów, którzy chcą nauczyć się podstaw programowania GPU oraz głównych frameworków i narzędzi do tworzenia aplikacji GPU.
Pod koniec tego szkolenia uczestnicy będą w stanie Zrozumieć różnicę między procesorem a GPU obliczeniowym oraz korzyści i wyzwania związane z programowaniem GPU.
Wybrać odpowiedni framework i narzędzie dla swojej aplikacji GPU.
Stworzyć podstawowy program GPU, który wykonuje dodawanie wektorowe przy użyciu jednego lub więcej frameworków i narzędzi.
Korzystanie z odpowiednich interfejsów API, języków i bibliotek w celu wyszukiwania informacji o urządzeniu, przydzielania i zwalniania pamięci urządzenia, kopiowania danych między hostem a urządzeniem, uruchamiania jądra i synchronizowania wątków.
Korzystanie z odpowiednich przestrzeni pamięci, takich jak globalna, lokalna, stała i prywatna, w celu optymalizacji transferu danych i dostępu do pamięci.
Korzystanie z odpowiednich modeli wykonania, takich jak elementy robocze, grupy robocze, wątki, bloki i siatki, w celu kontrolowania równoległości.
Debugowanie i testowanie programów GPU przy użyciu narzędzi takich jak CodeXL, CUDA-GDB, CUDA-MEMCHECK i NVIDIA Nsight.
Optymalizacja programów GPU przy użyciu technik takich jak koalescencja, buforowanie, prefetching i profilowanie.
CANN TIK (Tensor Instruction Kernel) i Apache TVM umożliwiają zaawansowaną optymalizację i dostosowywanie operatorów modeli AI dla Huawei Ascend sprzętu.
To prowadzone przez instruktora szkolenie (online lub na miejscu) skierowane jest do zaawansowanych programistów systemowych, którzy chcą tworzyć, wdrażać i dostrajać niestandardowe operatory dla modeli AI za pomocą modelu programowania TIK firmy CANN i integracji z kompilatorem TVM.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Pisać i testować niestandardowe operatory AI za pomocą TIK DSL dla procesorów Ascend.
Integrować niestandardowe operatory w runtime CANN i wykonywanie grafów.
Używać TVM do harmonogramu operacji, automatycznego dostrajania i benchmarkingu.
Diagnostykować i optymalizować wydajność na poziomie instrukcji dla niestandardowych wzorców obliczeń.
Format kursu
Interaktywna wykład i demonstracja.
Praktyczne programowanie operatorów za pomocą pipeline TIK i TVM.
Testowanie i dostrajanie na sprzęcie Ascend lub symulatorach.
Opcje dostosowywania kursu
Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, skontaktuj się z nami, aby umówić się.
To szkolenie prowadzone przez instruktora w trybie online lub stacjonarnym jest skierowane do początkujących do średnio zaawansowanych programistów, którzy chcą wykorzystać różne frameworki do programowania GPU i porównać ich funkcje, wydajność i kompatybilność.
Po zakończeniu tego szkolenia uczestnicy będą mogli:
Ustawić środowisko rozwoju, w tym OpenCL SDK, CUDA Toolkit, platformę ROCm, urządzenie obsługujące OpenCL, CUDA lub ROCm oraz Visual Studio Code.
Stworzyć podstawowy program GPU wykonujący dodawanie wektorów przy użyciu OpenCL, CUDA i ROCm, a następnie porównać składnię, strukturę i wykonanie każdego z frameworków.
Wykorzystać odpowiednie API do zapytania o informacje o urządzeniu, alokacji i dezalokacji pamięci urządzenia, kopiowania danych między hostem a urządzeniem, uruchamiania jąder i synchronizacji wątków.
Napisać jądra uruchamiane na urządzeniu i manipulujące danymi przy użyciu odpowiednich języków.
Wykorzystać wbudowane funkcje, zmienne i biblioteki każdego frameworku do wykonywania typowych zadań i operacji.
Wykorzystać przestrzenie pamięci, takie jak globalne, lokalne, stałe i prywatne, aby zoptymalizować transfery danych i dostępy do pamięci.
Wykorzystać odpowiednie modele wykonania do kontrolowania wątków, bloków i siatek, które definiują równoległość.
Debugować i testować programy GPU za pomocą narzędzi, takich jak CodeXL, CUDA-GDB, CUDA-MEMCHECK i NVIDIA Nsight.
Optymalizować programy GPU za pomocą technik, takich jak koalescing, caching, prefetching i profiling.
CloudMatrix jest platformą Huawei przeznaczona do zunifikowanego rozwoju i wdrażania AI, zaprojektowaną w celu wspierania skalowalnych, produkcyjnych wniosków.To szkolenie prowadzone przez instruktora (online lub stacjonarne) jest skierowane do początkujących do średnio zaawansowanych profesjonalistów w dziedzinie AI, którzy chcą wdrażać i monitorować modele AI przy użyciu platformy CloudMatrix z integracją CANN i MindSpore.Po zakończeniu tego szkolenia uczestnicy będą w stanie:* Używać CloudMatrix do pakowania, wdrażania i obsługi modeli.* Konwertować i optymalizować modele dla układów Ascend.* Konfigurować wnioski dla zadań w czasie rzeczywistym i w partiach.* Monitorować wdrażanie i dostrajać wydajność w środowiskach produkcyjnych.Format Kursu* Interaktywna wykład i dyskusja.* Praktyczne wykorzystanie CloudMatrix z realnymi scenariuszami wdrażania.* Ćwiczenia z przewodnikiem skupione na konwersji, optymalizacji i skalowaniu.Opcje Personalizacji Kursu* Aby poprosić o personalizowane szkolenie dla tego kursu na podstawie Twojej infrastruktury AI lub środowiska chmurowego, prosimy o kontakt, aby umówić się.
Narzędzie Ascend CANN od Huawei umożliwia potężne inferencje AI na urządzeniach na krawędzi, takich jak Ascend 310. CANN dostarcza niezbędnych narzędzi do kompilowania, optymalizowania i wdrażania modeli w środowiskach o ograniczonym obliczeniowym i pamięciowym potencjale.
Ten kurs prowadzony przez instruktora (online lub stacjonarnie) jest przeznaczony dla pośrednio zaawansowanych deweloperów i integratorów AI, którzy chcą wdrażać i optymalizować modele na urządzeniach na krawędzi Ascend za pomocą narzędzi CANN.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Przygotować i przekonwertować modele AI dla Ascend 310 za pomocą narzędzi CANN.
Tworzyć lekki pipeline inferencyjny przy użyciu MindSpore Lite i AscendCL.
Optymalizować wydajność modeli dla środowisk o ograniczonych zasobach obliczeniowych i pamięciowych.
Wdrażać i monitorować aplikacje AI w rzeczywistych scenariuszach na krawędzi.
Format kursu
Interaktywne wykłady i demonstracje.
Praktyczne warsztaty z modelami i scenariuszami dedykowanymi dla urządzeń na krawędzi.
Żywe przykłady wdrażania na wirtualnym lub fizycznym sprzęcie na krawędzi.
Opcje dostosowania kursu
Aby złożyć wniosek o dostosowany kurs, skontaktuj się z nami w celu uzgodnień.
Szkolenie na żywo prowadzone przez instruktora w podkarpackie (na miejscu lub zdalnie) jest przeznaczone dla początkujących i średnio zaawansowanych programistów, którzy chcą zainstalować i używać ROCm w systemie Windows do programowania procesorów AMD GPU i wykorzystywania ich równoległości.
Pod koniec tego szkolenia uczestnicy będą w stanie
Skonfigurować środowisko programistyczne, które obejmuje platformę ROCm, procesor AMD GPU i Visual Studio Code w systemie Windows.
Stworzyć podstawowy program ROCm, który wykonuje dodawanie wektorowe na GPU i pobiera wyniki z pamięci GPU.
Użyj interfejsu API ROCm, aby uzyskać informacje o urządzeniu, przydzielić i zwolnić pamięć urządzenia, skopiować dane między hostem a urządzeniem, uruchomić jądra i zsynchronizować wątki.
Używanie języka HIP do pisania jąder, które wykonują się na GPU i manipulują danymi.
Używanie wbudowanych funkcji, zmiennych i bibliotek HIP do wykonywania typowych zadań i operacji.
Używanie przestrzeni pamięci ROCm i HIP, takich jak globalna, współdzielona, stała i lokalna, w celu optymalizacji transferu danych i dostępu do pamięci.
Używanie modeli wykonania ROCm i HIP do kontrolowania wątków, bloków i siatek, które definiują równoległość.
Debugowanie i testowanie programów ROCm i HIP przy użyciu narzędzi takich jak ROCm Debugger i ROCm Profiler.
Optymalizacja programów ROCm i HIP przy użyciu technik takich jak koalescencja, buforowanie, wstępne pobieranie i profilowanie.
To prowadzone przez instruktora szkolenie na żywo w podkarpackie (na miejscu lub zdalnie) jest przeznaczone dla początkujących i średnio zaawansowanych programistów, którzy chcą używać ROCm i HIP do programowania procesorów AMD GPU i wykorzystywania ich równoległości.
Pod koniec tego szkolenia uczestnicy będą w stanie
Skonfigurować środowisko programistyczne, które obejmuje platformę ROCm, procesor AMD GPU i Visual Studio Code.
Stworzyć podstawowy program ROCm, który wykonuje dodawanie wektorowe na GPU i pobiera wyniki z pamięci GPU.
Użyj interfejsu API ROCm, aby zapytać o informacje o urządzeniu, przydzielić i zwolnić pamięć urządzenia, skopiować dane między hostem a urządzeniem, uruchomić jądra i zsynchronizować wątki.
Używanie języka HIP do pisania jąder, które wykonują się na GPU i manipulują danymi.
Używanie wbudowanych funkcji, zmiennych i bibliotek HIP do wykonywania typowych zadań i operacji.
Używanie przestrzeni pamięci ROCm i HIP, takich jak globalna, współdzielona, stała i lokalna, w celu optymalizacji transferu danych i dostępu do pamięci.
Używanie modeli wykonania ROCm i HIP do kontrolowania wątków, bloków i siatek, które definiują równoległość.
Debugowanie i testowanie programów ROCm i HIP przy użyciu narzędzi takich jak ROCm Debugger i ROCm Profiler.
Optymalizacja programów ROCm i HIP przy użyciu technik takich jak koalescencja, buforowanie, wstępne pobieranie i profilowanie.
CANN (Compute Architecture for Neural Networks) jest narzędziem Huawei służącym do kompilowania, optymalizowania i wdrażania modeli AI na procesorach Ascend AI.
To prowadzone przez instruktora szkolenie (online lub na miejscu) jest przeznaczone dla początkujących programistów AI, którzy chcą zrozumieć, jak CANN wchodzi w cykl życia modelu od treningu do wdrożenia oraz jak współpracuje z frameworkami takimi jak MindSpore, TensorFlow i PyTorch.
Po ukończeniu tego szkolenia uczestnicy będą w stanie:
Zrozumieć cel i architekturę zestawu narzędzi CANN.
Zainstalować środowisko rozwoju z CANN i MindSpore.
Przekonwertować i wdrożyć prosty model AI na sprzęcie Ascend.
Nabyć podstawową wiedzę na przyszłe projekty optymalizacji lub integracji CANN.
Format Kursu
Interaktywne wykłady i dyskusje.
Praktyczne laboratoria z wdrażaniem prostych modeli.
Krok po kroku przeprowadzenie przez łańcuch narzędzi CANN i punkty integracji.
Opcje Dostosowania Kursu
Aby poprosić o dostosowanie szkolenia dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów.
Ascend, Biren i Cambricon są wiodącymi platformami sprzętowymi AI w Chinach, każda z nich oferuje unikalne narzędzia do przyspieszenia i profilowania dla zadań AI na skalę produkcyjną.
Ten szkolenie prowadzone przez instruktora (online lub na miejscu) jest skierowane do zaawansowanych inżynierów infrastruktury AI i wydajności, którzy chcą optymalizować przepływy wnioskowania modeli i uczenia się w różnych chińskich platformach układów scalonych AI.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Benchmarkować modele na platformach Ascend, Biren i Cambricon.
Wykrywać wąskie gardła systemowe i niedoskonałości w pamięci/obliczeniach.
Zastosować optymalizacje na poziomie grafu, jądra i operacji.
Dostosować kanały wdrażania w celu poprawy przepływu i opóźnienia.
Format Kursu
Interaktywne wykłady i dyskusje.
Praktyczne używanie narzędzi profilowania i optymalizacji na każdej platformie.
Wskazówki dotyczące ćwiczeń skupionych na praktycznych scenariuszach dostosowywania.
Opcje dostosowania kursu
Aby zapytać o dostosowane szkolenie dla tego kursu na podstawie Twojego środowiska wydajności lub typu modelu, skontaktuj się z nami, aby to załatwić.
CANN SDK (Architektura obliczeniowa dla Neural Networks) jest fundamentem obliczeń AI firmy Huawei, pozwalającym programistom dopracowywać i optymalizować wydajność wdrażanych sieci neuronowych na procesorach AI Ascend.
To prowadzone przez instruktora szkolenie na żywo (online lub stacjonarne) jest skierowane do zaawansowanych programistów AI i inżynierów systemów, którzy chcą optymalizować wydajność wnioskowania za pomocą zaawansowanego zestawu narzędzi CANN, w tym Graph Engine, TIK i rozwoju niestandardowych operatorów.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Zrozumieć architekturę czasu uruchomienia CANN i cykl życia wydajności.
Używać narzędzi profilowania i Graph Engine do analizy i optymalizacji wydajności.
Tworzyć i optymalizować niestandardowe operatory za pomocą TIK i TVM.
Rozwiązywać wąskie gardła pamięci i poprawiać przepływ modelu.
Format kursu
Interaktywne wykłady i dyskusje.
Praktyczne warsztaty z profilowaniem w czasie rzeczywistym i dostrajaniem operatorów.
Ćwiczenia optymalizacyjne z użyciem przykładów wdrażania w przypadkach granicowych.
Opcje dostosowania kursu
Aby poprosić o dostosowane szkolenie na tym kursie, skontaktuj się z nami w celu umówienia.
To prowadzone przez instruktora szkolenie na żywo w podkarpackie (online lub na miejscu) jest przeznaczone dla początkujących i średnio zaawansowanych programistów, którzy chcą używać CUDA do programowania układów NVIDIA GPU i wykorzystywania ich równoległości.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Skonfigurować środowisko programistyczne zawierające CUDA Toolkit, układ NVIDIA GPU i Visual Studio Code.
Stworzyć podstawowy program CUDA, który wykonuje dodawanie wektorowe na GPU i pobiera wyniki z pamięci GPU.
Użyj interfejsu API CUDA do wyszukiwania informacji o urządzeniu, przydzielania i zwalniania pamięci urządzenia, kopiowania danych między hostem a urządzeniem, uruchamiania jądra i synchronizowania wątków.
Używanie języka CUDA C/C++ do pisania jąder, które wykonują się na GPU i manipulują danymi.
Używanie wbudowanych funkcji, zmiennych i bibliotek CUDA do wykonywania typowych zadań i operacji.
Korzystanie z przestrzeni pamięci CUDA, takich jak globalna, współdzielona, stała i lokalna, w celu optymalizacji transferu danych i dostępu do pamięci.
Używanie modelu wykonania CUDA do kontrolowania wątków, bloków i siatek, które definiują równoległość.
Debugowanie i testowanie programów CUDA przy użyciu narzędzi takich jak CUDA-GDB, CUDA-MEMCHECK i NVIDIA Nsight.
Optymalizować programy CUDA przy użyciu takich technik jak koalescencja, buforowanie, prefetching i profilowanie.
CANN (Architektura obliczeniowa do Neural Networks) jest stosem obliczeniowym Huawei na sztuczną inteligencję służącym do wdrażania i optymalizacji modeli AI na procesorach Ascend AI.
To prowadzone przez instruktora szkolenie (online lub na miejscu) jest przeznaczone dla programistów i inżynierów AI o poziomie średnim, którzy chcą efektywnie wdrażać szkolone modele AI na sprzęcie Huawei Ascend za pomocą zestawu narzędzi i narzędzi CANN, takich jak MindSpore, TensorFlow lub PyTorch.
Po zakończeniu tego szkolenia uczestnicy będą mogli:
Zrozumieć architekturę CANN i jej rolę w procesie wdrażania AI.
Przekonwertować i dostosować modele z popularnych ram służyć formatom zgodnym z Ascend.
Używać narzędzi, takich jak ATC, konwersja modelu OM i MindSpore do inferencji na krawędzi i w chmurze.
Diagnozować problemy z wdrażaniem i optymalizować wydajność na sprzęcie Ascend.
Format kursu
Interaktywne wykłady i demonstracje.
Praktyczne ćwiczenia laboratoryjne z użyciem narzędzi CANN i symulatorów lub urządzeń Ascend.
Praktyczne scenariusze wdrażania oparte na rzeczywistych modelach AI.
Opcje dostosowywania kursu
Aby zapytać o dostosowane szkolenie dla tego kursu, prosimy o kontakt w celu uzgodnienia.
Akceleratory AI Biren są wysokowydajnymi GPUami zaprojektowanymi do obciążeń AI i HPC z wsparciem dla dużych zadań szkolenia i inferencji.Ten kurs prowadzony przez instruktora (online lub stacjonarnie) jest przeznaczony dla programistów na poziomie średnio zaawansowanym do zaawansowanym, którzy chcą programować i optymalizować aplikacje za pomocą własnej sterty GPU Biren, z praktycznymi porównaniami do środowisk opartych na CUDA.Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Zrozumieć architekturę i hierarchię pamięci Biren GPU.
Uruchomić środowisko programistyczne i użyć modelu programowania Biren.
Tłumaczyć i optymalizować kod w stylu CUDA na platformach Biren.
Zastosować techniki dostrajania wydajności i debugowania.
Format kursu
Interaktywne wykłady i dyskusje.
Praktyczne korzystanie z Biren SDK w przykładowych obciążeniach GPU.
Prowadzone ćwiczenia skupione na przenoszeniu i dostrajaniu wydajności.
Opcje dostosowania kursu
Aby zapytać o dostosowany kurs szkoleniowy dla tego kursu na podstawie stosu aplikacji lub potrzeb integracji, prosimy o kontakt, aby umówić się.
Cambricon MLUs (Machine Learning jednostki) to specjalizowane układy AI optymalizowane do wnioskowania i szkolenia w scenariuszach na krawędzi i w centrach danych.
To szkolenie prowadzone przez instruktora (online lub na miejscu) jest przeznaczone dla developerów na poziomie średnim, którzy chcą budować i wdrażać modele AI za pomocą frameworka BANGPy i SDK Neuware na sprzęcie Cambricon MLU.
Po zakończeniu tego szkolenia uczestnicy będą mogli:
Konfigurować i ustawiać środowiska rozwojowe BANGPy i Neuware.
Rozwijać i optymalizować modele oparte na Python i C++ dla Cambricon MLU.
Wdrażać modele na urządzeniach na krawędzi i w centrum danych z uruchomionym środowiskiem wykonawczym Neuware.
Integrować przepływy pracy ML z funkcjami przyspieszenia specyficznymi dla MLU.
Format kursu
Interaktywna wykład i dyskusja.
Praktyczne używanie BANGPy i Neuware do rozwoju i wdrażania.
Zawarte ćwiczenia skupione na optymalizacji, integracji i testowaniu.
Opcje dostosowywania kursu
Aby zlecić dostosowane szkolenie dla tego kursu na podstawie modelu urządzenia Cambricon lub przypadku użycia, prosimy o kontakt z nami w celu ustalenia.
This instructor-led, live training in podkarpackie (online or onsite) is aimed at beginner-level system administrators and IT professionals who wish to install, configure, manage, and troubleshoot CUDA environments.
By the end of this training, participants will be able to:
Understand the architecture, components, and capabilities of CUDA.
To ten prowadzone przez instruktora szkolenie w trybie online lub stacjonarnym jest skierowane do programistów na poziomie początkującego do średnio zaawansowanego, którzy chcą używać OpenCL do programowania zróżnicowanych urządzeń i wykorzystywania ich równoległości.
Po zakończeniu tego szkolenia uczestnicy będą w stanie:
Zainstalować środowisko programistyczne, które zawiera SDK OpenCL, urządzenie obsługujące OpenCL i Visual Studio Code.
Stworzyć podstawowy program OpenCL, który wykonuje dodawanie wektorów na urządzeniu i pobiera wyniki z pamięci urządzenia.
Używać API OpenCL do zapytywania informacji o urządzeniu, tworzenia kontekstów, kolejki poleceń, buforów, jąderek i zdarzeń.
Używać języka C OpenCL do pisania jąderek, które wykonują się na urządzeniu i manipulują danymi.
Używać wbudowanych funkcji, rozszerzeń i bibliotek OpenCL do wykonywania powszechnych zadań i operacji.
Używać modeli pamięci hosta i urządzenia OpenCL do optymalizacji transferu danych i dostępu do pamięci.
Używać modelu wykonania OpenCL do kontroli elementów pracy, grup pracy i ND-zakresów.
Debugować i testować programy OpenCL za pomocą narzędzi, takich jak CodeXL, Intel VTune i NVIDIA Nsight.
Optymalizować programy OpenCL za pomocą technik, takich jak wektoryzacja, rozwinięcie pętli, pamięć lokalna i profilowanie.
Trening prowadzony przez instruktora na miejscu lub online (w zależności od lokalizacji) jest skierowany do programistów o średnim poziomie kwalifikacji, którzy chcą korzystać z CUDA do budowania aplikacji Python, które działają równolegle na kartach NVIDIA GPU.
Po zakończeniu tego szkolenia uczestnicy będą w stanie
Wykorzystywać kompilator Numba do przyspieszenia aplikacji Python działających na kartach NVIDIA GPU.
Tworzyć, kompilować i uruchamiać niestandardowe jądra CUDA.
Zarządzać pamięcią GPU.
Przekształcić aplikację opartą na CPU w aplikację przyspieszoną przez GPU.
Ten prowadzony przez instruktora kurs szkoleniowy na żywo w podkarpackie obejmuje sposób programowania GPUs do obliczeń równoległych, jak korzystać z różnych platform, jak pracować z platformą CUDA i jej funkcjami oraz jak wykonywać różne techniki optymalizacji za pomocą CUDA. Niektóre z zastosowań obejmują głębokie uczenie się, analitykę, przetwarzanie obrazu i aplikacje inżynieryjne.
Więcej...
Ostatnia aktualizacja:
Opinie uczestników (2)
Bardzo interaktywne z różnymi przykładami, z dobrym postępem złożoności między początkiem a końcem szkolenia.
Jenny - Andheo
Szkolenie - GPU Programming with CUDA and Python
Przetłumaczone przez sztuczną inteligencję
Spójny sposob prezentacji, duża wiedza trenera, odpowiedni poziom wejscia