Plan Szkolenia

Wprowadzenie do Deep Learning Wyjaśnialność

  • Czym są modele czarnej skrzynki?
  • Znaczenie przejrzystości w systemach sztucznej inteligencji
  • Przegląd wyzwań związanych z wyjaśnialnością w sieciach neuronowych

Zaawansowane techniki XAI dla Deep Learning

  • Metody uczenia głębokiego niezależne od modelu: LIME, SHAP
  • Propagacja znaczenia w warstwie (LRP)
  • Mapy istotności i metody oparte na gradiencie

Wyjaśnianie decyzji sieci neuronowych

  • Wizualizacja ukrytych warstw w sieciach neuronowych
  • Zrozumienie mechanizmów uwagi w modelach głębokiego uczenia
  • Generowanie czytelnych dla człowieka wyjaśnień z sieci neuronowych

Narzędzia do wyjaśniania modeli Deep Learning

  • Wprowadzenie do bibliotek XAI typu open source
  • Używanie Captum i InterpretML do głębokiego uczenia się
  • Integracja technik wyjaśniania w TensorFlow i PyTorch

Interpretowalność a wydajność

  • Kompromisy między dokładnością a interpretowalnością
  • Projektowanie interpretowalnych, ale wydajnych modeli uczenia głębokiego
  • Obsługa stronniczości i uczciwości w uczeniu głębokim

Rzeczywiste zastosowania wyjaśnialności Deep Learning

  • Wyjaśnialność w modelach sztucznej inteligencji w opiece zdrowotnej
  • Wymogi regulacyjne dotyczące przejrzystości w sztucznej inteligencji
  • Wdrażanie interpretowalnych modeli uczenia głębokiego w produkcji

Rozważania etyczne dotyczące wyjaśnialności Deep Learning

  • Etyczne implikacje przejrzystości sztucznej inteligencji
  • Równoważenie etycznych praktyk AI z innowacjami
  • Obawy dotyczące prywatności w wyjaśnialnym uczeniu głębokim

Podsumowanie i kolejne kroki

Wymagania

  • Zaawansowane zrozumienie głębokiego uczenia się
  • Znajomość Python i frameworków głębokiego uczenia się
  • Doświadczenie w pracy z sieciami neuronowymi

Uczestnicy

  • Inżynierowie głębokiego uczenia
  • Specjaliści ds. sztucznej inteligencji
 21 godzin

Liczba uczestników


cena netto za uczestnika

Opinie uczestników (4)

Propozycje terminów

Powiązane Kategorie