Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Plan Szkolenia
Wprowadzenie do QLoRA i kwantyzacji
- Przegląd kwantyzacji i jej roli w optymalizacji modeli
- Wprowadzenie do ramki QLoRA i jej korzyści
- Kluczowe różnice między QLoRA a tradycyjnymi metodami dofinansowania
Podstawy Large Language Models (LLMs)
- Wprowadzenie do LLM i ich architektury
- Wyzwania dofinansowania dużych modeli w dużej skali
- Jak kwantyzacja pomaga przezwyciężyć ograniczenia obliczeniowe w dofinansowaniu LLM
Wdrożenie QLoRA dla Fine-Tuning LLM
- Konfiguracja ramki QLoRA i środowiska
- Przygotowanie zestawów danych do dofinansowania QLoRA
- Krok po kroku poradnik do wdrożenia QLoRA w LLM za pomocą Python i PyTorch/TensorFlow
Optymalizacja wydajności Fine-Tuning z QLoRA
- Jak zbilansować dokładność modelu i wydajność z kwantyzacją
- Techniki zmniejszania kosztów obliczeniowych i zużycia pamięci podczas dofinansowania
- Strategie dofinansowania z minimalnymi wymaganiami sprzętowymi
Ocena sfinalizowanych modeli
- Jak ocenić skuteczność sfinalizowanych modeli
- Powszechne metryki oceny dla modeli językowych
- Optymalizacja wydajności modelu po sfinalizowaniu i rozwiązywanie problemów
Wdrażanie i skalowanie sfinalizowanych modeli
- Najlepsze praktyki wdrażania zkwantyzowanych LLM w środowiskach produkcyjnych
- Skalowanie wdrażania do obsługi żądań w czasie rzeczywistym
- Narzędzia i ramki do wdrażania i monitorowania modeli
Przykłady z życia rzeczywistego i studia przypadku
- Studium przypadku: sfinalizowanie LLM dla obsługi klienta i zadań NLP
- Przykłady sfinalizowania LLM w różnych branżach, takich jak opieka zdrowotna, finanse i handel elektroniczny
- Wnioski wyciągnięte z wdrożeń modeli opartych na QLoRA w życiu rzeczywistym
Podsumowanie i kolejne kroki
Wymagania
- Zrozumienie podstaw maszynowego uczenia się i sieci neuronowych
- Doświadczenie w dostrajaniu modeli i transfer learningu
- Znajomość dużych modeli językowych (LLMs) i ram deep learningu (np., PyTorch, TensorFlow)
Grupa docelowa
- Inżynierowie maszynowego uczenia się
- Rozwijacze AI
- Naukowcy danych
14 godzin