Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Plan Szkolenia
Wprowadzenie do Ollama
- Czym jest Ollama i jak działa?
- Korzyści z lokalnego uruchamiania modeli AI
- Przegląd obsługiwanych LLM (Llama, DeepSeek, Mistral itp.)
Instalacja i konfiguracja Ollama
- Wymagania systemowe i sprzętowe
- Instalacja Ollama na różnych systemach operacyjnych
- Konfigurowanie zależności i konfiguracja środowiska
Uruchamianie modeli AI lokalnie
- Pobieranie i ładowanie modeli AI w Ollama
- Interakcja z modelami za pośrednictwem wiersza poleceń
- Podstawowa inżynieria podpowiedzi dla lokalnych zadań AI
Optymalizacja wydajności i wykorzystania zasobów
- Zarządzanie zasobami sprzętowymi w celu wydajnego wykonywania AI
- Zmniejszanie opóźnień i poprawa czasu reakcji modelu
- Analiza porównawcza wydajności dla różnych modeli
Use Cases dla lokalnego wdrażania sztucznej inteligencji
- Chatboty i wirtualni asystenci wykorzystujący sztuczną inteligencję
- Przetwarzanie danych i zadania automatyzacji
- Aplikacje AI skoncentrowane na prywatności
Podsumowanie i kolejne kroki
Wymagania
- Podstawowe zrozumienie koncepcji sztucznej inteligencji i uczenia maszynowego
- Znajomość interfejsów wiersza poleceń
Uczestnicy
- Programiści uruchamiający modele AI bez zależności od chmury
- [Profesjonaliści zainteresowani prywatnością sztucznej inteligencji i efektywnym kosztowo wdrażaniem
- Entuzjaści sztucznej inteligencji badający lokalne wdrażanie modeli
7 godzin