Plan Szkolenia

Wprowadzenie do Ollama

  • Czym jest Ollama i jak działa?
  • Korzyści z lokalnego uruchamiania modeli AI
  • Przegląd obsługiwanych LLM (Llama, DeepSeek, Mistral itp.)

Instalacja i konfiguracja Ollama

  • Wymagania systemowe i sprzętowe
  • Instalacja Ollama na różnych systemach operacyjnych
  • Konfigurowanie zależności i konfiguracja środowiska

Uruchamianie modeli AI lokalnie

  • Pobieranie i ładowanie modeli AI w Ollama
  • Interakcja z modelami za pośrednictwem wiersza poleceń
  • Podstawowa inżynieria podpowiedzi dla lokalnych zadań AI

Optymalizacja wydajności i wykorzystania zasobów

  • Zarządzanie zasobami sprzętowymi w celu wydajnego wykonywania AI
  • Zmniejszanie opóźnień i poprawa czasu reakcji modelu
  • Analiza porównawcza wydajności dla różnych modeli

Use Cases dla lokalnego wdrażania sztucznej inteligencji

  • Chatboty i wirtualni asystenci wykorzystujący sztuczną inteligencję
  • Przetwarzanie danych i zadania automatyzacji
  • Aplikacje AI skoncentrowane na prywatności

Podsumowanie i kolejne kroki

Wymagania

  • Podstawowe zrozumienie koncepcji sztucznej inteligencji i uczenia maszynowego
  • Znajomość interfejsów wiersza poleceń

Uczestnicy

  • Programiści uruchamiający modele AI bez zależności od chmury
  • [Profesjonaliści zainteresowani prywatnością sztucznej inteligencji i efektywnym kosztowo wdrażaniem
  • Entuzjaści sztucznej inteligencji badający lokalne wdrażanie modeli
 7 godzin

Liczba uczestników


cena netto za uczestnika

Propozycje terminów

Powiązane Kategorie