Course Code: dollmsollama
Duration: 14 hours
Prerequisites:
  • Podstawowe doświadczenie z uczeniem maszynowym i modelami AI
  • Znajomość interfejsów wiersza poleceń i skryptów
  • Zrozumienie środowisk wdrażania (lokalne, brzegowe, chmura)

Odbiorcy

  • Inżynierowie AI optymalizujący lokalne i oparte na chmurze wdrożenia AI
  • Praktycy ML wdrażający i dostrajający LLM
  • Specjaliści DevOps zarządzający integracją modeli AI
Overview:

Ollama zapewnia skuteczny sposób wdrażania i uruchamiania dużych modeli językowych (LLM) lokalnie lub w środowiskach produkcyjnych, oferując kontrolę nad wydajnością, kosztami i bezpieczeństwem.

Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla średniozaawansowanych profesjonalistów, którzy chcą wdrażać, optymalizować i integrować LLM przy użyciu Ollama.

Po zakończeniu tego szkolenia uczestnicy będą mogli

  • Konfigurować i wdrażać LLM przy użyciu Ollama.
  • Optymalizować modele AI pod kątem wydajności i efektywności.
  • Wykorzystać akcelerację GPU w celu poprawy szybkości wnioskowania.
  • Zintegrować Ollama z przepływami pracy i aplikacjami.
  • Monitoruj i utrzymuj wydajność modelu AI w czasie.

Format kursu

  • Interaktywny wykład i dyskusja.
  • Wiele ćwiczeń i praktyki.
  • Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.

Opcje dostosowywania kursu

  • Aby poprosić o spersonalizowane szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów.
Course Outline:

Wprowadzenie do Ollama dla wdrożenia LLM

  • Przegląd możliwości Ollama
  • Zalety lokalnego wdrażania modeli AI
  • Porównanie z rozwiązaniami hostingowymi AI opartymi na chmurze

Konfiguracja środowiska wdrożeniowego

  • Instalacja Ollama i wymaganych zależności
  • Konfiguracja sprzętu i GPU akceleracji
  • Dockerizowanie Ollama dla skalowalnych wdrożeń

Wdrażanie LLM z Ollama

  • Ładowanie modeli AI i zarządzanie nimi
  • Wdrażanie Llama 3, DeepSeek, Mistral i innych modeli
  • Tworzenie interfejsów API i punktów końcowych dostępu do modeli AI

Optymalizacja wydajności LLM

  • Dostrajanie modeli pod kątem wydajności
  • Zmniejszanie opóźnień i poprawa czasów reakcji
  • Zarządzanie pamięcią i alokacją zasobów

Integracja Ollama z przepływami pracy AI

  • Łączenie Ollama z aplikacjami i usługami
  • Automatyzacja procesów opartych na sztucznej inteligencji
  • Korzystanie z Ollama w środowiskach przetwarzania brzegowego

Monitorowanie i konserwacja

  • Śledzenie wydajności i debugowanie problemów
  • Aktualizowanie modeli AI i zarządzanie nimi
  • Zapewnienie bezpieczeństwa i zgodności we wdrożeniach AI

Skalowanie wdrożeń modeli AI

  • Najlepsze praktyki w zakresie obsługi dużych obciążeń
  • Skalowanie Ollama dla przypadków użycia w przedsiębiorstwie
  • Przyszłe postępy w lokalnym wdrażaniu modeli AI

Podsumowanie i kolejne kroki

Sites Published:

United Arab Emirates - Deploying and Optimizing LLMs with Ollama

Qatar - Deploying and Optimizing LLMs with Ollama

Egypt - Deploying and Optimizing LLMs with Ollama

Saudi Arabia - Deploying and Optimizing LLMs with Ollama

South Africa - Deploying and Optimizing LLMs with Ollama

Brasil - Deploying and Optimizing LLMs with Ollama

Canada - Deploying and Optimizing LLMs with Ollama

中国 - Deploying and Optimizing LLMs with Ollama

香港 - Deploying and Optimizing LLMs with Ollama

澳門 - Deploying and Optimizing LLMs with Ollama

台灣 - Deploying and Optimizing LLMs with Ollama

USA - Deploying and Optimizing LLMs with Ollama

Österreich - Deploying and Optimizing LLMs with Ollama

Schweiz - Deploying and Optimizing LLMs with Ollama

Deutschland - Deploying and Optimizing LLMs with Ollama

Czech Republic - Deploying and Optimizing LLMs with Ollama

Denmark - Deploying and Optimizing LLMs with Ollama

Estonia - Deploying and Optimizing LLMs with Ollama

Finland - Deploying and Optimizing LLMs with Ollama

Greece - Deploying and Optimizing LLMs with Ollama

Magyarország - Deploying and Optimizing LLMs with Ollama

Ireland - Deploying and Optimizing LLMs with Ollama

Luxembourg - Deploying and Optimizing LLMs with Ollama

Latvia - Deploying and Optimizing LLMs with Ollama

España - Deploying and Optimizing LLMs with Ollama

Italia - Deploying and Optimizing LLMs with Ollama

Lithuania - Deploying and Optimizing LLMs with Ollama

Nederland - Deploying and Optimizing LLMs with Ollama

Norway - Deploying and Optimizing LLMs with Ollama

Portugal - Deploying and Optimizing LLMs with Ollama

România - Deploying and Optimizing LLMs with Ollama

Sverige - Deploying and Optimizing LLMs with Ollama

Türkiye - Deploying and Optimizing LLMs with Ollama

Malta - Deploying and Optimizing LLMs with Ollama

Belgique - Deploying and Optimizing LLMs with Ollama

France - Deploying and Optimizing LLMs with Ollama

日本 - Deploying and Optimizing LLMs with Ollama

Australia - Deploying and Optimizing LLMs with Ollama

Malaysia - Deploying and Optimizing LLMs with Ollama

New Zealand - Deploying and Optimizing LLMs with Ollama

Philippines - Deploying and Optimizing LLMs with Ollama

Singapore - Deploying and Optimizing LLMs with Ollama

Thailand - Deploying and Optimizing LLMs with Ollama

Vietnam - Deploying and Optimizing LLMs with Ollama

India - Deploying and Optimizing LLMs with Ollama

Argentina - Deploying and Optimizing LLMs with Ollama

Chile - Deploying and Optimizing LLMs with Ollama

Costa Rica - Deploying and Optimizing LLMs with Ollama

Ecuador - Deploying and Optimizing LLMs with Ollama

Guatemala - Deploying and Optimizing LLMs with Ollama

Colombia - Deploying and Optimizing LLMs with Ollama

México - Deploying and Optimizing LLMs with Ollama

Panama - Deploying and Optimizing LLMs with Ollama

Peru - Deploying and Optimizing LLMs with Ollama

Uruguay - Deploying and Optimizing LLMs with Ollama

Venezuela - Deploying and Optimizing LLMs with Ollama

Polska - Deploying and Optimizing LLMs with Ollama

United Kingdom - Deploying and Optimizing LLMs with Ollama

South Korea - Deploying and Optimizing LLMs with Ollama

Pakistan - Deploying and Optimizing LLMs with Ollama

Sri Lanka - Deploying and Optimizing LLMs with Ollama

Bulgaria - Deploying and Optimizing LLMs with Ollama

Bolivia - Deploying and Optimizing LLMs with Ollama

Indonesia - Deploying and Optimizing LLMs with Ollama

Kazakhstan - Deploying and Optimizing LLMs with Ollama

Moldova - Deploying and Optimizing LLMs with Ollama

Morocco - Deploying and Optimizing LLMs with Ollama

Tunisia - Deploying and Optimizing LLMs with Ollama

Kuwait - Deploying and Optimizing LLMs with Ollama

Oman - Deploying and Optimizing LLMs with Ollama

Slovakia - Deploying and Optimizing LLMs with Ollama

Kenya - Deploying and Optimizing LLMs with Ollama

Nigeria - Deploying and Optimizing LLMs with Ollama

Botswana - Deploying and Optimizing LLMs with Ollama

Slovenia - Deploying and Optimizing LLMs with Ollama

Croatia - Deploying and Optimizing LLMs with Ollama

Serbia - Deploying and Optimizing LLMs with Ollama

Bhutan - Deploying and Optimizing LLMs with Ollama

Nepal - Deploying and Optimizing LLMs with Ollama

Uzbekistan - Deploying and Optimizing LLMs with Ollama