- Podstawowe doświadczenie z uczeniem maszynowym i modelami AI
- Znajomość interfejsów wiersza poleceń i skryptów
- Zrozumienie środowisk wdrażania (lokalne, brzegowe, chmura)
Odbiorcy
- Inżynierowie AI optymalizujący lokalne i oparte na chmurze wdrożenia AI
- Praktycy ML wdrażający i dostrajający LLM
- Specjaliści DevOps zarządzający integracją modeli AI
Ollama zapewnia skuteczny sposób wdrażania i uruchamiania dużych modeli językowych (LLM) lokalnie lub w środowiskach produkcyjnych, oferując kontrolę nad wydajnością, kosztami i bezpieczeństwem.
Szkolenie na żywo prowadzone przez instruktora (na miejscu lub zdalnie) jest przeznaczone dla średniozaawansowanych profesjonalistów, którzy chcą wdrażać, optymalizować i integrować LLM przy użyciu Ollama.
Po zakończeniu tego szkolenia uczestnicy będą mogli
- Konfigurować i wdrażać LLM przy użyciu Ollama.
- Optymalizować modele AI pod kątem wydajności i efektywności.
- Wykorzystać akcelerację GPU w celu poprawy szybkości wnioskowania.
- Zintegrować Ollama z przepływami pracy i aplikacjami.
- Monitoruj i utrzymuj wydajność modelu AI w czasie.
Format kursu
- Interaktywny wykład i dyskusja.
- Wiele ćwiczeń i praktyki.
- Praktyczne wdrożenie w środowisku laboratoryjnym na żywo.
Opcje dostosowywania kursu
- Aby poprosić o spersonalizowane szkolenie dla tego kursu, skontaktuj się z nami w celu ustalenia szczegółów.
Wprowadzenie do Ollama dla wdrożenia LLM
- Przegląd możliwości Ollama
- Zalety lokalnego wdrażania modeli AI
- Porównanie z rozwiązaniami hostingowymi AI opartymi na chmurze
Konfiguracja środowiska wdrożeniowego
- Instalacja Ollama i wymaganych zależności
- Konfiguracja sprzętu i GPU akceleracji
- Dockerizowanie Ollama dla skalowalnych wdrożeń
Wdrażanie LLM z Ollama
- Ładowanie modeli AI i zarządzanie nimi
- Wdrażanie Llama 3, DeepSeek, Mistral i innych modeli
- Tworzenie interfejsów API i punktów końcowych dostępu do modeli AI
Optymalizacja wydajności LLM
- Dostrajanie modeli pod kątem wydajności
- Zmniejszanie opóźnień i poprawa czasów reakcji
- Zarządzanie pamięcią i alokacją zasobów
Integracja Ollama z przepływami pracy AI
- Łączenie Ollama z aplikacjami i usługami
- Automatyzacja procesów opartych na sztucznej inteligencji
- Korzystanie z Ollama w środowiskach przetwarzania brzegowego
Monitorowanie i konserwacja
- Śledzenie wydajności i debugowanie problemów
- Aktualizowanie modeli AI i zarządzanie nimi
- Zapewnienie bezpieczeństwa i zgodności we wdrożeniach AI
Skalowanie wdrożeń modeli AI
- Najlepsze praktyki w zakresie obsługi dużych obciążeń
- Skalowanie Ollama dla przypadków użycia w przedsiębiorstwie
- Przyszłe postępy w lokalnym wdrażaniu modeli AI
Podsumowanie i kolejne kroki
United Arab Emirates - Deploying and Optimizing LLMs with Ollama
Qatar - Deploying and Optimizing LLMs with Ollama
Egypt - Deploying and Optimizing LLMs with Ollama
Saudi Arabia - Deploying and Optimizing LLMs with Ollama
South Africa - Deploying and Optimizing LLMs with Ollama
Brasil - Deploying and Optimizing LLMs with Ollama
Canada - Deploying and Optimizing LLMs with Ollama
中国 - Deploying and Optimizing LLMs with Ollama
香港 - Deploying and Optimizing LLMs with Ollama
澳門 - Deploying and Optimizing LLMs with Ollama
台灣 - Deploying and Optimizing LLMs with Ollama
USA - Deploying and Optimizing LLMs with Ollama
Österreich - Deploying and Optimizing LLMs with Ollama
Schweiz - Deploying and Optimizing LLMs with Ollama
Deutschland - Deploying and Optimizing LLMs with Ollama
Czech Republic - Deploying and Optimizing LLMs with Ollama
Denmark - Deploying and Optimizing LLMs with Ollama
Estonia - Deploying and Optimizing LLMs with Ollama
Finland - Deploying and Optimizing LLMs with Ollama
Greece - Deploying and Optimizing LLMs with Ollama
Magyarország - Deploying and Optimizing LLMs with Ollama
Ireland - Deploying and Optimizing LLMs with Ollama
Luxembourg - Deploying and Optimizing LLMs with Ollama
Latvia - Deploying and Optimizing LLMs with Ollama
España - Deploying and Optimizing LLMs with Ollama
Italia - Deploying and Optimizing LLMs with Ollama
Lithuania - Deploying and Optimizing LLMs with Ollama
Nederland - Deploying and Optimizing LLMs with Ollama
Norway - Deploying and Optimizing LLMs with Ollama
Portugal - Deploying and Optimizing LLMs with Ollama
România - Deploying and Optimizing LLMs with Ollama
Sverige - Deploying and Optimizing LLMs with Ollama
Türkiye - Deploying and Optimizing LLMs with Ollama
Malta - Deploying and Optimizing LLMs with Ollama
Belgique - Deploying and Optimizing LLMs with Ollama
France - Deploying and Optimizing LLMs with Ollama
日本 - Deploying and Optimizing LLMs with Ollama
Australia - Deploying and Optimizing LLMs with Ollama
Malaysia - Deploying and Optimizing LLMs with Ollama
New Zealand - Deploying and Optimizing LLMs with Ollama
Philippines - Deploying and Optimizing LLMs with Ollama
Singapore - Deploying and Optimizing LLMs with Ollama
Thailand - Deploying and Optimizing LLMs with Ollama
Vietnam - Deploying and Optimizing LLMs with Ollama
India - Deploying and Optimizing LLMs with Ollama
Argentina - Deploying and Optimizing LLMs with Ollama
Chile - Deploying and Optimizing LLMs with Ollama
Costa Rica - Deploying and Optimizing LLMs with Ollama
Ecuador - Deploying and Optimizing LLMs with Ollama
Guatemala - Deploying and Optimizing LLMs with Ollama
Colombia - Deploying and Optimizing LLMs with Ollama
México - Deploying and Optimizing LLMs with Ollama
Panama - Deploying and Optimizing LLMs with Ollama
Peru - Deploying and Optimizing LLMs with Ollama
Uruguay - Deploying and Optimizing LLMs with Ollama
Venezuela - Deploying and Optimizing LLMs with Ollama
Polska - Deploying and Optimizing LLMs with Ollama
United Kingdom - Deploying and Optimizing LLMs with Ollama
South Korea - Deploying and Optimizing LLMs with Ollama
Pakistan - Deploying and Optimizing LLMs with Ollama
Sri Lanka - Deploying and Optimizing LLMs with Ollama
Bulgaria - Deploying and Optimizing LLMs with Ollama
Bolivia - Deploying and Optimizing LLMs with Ollama
Indonesia - Deploying and Optimizing LLMs with Ollama
Kazakhstan - Deploying and Optimizing LLMs with Ollama
Moldova - Deploying and Optimizing LLMs with Ollama
Morocco - Deploying and Optimizing LLMs with Ollama
Tunisia - Deploying and Optimizing LLMs with Ollama
Kuwait - Deploying and Optimizing LLMs with Ollama
Oman - Deploying and Optimizing LLMs with Ollama
Slovakia - Deploying and Optimizing LLMs with Ollama
Kenya - Deploying and Optimizing LLMs with Ollama
Nigeria - Deploying and Optimizing LLMs with Ollama
Botswana - Deploying and Optimizing LLMs with Ollama
Slovenia - Deploying and Optimizing LLMs with Ollama
Croatia - Deploying and Optimizing LLMs with Ollama
Serbia - Deploying and Optimizing LLMs with Ollama
Bhutan - Deploying and Optimizing LLMs with Ollama