Course Code: ftllmqlora
Duration: 14 hours
Prerequisites:
  • Zrozumienie podstaw maszynowego uczenia się i sieci neuronowych
  • Doświadczenie w dostrajaniu modeli i transfer learningu
  • Znajomość dużych modeli językowych (LLMs) i ram deep learningu (np., PyTorch, TensorFlow)

Grupa docelowa

  • Inżynierowie maszynowego uczenia się
  • Rozwijacze AI
  • Naukowcy danych
Overview:
QLoRA jest zaawansowaną techniką do dopracowywania dużych modeli językowych (LLMs) dzięki wykorzystaniu metody kwantyzacji, oferując bardziej wydajny sposób dopracowywania tych modeli bez ponoszenia ogromnych kosztów obliczeniowych. To szkolenie obejmie zarówno teoretyczne fundamenty, jak i praktyczną implementację dopracowywania LLMs za pomocą QLoRA.To prowadzone przez instruktora szkolenie na żywo (online lub na miejscu) jest skierowane do inżynierów maszynowego uczenia się, programistów AI oraz naukowców danych na poziomie średniozaawansowanym do zaawansowanym, którzy chcą nauczyć się, jak używać QLoRA do wydajnego dopracowywania dużych modeli dla konkretnych zadań i dostosowań.Po zakończeniu tego szkolenia uczestnicy będą mogli:- Zrozumieć teorię stojącą za QLoRA i technikami kwantyzacji dla LLMs.- Zaimplementować QLoRA w procesie dopracowywania dużych modeli językowych dla aplikacji specjalistycznych.- Optymalizować wydajność dopracowywania przy ograniczonych zasobach obliczeniowych za pomocą kwantyzacji.- Wdrażać i oceniać dopracowane modele w rzeczywistych aplikacjach w sposób wydajny.Format kursu- Interaktywne wykłady i dyskusje.- Wiele ćwiczeń i praktyki.- Praktyczne wdrożenie w środowisku laboratorium na żywo.Opcje dostosowywania kursu- Aby złożyć wniosek o dostosowane szkolenie dla tego kursu, prosimy o kontakt z nami w celu uzgodnień.
Course Outline:
Wprowadzenie do QLoRA i kwantyzacji- Przegląd kwantyzacji i jej roli w optymalizacji modeli- Wprowadzenie do ramki QLoRA i jej korzyści- Kluczowe różnice między QLoRA a tradycyjnymi metodami dofinansowaniaPodstawy Large Language Models (LLMs)- Wprowadzenie do LLM i ich architektury- Wyzwania dofinansowania dużych modeli w dużej skali- Jak kwantyzacja pomaga przezwyciężyć ograniczenia obliczeniowe w dofinansowaniu LLMWdrożenie QLoRA dla Fine-Tuning LLM- Konfiguracja ramki QLoRA i środowiska- Przygotowanie zestawów danych do dofinansowania QLoRA- Krok po kroku poradnik do wdrożenia QLoRA w LLM za pomocą Python i PyTorch/TensorFlowOptymalizacja wydajności Fine-Tuning z QLoRA- Jak zbilansować dokładność modelu i wydajność z kwantyzacją- Techniki zmniejszania kosztów obliczeniowych i zużycia pamięci podczas dofinansowania- Strategie dofinansowania z minimalnymi wymaganiami sprzętowymiOcena sfinalizowanych modeli- Jak ocenić skuteczność sfinalizowanych modeli- Powszechne metryki oceny dla modeli językowych- Optymalizacja wydajności modelu po sfinalizowaniu i rozwiązywanie problemówWdrażanie i skalowanie sfinalizowanych modeli- Najlepsze praktyki wdrażania zkwantyzowanych LLM w środowiskach produkcyjnych- Skalowanie wdrażania do obsługi żądań w czasie rzeczywistym- Narzędzia i ramki do wdrażania i monitorowania modeliPrzykłady z życia rzeczywistego i studia przypadku- Studium przypadku: sfinalizowanie LLM dla obsługi klienta i zadań NLP- Przykłady sfinalizowania LLM w różnych branżach, takich jak opieka zdrowotna, finanse i handel elektroniczny- Wnioski wyciągnięte z wdrożeń modeli opartych na QLoRA w życiu rzeczywistymPodsumowanie i kolejne kroki
Sites Published:

United Arab Emirates - Fine-Tuning Large Language Models Using QLoRA

Qatar - Fine-Tuning Large Language Models Using QLoRA

Egypt - Fine-Tuning Large Language Models Using QLoRA

Saudi Arabia - Fine-Tuning Large Language Models Using QLoRA

South Africa - Fine-Tuning Large Language Models Using QLoRA

Brasil - Fine-Tuning Large Language Models Using QLoRA

Canada - Fine-Tuning Large Language Models Using QLoRA

中国 - Fine-Tuning Large Language Models Using QLoRA

香港 - Fine-Tuning Large Language Models Using QLoRA

澳門 - Fine-Tuning Large Language Models Using QLoRA

台灣 - Fine-Tuning Large Language Models Using QLoRA

USA - Fine-Tuning Large Language Models Using QLoRA

Österreich - Fine-Tuning Large Language Models Using QLoRA

Schweiz - Fine-Tuning Large Language Models Using QLoRA

Deutschland - Fine-Tuning Large Language Models Using QLoRA

Czech Republic - Fine-Tuning Large Language Models Using QLoRA

Denmark - Fine-Tuning Large Language Models Using QLoRA

Estonia - Fine-Tuning Large Language Models Using QLoRA

Finland - Fine-Tuning Large Language Models Using QLoRA

Greece - Fine-Tuning Large Language Models Using QLoRA

Magyarország - Fine-Tuning Large Language Models Using QLoRA

Ireland - Fine-Tuning Large Language Models Using QLoRA

Luxembourg - Fine-Tuning Large Language Models Using QLoRA

Latvia - Fine-Tuning Large Language Models Using QLoRA

España - Fine-Tuning Large Language Models Using QLoRA

Italia - Fine-Tuning Large Language Models Using QLoRA

Lithuania - Fine-Tuning Large Language Models Using QLoRA

Nederland - Fine-Tuning Large Language Models Using QLoRA

Norway - Fine-Tuning Large Language Models Using QLoRA

Portugal - Fine-Tuning Large Language Models Using QLoRA

România - Fine-Tuning Large Language Models Using QLoRA

Sverige - Fine-Tuning Large Language Models Using QLoRA

Türkiye - Fine-Tuning Large Language Models Using QLoRA

Malta - Fine-Tuning Large Language Models Using QLoRA

Belgique - Fine-Tuning Large Language Models Using QLoRA

France - Fine-Tuning Large Language Models Using QLoRA

日本 - Fine-Tuning Large Language Models Using QLoRA

Australia - Fine-Tuning Large Language Models Using QLoRA

Malaysia - Fine-Tuning Large Language Models Using QLoRA

New Zealand - Fine-Tuning Large Language Models Using QLoRA

Philippines - Fine-Tuning Large Language Models Using QLoRA

Singapore - Fine-Tuning Large Language Models Using QLoRA

Thailand - Fine-Tuning Large Language Models Using QLoRA

Vietnam - Fine-Tuning Large Language Models Using QLoRA

India - Fine-Tuning Large Language Models Using QLoRA

Argentina - Fine-Tuning Large Language Models Using QLoRA

Chile - Fine-Tuning Large Language Models Using QLoRA

Costa Rica - Fine-Tuning Large Language Models Using QLoRA

Ecuador - Fine-Tuning Large Language Models Using QLoRA

Guatemala - Fine-Tuning Large Language Models Using QLoRA

Colombia - Fine-Tuning Large Language Models Using QLoRA

México - Fine-Tuning Large Language Models Using QLoRA

Panama - Fine-Tuning Large Language Models Using QLoRA

Peru - Fine-Tuning Large Language Models Using QLoRA

Uruguay - Fine-Tuning Large Language Models Using QLoRA

Venezuela - Fine-Tuning Large Language Models Using QLoRA

Polska - Fine-Tuning Large Language Models Using QLoRA

United Kingdom - Fine-Tuning Large Language Models Using QLoRA

South Korea - Fine-Tuning Large Language Models Using QLoRA

Pakistan - Fine-Tuning Large Language Models Using QLoRA

Sri Lanka - Fine-Tuning Large Language Models Using QLoRA

Bulgaria - Fine-Tuning Large Language Models Using QLoRA

Bolivia - Fine-Tuning Large Language Models Using QLoRA

Indonesia - Fine-Tuning Large Language Models Using QLoRA

Kazakhstan - Fine-Tuning Large Language Models Using QLoRA

Moldova - Fine-Tuning Large Language Models Using QLoRA

Morocco - Fine-Tuning Large Language Models Using QLoRA

Tunisia - Fine-Tuning Large Language Models Using QLoRA

Kuwait - Fine-Tuning Large Language Models Using QLoRA

Oman - Fine-Tuning Large Language Models Using QLoRA

Slovakia - Fine-Tuning Large Language Models Using QLoRA

Kenya - Fine-Tuning Large Language Models Using QLoRA

Nigeria - Fine-Tuning Large Language Models Using QLoRA

Botswana - Fine-Tuning Large Language Models Using QLoRA

Slovenia - Fine-Tuning Large Language Models Using QLoRA

Croatia - Fine-Tuning Large Language Models Using QLoRA

Serbia - Fine-Tuning Large Language Models Using QLoRA

Bhutan - Fine-Tuning Large Language Models Using QLoRA

Nepal - Fine-Tuning Large Language Models Using QLoRA

Uzbekistan - Fine-Tuning Large Language Models Using QLoRA