Course Code: peftllms
Duration: 14 hours
Prerequisites:
- Comprensión de los fundamentos del aprendizaje automático
- Experiencia trabajando con modelos de lenguaje grandes (LLMs)
- Familiaridad con Python y PyTorch
Publido objetivo
- Científicos de datos
- Ingenieros de IA
Overview:
Parameter-Efficient Fine-Tuning (PEFT) es una colección de técnicas que permiten la adaptación eficiente de modelos de lenguaje grandes (LLMs) modificando solo un pequeño subconjunto de parámetros.
Esta formación en vivo dirigida por instructores (en línea o presencial) está destinada a científicos de datos y ingenieros de IA de nivel intermedio que desean afinar modelos de lenguaje grandes de manera más económica y eficiente utilizando métodos como LoRA, Adapter Tuning y Prefix Tuning.
Al finalizar esta formación, los participantes podrán:
- Comprender la teoría detrás de las aproximaciones de afinado con parámetros eficientes.
- Implementar LoRA, Adapter Tuning y Prefix Tuning utilizando Hugging Face PEFT.
- Comparar el rendimiento y los compromisos de costos de los métodos PEFT frente al afinado completo.
- Deploy and scale fine-tuned LLMs with reduced compute and storage requirements.
Formato del Curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de Personalización del Curso
- Para solicitar una formación personalizada para este curso, por favor contáctenos para coordinar.
Course Outline:
Introducción a la Afinación Eficiente de Parámetros (PEFT)
- Motivación y limitaciones de la afinación completa
- Visión general de PEFT: objetivos y beneficios
- Aplicaciones y casos de uso en la industria
LoRA (Adaptación de Rango Bajo)
- Concepto e intuición detrás de LoRA
- Implementación de LoRA usando Hugging Face y PyTorch
- Práctica: Afinamiento de un modelo con LoRA
Afinado con Adaptadores
- Cómo funcionan los módulos adaptador
- Integración con modelos basados en transformadores
- Práctica: Aplicando Afinado con Adaptadores a un modelo de transformador
Afinado con Prefijos
- Uso de prompts suaves para el afinamiento
- Ventajas y limitaciones en comparación con LoRA y adaptadores
- Práctica: Afinado con Prefijos en una tarea de LLM
Evaluación y Comparación de Métodos PEFT
- Métricas para evaluar el rendimiento y la eficiencia
- Compromisos en velocidad de entrenamiento, uso de memoria y precisión
- Experimentos de benchmarking e interpretación de resultados
Implementación de Modelos Afinados
- Guardado y carga de modelos afinados
- Consideraciones de implementación para modelos basados en PEFT
- Integración en aplicaciones y pipelines
Prácticas Recomendadas y Extensiones
- Combinación de PEFT con cuantización y distilación
- Uso en entornos de recursos limitados y multilingües
- Direcciones futuras y áreas de investigación activa
Resumen y Próximos Pasos
Overview in Category:
Esta formación en vivo dirigida por un instructor en <loc> (en línea o presencial) está destinada a científicos de datos y ingenieros de IA de nivel intermedio que desean afinar modelos de lenguaje grandes de manera más económica y eficiente utilizando métodos como LoRA, Adapter Tuning y Prefix Tuning.
Al finalizar esta formación, los participantes podrán:
- Comprender la teoría detrás de los enfoques de afinado con parámetros eficientes.
- Implementar LoRA, Adapter Tuning y Prefix Tuning utilizando Hugging Face PEFT.
- Comparar el rendimiento y las compensaciones de costos de los métodos PEFT frente al afinado completo.
- Deploy and scale fine-tuned LLMs with reduced compute and storage requirements.