Documentation Index
Fetch the complete documentation index at: https://docs.monostate.ai/llms.txt
Use this file to discover all available pages before exploring further.
Entrenamiento Distribuido
AITraining soporta entrenamiento multi-GPU a través de Accelerate, con optimización opcional DeepSpeed Zero-3 para modelos grandes.Requisitos
| Componente | Requerido | Instalar |
|---|---|---|
| Accelerate | Sí (incluido) | Incluido con AITraining |
| DeepSpeed | Opcional | pip install deepspeed |
| Múltiples GPUs | Sí | GPUs NVIDIA CUDA |
Backends de Distribución
| Backend | Valor | Descripción |
|---|---|---|
| DDP | ddp o None | PyTorch Distributed Data Parallel (por defecto) |
| DeepSpeed | deepspeed | DeepSpeed Zero-3 con fragmentación automática |
Inicio Rápido
DDP (Por Defecto)
Con múltiples GPUs, DDP se usa automáticamente:DeepSpeed
Para modelos grandes, usa DeepSpeed Zero-3:Python API
Configuración YAML
Cómo Funciona
Launch Accelerate
El entrenamiento se inicia a través de Accelerate:- AITraining detecta GPUs disponibles
- Inicia entrenamiento vía
accelerate launch - Para DeepSpeed, añade flags
--use_deepspeedy Zero-3 - Registra
accelerate envpara depuración
Configuraciones DDP
Al usar DDP:ddp_find_unused_parameters=Falsese establece para rendimiento- Cada GPU procesa una porción del batch
- Los gradientes se sincronizan entre GPUs
DeepSpeed Zero-3
Al usar DeepSpeed:- Los parámetros del modelo se fragmentan entre GPUs
- Usa
--deepspeed_multinode_launcher standardpara multi-nodo - La configuración Zero-3 se aplica automáticamente
- El guardado de modelo usa
accelerator.get_state_dict()con unwrapping
Entrenamiento Multi-Nodo
Para entrenamiento DeepSpeed multi-nodo:--deepspeed_multinode_launcher standard se pasa automáticamente.
Comportamiento Específico por Tarea
Entrenamiento LLM
- Por defecto: DDP cuando se detectan múltiples GPUs
- DeepSpeed: Establecer explícitamente
--distributed-backend deepspeed
Seq2Seq y VLM
- Selecciona automáticamente DeepSpeed para casos de muchas GPUs
- Usa DDP multi-GPU para combinaciones PEFT + cuantización + bf16
Checkpointing con DeepSpeed
Selección de GPU
Controla qué GPUs usar:Solución de Problemas
Verificar Entorno Accelerate
Problemas Comunes
| Problema | Solución |
|---|---|
| DeepSpeed no encontrado | pip install deepspeed |
| Errores NCCL | Verifica conectividad GPU y versión CUDA |
| Errores OOM | Reduce tamaño de batch o usa DeepSpeed |
| Entrenamiento lento | Asegúrate de que las GPUs están en el mismo bus PCIe |
Próximos Pasos
LoRA/PEFT
Fine-tuning eficiente
Quantization
Reducir uso de memoria