Documentation Index
Fetch the complete documentation index at: https://docs.monostate.ai/llms.txt
Use this file to discover all available pages before exploring further.
Integración Unsloth
Unsloth proporciona entrenamiento optimizado para fine-tuning LoRA, reduciendo significativamente el tiempo de entrenamiento y el uso de memoria.Requisitos
| Requisito | Detalles |
|---|---|
| Instalación | pip install unsloth |
| Trainers Soportados | default, sft solamente |
| Modelos Soportados | llama, mistral, gemma, qwen2 |
| Plataforma | Linux recomendado |
Arquitecturas de Modelo Soportadas
Unsloth está optimizado para familias de modelos específicas:| Arquitectura | Modelos de Ejemplo |
|---|---|
llama | Llama 2, Llama 3, Llama 3.1, Llama 3.2 |
mistral | Mistral 7B, Mistral Nemo |
gemma | Gemma, Gemma 2 |
qwen2 | Qwen 2, Qwen 2.5 |
Inicio Rápido
Parámetros
| Parámetro | Flag CLI | Por Defecto | Descripción |
|---|---|---|---|
unsloth | --unsloth | False | Habilitar Unsloth para entrenamiento más rápido |
use_sharegpt_mapping | --use-sharegpt-mapping | False | Usar mapeo ShareGPT de Unsloth en lugar de convertir |
Python API
Con Cuantización
Unsloth funciona con cuantización int4 e int8 para reducir el uso de memoria:Cómo Funciona
Cuando Unsloth está habilitado y se cumplen los requisitos:- Usa
FastLanguageModelde la biblioteca Unsloth para carga optimizada del modelo - Aplica gradient checkpointing optimizado (
use_gradient_checkpointing="unsloth") - Configura automáticamente módulos objetivo LoRA:
q_proj,k_proj,v_proj,o_proj,gate_proj,up_proj,down_proj - Se integra con PEFT para entrenamiento eficiente de adaptadores
Comportamiento de Fallback
Si Unsloth no puede ser usado, el entrenamiento continúa con transformers/PEFT estándar:- Unsloth no instalado: Advertencia registrada, continúa sin Unsloth
- Tipo de modelo no soportado: Advertencia registrada, continúa sin Unsloth
- Trainer no soportado: Unsloth no aplicado (solo SFT soportado)
Mapeo ShareGPT
Usa--use-sharegpt-mapping para preservar el formato ShareGPT en lugar de convertir:
Próximos Pasos
LoRA/PEFT
Técnicas de fine-tuning eficiente
Quantization
Reducir memoria con cuantización