Documentation Index
Fetch the complete documentation index at: https://docs.monostate.ai/llms.txt
Use this file to discover all available pages before exploring further.
Integração Unsloth
O Unsloth fornece treinamento otimizado para fine-tuning LoRA, reduzindo significativamente o tempo de treinamento e o uso de memória.Requisitos
| Requisito | Detalhes |
|---|---|
| Instalação | pip install unsloth |
| Trainers Suportados | default, sft apenas |
| Modelos Suportados | llama, mistral, gemma, qwen2 |
| Plataforma | Linux recomendado |
Arquiteturas de Modelo Suportadas
Unsloth é otimizado para famílias de modelos específicas:| Arquitetura | Modelos de Exemplo |
|---|---|
llama | Llama 2, Llama 3, Llama 3.1, Llama 3.2 |
mistral | Mistral 7B, Mistral Nemo |
gemma | Gemma, Gemma 2 |
qwen2 | Qwen 2, Qwen 2.5 |
Início Rápido
Parâmetros
| Parâmetro | Flag CLI | Padrão | Descrição |
|---|---|---|---|
unsloth | --unsloth | False | Habilitar Unsloth para treinamento mais rápido |
use_sharegpt_mapping | --use-sharegpt-mapping | False | Usar mapeamento ShareGPT do Unsloth em vez de converter |
Python API
Com Quantização
Unsloth funciona com quantização int4 e int8 para reduzir o uso de memória:Como Funciona
Quando Unsloth está habilitado e os requisitos são atendidos:- Usa
FastLanguageModelda biblioteca Unsloth para carregamento otimizado do modelo - Aplica gradient checkpointing otimizado (
use_gradient_checkpointing="unsloth") - Configura automaticamente módulos alvo LoRA:
q_proj,k_proj,v_proj,o_proj,gate_proj,up_proj,down_proj - Integra com PEFT para treinamento eficiente de adaptadores
Comportamento de Fallback
Se Unsloth não puder ser usado, o treinamento continua com transformers/PEFT padrão:- Unsloth não instalado: Aviso registrado, continua sem Unsloth
- Tipo de modelo não suportado: Aviso registrado, continua sem Unsloth
- Trainer não suportado: Unsloth não aplicado (apenas SFT suportado)
Mapeamento ShareGPT
Use--use-sharegpt-mapping para preservar o formato ShareGPT em vez de converter:
Próximos Passos
LoRA/PEFT
Técnicas de fine-tuning eficiente
Quantization
Reduzir memória com quantização