Documentation Index
Fetch the complete documentation index at: https://docs.monostate.ai/llms.txt
Use this file to discover all available pages before exploring further.
Escolhendo Sua Abordagem de Treinamento
Nem todo problema de IA precisa da mesma solução. Às vezes você precisa de treinamento completo, às vezes apenas fine-tuning, e às vezes nenhum treinamento.As Três Abordagens
Prompt Engineering
Sem treinamento necessárioUse modelos existentes com prompts inteligentes
- Resultados instantâneos
- Custo zero de treinamento
- 0-10 exemplos necessários
Fine-Tuning
Abordagem recomendadaAdapte modelos pré-treinados às suas necessidades
- Comportamento consistente
- 100-10K exemplos
- Horas a dias
Treinamento do Zero
Raramente necessárioConstrua modelos completamente novos
- Controle total
- Milhões de exemplos
- Muito caro
1. Prompt Engineering (Sem Treinamento)
Use modelos existentes com prompts cuidadosamente elaborados. O que é: Escrever instruções que fazem o modelo fazer o que você quer sem nenhum treinamento. Exemplo:- Testar ideias rapidamente
- Poucos exemplos disponíveis
- Tarefa está dentro das capacidades do modelo
- Restrições de orçamento/tempo
- Tempo zero de treinamento
- Sem dados de treinamento necessários
- Resultados instantâneos
- Grátis para tentar
- Personalização limitada
- Resultados inconsistentes
- Não pode adicionar novo conhecimento
- Custo de inferência maior
2. Fine-Tuning (Recomendado)
Adapte um modelo pré-treinado às suas necessidades específicas. O que é: Pegar um modelo que já entende linguagem/imagens e ensinar sua tarefa específica. Quando usar:- Tem centenas a milhares de exemplos
- Precisa de comportamento consistente
- Quer adicionar conhecimento de domínio
- Construindo sistemas de produção
- Mais rápido que treinamento do zero
- Precisa de menos dados
- Melhor desempenho que prompting
- Custo de inferência menor que prompting
- Requer dados de treinamento
- Precisa de recursos de computação
- Leva tempo para treinar
- Pode fazer overfitting em datasets pequenos
3. Treinamento do Zero
Construa um modelo completamente novo. O que é: Começar com pesos aleatórios e treinar em datasets massivos. Quando usar:- Criando modelos fundamentais
- Arquiteturas completamente novas
- Dados e computação ilimitados
- Propósitos de pesquisa
- Controle total
- Pode criar capacidades novas
- Sem vieses herdados
- Precisa de dados massivos (milhões de exemplos)
- Extremamente caro
- Leva semanas a meses
- Geralmente desnecessário
Framework de Decisão
Guia de Decisão Rápida
Verifique seus dados
Você tem exemplos de treinamento?
- Não → Use Prompt Engineering
- Sim → Continue para Passo 2
Conte seus exemplos
Quantos exemplos você tem?
- Menos de 100 → Use Prompt Engineering
- 100-10.000 → Perfeito para Fine-tuning
- Milhões → Poderia treinar do zero (mas por quê?)
Comparação Detalhada
| Aspecto | Prompt Engineering | Fine-Tuning | Treinamento do Zero |
|---|---|---|---|
| Dados Necessários | 0-10 exemplos | 100-10.000 exemplos | Milhões de exemplos |
| Tempo para Implantar | Minutos | Horas a dias | Semanas a meses |
| Custo | $0 inicial | $10-1.000 | $10.000+ |
| Personalização | Limitada | Alta | Completa |
| Novo Conhecimento | Não | Sim | Sim |
| Consistência | Variável | Alta | Alta |
| Manutenção | Atualizar prompts | Retreinar periodicamente | Treinamento contínuo |
Abordagem por Caso de Uso
- Atendimento ao Cliente
- Geração de Conteúdo
- Geração de Código
- Análise de Documentos
Quando usar Prompt Engineering:
- FAQs gerais
- Roteamento simples
- Baixo volume
- Fase de teste
- Conhecimento da empresa
- Voz da marca
- Alto volume
- Produtos complexos
Métodos de Fine-Tuning
Fine-Tuning Padrão
Atualizar todos os parâmetrosPrós:
- Máxima precisão
- Precisa de mais memória
LoRA
Low-Rank AdaptationPrós:
- 90% menos memória
- Trocar adaptadores
- Treinamento mais rápido
QLoRA
LoRA QuantizadoPrós:
- Funciona em GPUs de consumidor
- Quantização 4-bit
- Precisão ligeiramente menor
Prompt/Prefix Tuning
Treinar apenas promptsPrós:
- Memória mínima
- Muito rápido
- Capacidade limitada
Abordagem Progressiva
Estágio 1: Prompt Engineering
Comece simples, teste rápido
- Teste o conceito
- Colete feedback do usuário
- Identifique limitações
- Colete dados de treinamento
Estágio 2: Few-Shot Fine-Tuning
Melhore com exemplos
- Use exemplos coletados
- Melhore consistência
- Reduza complexidade do prompt
- Valide abordagem
Estágio 3: Fine-Tuning Completo
Escale para produção
- Escale com mais dados
- Otimize desempenho
- Reduza custos de inferência
- Implantação em produção
Considerações de Custo
Prompt Engineering
Prompt Engineering
Custo de Treinamento: $0Inferência: $0.01-0.10 por 1K tokensMelhor para: Baixo volume, experimentaçãoEstimativa mensal (1M tokens): $10-100
Fine-Tuning
Fine-Tuning
Custo de Treinamento: $10-1.000 (única vez)Inferência: $0.001-0.01 por 1K tokensMelhor para: Alto volume, produçãoEstimativa mensal (1M tokens): $1-10 + hospedagem
Treinamento do Zero
Treinamento do Zero
Custo de Treinamento: $10.000-milhõesInferência: Variável com base no tamanhoMelhor para: Criadores de modelos fundamentaisNão recomendado a menos que você seja OpenAI/Google
Requisitos de Dados
Prompt Engineering
- Mínimo: Zero-shot (sem exemplos)
- Melhor: Few-shot (3-5 exemplos)
- Ótimo: Many-shot (10+ exemplos no contexto)
Fine-Tuning
- Mínimo: 50-100 exemplos
- Melhor: 500-1.000 exemplos
- Ótimo: 5.000+ exemplos
Treinamento do Zero
- Mínimo: 1M+ exemplos
- Melhor: 100M+ exemplos
- Ótimo: Bilhões de exemplos
Trade-offs Qualidade vs Quantidade
Alta Qualidade, Baixa Quantidade
→ Fine-tune com curadoria cuidadosa de dados- Exemplos selecionados manualmente
- Anotações de especialistas
- Aumento de dados
Baixa Qualidade, Alta Quantidade
→ Use modelos maiores com filtragem- Limpeza automatizada
- Filtragem estatística
- Métodos de ensemble
Qualidade Mista
→ Abordagem de filtragem progressiva- Comece com todos os dados
- Identifique indicadores de qualidade
- Pondere por qualidade
Erros Comuns a Evitar
Abordagens Híbridas
RAG (Retrieval Augmented Generation)
Combine prompting com conhecimento externo. Use quando:- Precisa de conhecimento atualizável
- Não pode fazer fine-tuning frequentemente
- Tem dados estruturados
Métodos de Ensemble
Combine múltiplas abordagens. Exemplo:- Prompt para criatividade
- Modelo fine-tunado para precisão
- Vote/combine saídas
Chain of Thought + Fine-Tuning
Fine-tune em passos de raciocínio. Use quando:- Precisa de saídas explicáveis
- Tarefas de raciocínio complexas
- Aplicações educacionais
Tomando a Decisão
Perguntas a Fazer
-
Qual é meu orçamento?
- Baixo → Prompt engineering
- Médio → Fine-tuning
- Alto → Considere todas as opções
-
Quantos dados eu tenho?
- Menos de 100 exemplos → Prompt engineering
- 100-10K → Fine-tuning
- Mais de 1M → Poderia treinar do zero
-
Quão única é minha tarefa?
- Comum → Prompt engineering
- Especializada → Fine-tuning
- Nova → Treinamento do zero
-
Que precisão eu preciso?
- Aceitável → Prompt engineering
- Alta → Fine-tuning
- Perfeita → Múltiplas iterações
-
Quão rápido preciso de resultados?
- Hoje → Prompt engineering
- Esta semana → Fine-tuning
- Este trimestre → Qualquer abordagem
Próximos Passos
Pronto para começar a treinar?Início Rápido
Experimente seu primeiro modelo
Escolha Interface
Escolha UI, CLI ou API
Tipos de Modelos
Selecione arquitetura