Pular para o conteúdo principal

Documentation Index

Fetch the complete documentation index at: https://docs.monostate.ai/llms.txt

Use this file to discover all available pages before exploring further.

Escolhendo Sua Abordagem de Treinamento

Nem todo problema de IA precisa da mesma solução. Às vezes você precisa de treinamento completo, às vezes apenas fine-tuning, e às vezes nenhum treinamento.

As Três Abordagens

Prompt Engineering

Sem treinamento necessárioUse modelos existentes com prompts inteligentes
  • Resultados instantâneos
  • Custo zero de treinamento
  • 0-10 exemplos necessários

Fine-Tuning

Abordagem recomendadaAdapte modelos pré-treinados às suas necessidades
  • Comportamento consistente
  • 100-10K exemplos
  • Horas a dias

Treinamento do Zero

Raramente necessárioConstrua modelos completamente novos
  • Controle total
  • Milhões de exemplos
  • Muito caro

1. Prompt Engineering (Sem Treinamento)

Use modelos existentes com prompts cuidadosamente elaborados. O que é: Escrever instruções que fazem o modelo fazer o que você quer sem nenhum treinamento. Exemplo:
You are a customer service agent for TechCorp.
Always be polite and helpful.
Product return policy: 30 days with receipt.

Customer: Can I return my laptop?
Quando usar:
  • Testar ideias rapidamente
  • Poucos exemplos disponíveis
  • Tarefa está dentro das capacidades do modelo
  • Restrições de orçamento/tempo
Prós:
  • Tempo zero de treinamento
  • Sem dados de treinamento necessários
  • Resultados instantâneos
  • Grátis para tentar
Contras:
  • Personalização limitada
  • Resultados inconsistentes
  • Não pode adicionar novo conhecimento
  • Custo de inferência maior

2. Fine-Tuning (Recomendado)

Adapte um modelo pré-treinado às suas necessidades específicas. O que é: Pegar um modelo que já entende linguagem/imagens e ensinar sua tarefa específica. Quando usar:
  • Tem centenas a milhares de exemplos
  • Precisa de comportamento consistente
  • Quer adicionar conhecimento de domínio
  • Construindo sistemas de produção
Prós:
  • Mais rápido que treinamento do zero
  • Precisa de menos dados
  • Melhor desempenho que prompting
  • Custo de inferência menor que prompting
Contras:
  • Requer dados de treinamento
  • Precisa de recursos de computação
  • Leva tempo para treinar
  • Pode fazer overfitting em datasets pequenos

3. Treinamento do Zero

Construa um modelo completamente novo. O que é: Começar com pesos aleatórios e treinar em datasets massivos. Quando usar:
  • Criando modelos fundamentais
  • Arquiteturas completamente novas
  • Dados e computação ilimitados
  • Propósitos de pesquisa
Prós:
  • Controle total
  • Pode criar capacidades novas
  • Sem vieses herdados
Contras:
  • Precisa de dados massivos (milhões de exemplos)
  • Extremamente caro
  • Leva semanas a meses
  • Geralmente desnecessário

Framework de Decisão

Guia de Decisão Rápida

1

Verifique seus dados

Você tem exemplos de treinamento?
  • Não → Use Prompt Engineering
  • Sim → Continue para Passo 2
2

Conte seus exemplos

Quantos exemplos você tem?
  • Menos de 100 → Use Prompt Engineering
  • 100-10.000 → Perfeito para Fine-tuning
  • Milhões → Poderia treinar do zero (mas por quê?)
3

Avalie suas necessidades

O que é mais importante?
  • Velocidade para implantar → Prompt Engineering
  • Comportamento consistente → Fine-tuning
  • Arquitetura nova → Treinamento do zero

Comparação Detalhada

AspectoPrompt EngineeringFine-TuningTreinamento do Zero
Dados Necessários0-10 exemplos100-10.000 exemplosMilhões de exemplos
Tempo para ImplantarMinutosHoras a diasSemanas a meses
Custo$0 inicial$10-1.000$10.000+
PersonalizaçãoLimitadaAltaCompleta
Novo ConhecimentoNãoSimSim
ConsistênciaVariávelAltaAlta
ManutençãoAtualizar promptsRetreinar periodicamenteTreinamento contínuo

Abordagem por Caso de Uso

Quando usar Prompt Engineering:
  • FAQs gerais
  • Roteamento simples
  • Baixo volume
  • Fase de teste
Quando usar Fine-Tuning:
  • Conhecimento da empresa
  • Voz da marca
  • Alto volume
  • Produtos complexos

Métodos de Fine-Tuning

Fine-Tuning Padrão

Atualizar todos os parâmetrosPrós:
  • Máxima precisão
Contras:
  • Precisa de mais memória
Melhor para: Sistemas de produção com boas GPUs

LoRA

Low-Rank AdaptationPrós:
  • 90% menos memória
  • Trocar adaptadores
  • Treinamento mais rápido
Melhor para: Modelos grandes, recursos limitados

QLoRA

LoRA QuantizadoPrós:
  • Funciona em GPUs de consumidor
  • Quantização 4-bit
Contras:
  • Precisão ligeiramente menor
Melhor para: Experimentação, recursos muito limitados

Prompt/Prefix Tuning

Treinar apenas promptsPrós:
  • Memória mínima
  • Muito rápido
Contras:
  • Capacidade limitada
Melhor para: Few-shot learning, múltiplas tarefas

Abordagem Progressiva

1

Estágio 1: Prompt Engineering

Comece simples, teste rápido
  • Teste o conceito
  • Colete feedback do usuário
  • Identifique limitações
  • Colete dados de treinamento
2

Estágio 2: Few-Shot Fine-Tuning

Melhore com exemplos
  • Use exemplos coletados
  • Melhore consistência
  • Reduza complexidade do prompt
  • Valide abordagem
3

Estágio 3: Fine-Tuning Completo

Escale para produção
  • Escale com mais dados
  • Otimize desempenho
  • Reduza custos de inferência
  • Implantação em produção
4

Estágio 4: Melhoria Contínua

Continue melhorando
  • Colete dados de produção
  • Retreinamento periódico
  • Teste A/B
  • Monitoramento de desempenho

Considerações de Custo

Custo de Treinamento: $0Inferência: $0.01-0.10 por 1K tokensMelhor para: Baixo volume, experimentaçãoEstimativa mensal (1M tokens): $10-100
Custo de Treinamento: $10-1.000 (única vez)Inferência: $0.001-0.01 por 1K tokensMelhor para: Alto volume, produçãoEstimativa mensal (1M tokens): $1-10 + hospedagem
Custo de Treinamento: $10.000-milhõesInferência: Variável com base no tamanhoMelhor para: Criadores de modelos fundamentaisNão recomendado a menos que você seja OpenAI/Google

Requisitos de Dados

Prompt Engineering

  • Mínimo: Zero-shot (sem exemplos)
  • Melhor: Few-shot (3-5 exemplos)
  • Ótimo: Many-shot (10+ exemplos no contexto)

Fine-Tuning

  • Mínimo: 50-100 exemplos
  • Melhor: 500-1.000 exemplos
  • Ótimo: 5.000+ exemplos

Treinamento do Zero

  • Mínimo: 1M+ exemplos
  • Melhor: 100M+ exemplos
  • Ótimo: Bilhões de exemplos

Trade-offs Qualidade vs Quantidade

Alta Qualidade, Baixa Quantidade

Fine-tune com curadoria cuidadosa de dados
  • Exemplos selecionados manualmente
  • Anotações de especialistas
  • Aumento de dados

Baixa Qualidade, Alta Quantidade

Use modelos maiores com filtragem
  • Limpeza automatizada
  • Filtragem estatística
  • Métodos de ensemble

Qualidade Mista

Abordagem de filtragem progressiva
  • Comece com todos os dados
  • Identifique indicadores de qualidade
  • Pondere por qualidade

Erros Comuns a Evitar

Pular para Treinamento Muito RápidoSempre tente prompt engineering primeiro. Você pode não precisar de treinamento.
Dados de Treinamento InsuficientesFine-tuning com 10 exemplos não funcionará. Precisa de pelo menos 100 exemplos de qualidade.
Soluções Super-EngenhosasNão treine do zero para tarefas padrão. Use modelos pré-treinados.
Ignorar ManutençãoModelos precisam de atualizações. Planeje retreinamento desde o primeiro dia.

Abordagens Híbridas

RAG (Retrieval Augmented Generation)

Combine prompting com conhecimento externo. Use quando:
  • Precisa de conhecimento atualizável
  • Não pode fazer fine-tuning frequentemente
  • Tem dados estruturados

Métodos de Ensemble

Combine múltiplas abordagens. Exemplo:
  • Prompt para criatividade
  • Modelo fine-tunado para precisão
  • Vote/combine saídas

Chain of Thought + Fine-Tuning

Fine-tune em passos de raciocínio. Use quando:
  • Precisa de saídas explicáveis
  • Tarefas de raciocínio complexas
  • Aplicações educacionais

Tomando a Decisão

Perguntas a Fazer

  1. Qual é meu orçamento?
    • Baixo → Prompt engineering
    • Médio → Fine-tuning
    • Alto → Considere todas as opções
  2. Quantos dados eu tenho?
    • Menos de 100 exemplos → Prompt engineering
    • 100-10K → Fine-tuning
    • Mais de 1M → Poderia treinar do zero
  3. Quão única é minha tarefa?
    • Comum → Prompt engineering
    • Especializada → Fine-tuning
    • Nova → Treinamento do zero
  4. Que precisão eu preciso?
    • Aceitável → Prompt engineering
    • Alta → Fine-tuning
    • Perfeita → Múltiplas iterações
  5. Quão rápido preciso de resultados?
    • Hoje → Prompt engineering
    • Esta semana → Fine-tuning
    • Este trimestre → Qualquer abordagem

Próximos Passos

Pronto para começar a treinar?

Início Rápido

Experimente seu primeiro modelo

Escolha Interface

Escolha UI, CLI ou API

Tipos de Modelos

Selecione arquitetura