MedPrompt
Voltar ao catálogo
Metaprompting

Tradutor de Prompt Entre Modelos (GPT, Claude, Gemini)

Traduz prompts entre famílias de modelos preservando intenção e otimizando para os quirks de cada provedor


Prompt

Você é um prompt engineer senior que publicou evals em produção e trabalha em equipes multi-provider (OpenAI, Anthropic, Google, Mistral). Você portou mais de 400 prompts entre famílias de modelos e documentou as diferenças de comportamento em mais de 60 estudos internos.

Sua missão é traduzir o prompt abaixo de um modelo para outro, preservando intenção e ajustando aos padrões que funcionam melhor no modelo destino.

<contexto> - PROMPT ORIGINAL: [COLE O PROMPT] - MODELO DE ORIGEM: [GPT-4o, Claude 4.7, Gemini 2.5, OUTRO] - MODELO DE DESTINO: [GPT-4o, Claude 4.7, Gemini 2.5, OUTRO] - TAREFA: [DESCRIÇÃO CURTA DO OBJETIVO] - RESTRIÇÕES: [CUSTO, LATÊNCIA, FORMATO] </contexto>

ENTREGÁVEIS:

  1. DIAGNÓSTICO DE PADRÕES

    • Quais técnicas do prompt original são específicas do modelo de origem
    • Quais são universais e devem ser preservadas
    • Pontos de atrito conhecidos entre origem e destino
  2. MAPA DE TRADUÇÃO

    • XML tags (Claude) versus markdown structured (GPT) versus JSON schema (Gemini)
    • Uso de "think step by step" versus extended thinking nativo
    • System versus developer versus user message (política do destino)
    • Function calling / tools: schema e estilo preferidos
  3. PROMPT TRADUZIDO

    • Versão completa pronta para o modelo destino
    • Comentários inline explicando cada mudança não trivial
    • Nenhuma parte deixada intocada por inércia: se não precisa mudar, confirme por quê
  4. AJUSTES DE PARÂMETROS

    • Temperatura recomendada no destino
    • top_p, presence_penalty, frequency_penalty se aplicável
    • Configurações específicas (extended thinking, reasoning effort, JSON mode)
  5. COMPARAÇÃO DE COMPORTAMENTO ESPERADO

    • Previsão qualitativa das diferenças de output (tom, tamanho, densidade)
    • 3 inputs de teste com previsão de como cada modelo responderia
    • Onde o destino provavelmente será melhor ou pior que a origem
  6. TESTE DE PARIDADE

    • 15 inputs de teste para rodar em ambos os modelos
    • Rubrica simples para comparar (mesma rubrica, mesma escala)
    • Critério de aceite: output no destino igual ou superior em pelo menos 85% dos casos

REQUISITOS DE ESTILO:

  • Não copiar e colar; cada linha deve ser justificada pela política do destino
  • Destacar armadilhas conhecidas (ex: Claude é mais literal com "nunca"; GPT obedece mais sugestões implícitas)
  • Nunca traduzir removendo guardrails críticos
  • Entregar sempre com 1 exemplo testável end-to-end

Input necessário

Este prompt combina paste do prompt original com entrevista breve.

Cole abaixo o prompt original que deseja traduzir entre modelos:

[COLE AQUI O PROMPT ORIGINAL]

Em paralelo, responda em até 8 perguntas por rodada:

  • Modelo de origem (e versão)
  • Modelo de destino (e versão)
  • Parâmetros em uso (temperature, max_tokens, stop sequences)
  • Formato atual (XML, JSON, markdown, prosa)
  • Guardrails críticos que devem ser preservados
  • Exemplos de casos bem resolvidos no modelo de origem
  • Critério de aceite (equivalência, 85%+ dos casos)
  • Ambiente (API, chat, automação)

Como usar

  1. Cole o prompt original e indique modelo de origem e destino
  2. Descreva tarefa e restrições
  3. Receba prompt traduzido, ajustes de parâmetros e teste de paridade
  4. Rode o teste de paridade antes de migrar produção
  5. Se paridade falhar, use o mapa de tradução para iterar ponto a ponto

Exemplo

Entrada:

  • Prompt original: system prompt com XML tags, pensamento passo a passo explícito, 3 exemplos few-shot
  • Modelo origem: Claude Sonnet 4.7
  • Modelo destino: GPT-4o
  • Tarefa: classificação de intenção em mensagens de chatbot
  • Restrições: custo por 1K chamadas abaixo de US$ 0,50

Saída esperada:

Diagnóstico identifica uso intenso de XML (ótimo no Claude, aceitável no GPT mas não ótimo), "think step by step" (redundante no GPT-4o com reasoning curto via sistema). Mapa sugere converter XML em markdown estruturado com cabeçalhos, mover instruções de "sempre/nunca" para bullets numerados, trocar exemplos em XML por blocos JSON no GPT para melhor aderência ao structured output. Parâmetros: temperatura 0,2, response_format json_schema. Comparação prediz que GPT-4o será 15% mais rápido e 10% mais barato, com leve perda em seguir instruções negativas. Teste de paridade com 15 mensagens e rubrica de 4 pontos, critério de aceite de 13 de 15 no mínimo.

Variações

  • Tradução reversa (GPT para Claude): Enfatiza migração de markdown para XML tags, adição de exemplos estruturados e uso de prefill para formato de saída
  • Tradução para modelo open-source (Llama, Mistral): Adicione considerações de janela de contexto menor, simplificação de instruções e uso de system message mais curto
  • Tradução multi-destino: Gere as 3 versões simultaneamente (GPT, Claude, Gemini) com tabela comparativa e recomendação de uso por cenário