Embora seja possível obter bons resultados com prompts simples, a qualidade das respostas melhora significativamente quando fornecemos mais informações e estruturamos melhor o pedido. Um prompt bem elaborado vai além de uma simples pergunta: ele pode incluir instruções claras, contexto relevante, dados de entrada e até exemplos. Esses elementos ajudam o modelo a entender exatamente o que você espera — e quanto mais preciso for o seu direcionamento, melhores serão os resultados obtidos.
Vamos começar analisando um exemplo básico de um prompt simples:
Prompt
O céu é
Saída:
azulO céu é azul em um dia claro. Em um dia nublado, o céu pode ser cinza ou branco.
Como você pode ver, o modelo de linguagem gera uma continuação de strings que fazem sentido no contexto "O céu é"
. A saída pode ser inesperada ou distante da tarefa que queremos realizar.
Este exemplo básico também destaca a necessidade de fornecer mais contexto ou instruções sobre o que especificamente queremos alcançar.
Vamos tentar melhorar um pouco:
Prompt:
Complete a sentença:O céu é
Saída:
tão lindo.
Isto é melhor? Bem, dissemos ao modelo para completar a frase para que o resultado fique muito melhor, pois segue exatamente o que dissemos para fazer ("complete a frase"). Essa abordagem de projetar prompts ideais para instruir o modelo a executar uma tarefa é chamada de engenharia de prompt.
O exemplo acima é uma ilustração básica do que é possível com LLMs hoje. Os LLMs de hoje são capazes de executar todos os tipos de tarefas avançadas que variam de resumo de texto a raciocínio matemático e geração de código.
Formatação de prompt
Tentamos um prompt muito simples acima. Um prompt padrão tem o seguinte formato:
<Pergunta>?
ou
<Instrução>
Isso pode ser formatado em um formato de resposta a perguntas (QA), que é padrão em muitos conjuntos de dados de QA, como segue:
Q: <Pergunta>?A:
Quando você faz uma solicitação direta ao modelo, sem fornecer nenhum exemplo ou explicação adicional, isso é chamado de prompt zero-shot. Nesse caso, o modelo precisa entender e responder com base apenas na instrução fornecida. Alguns modelos de linguagem avançados conseguem lidar bem com esse tipo de prompt, mas a qualidade da resposta pode variar dependendo da complexidade da tarefa e do quanto ela é conhecida pelo modelo. Em tarefas mais difíceis ou específicas, incluir exemplos costuma trazer melhores resultados
.
Dado o formato padrão acima, uma técnica popular e eficaz para solicitação é chamada de prompt de poucos tiros, onde fornecemos exemplos (ou seja, demonstrações). Os prompts de poucos tiros podem ser formatados da seguinte maneira:
<Pergunta>?<Resposta><Pergunta>?<Resposta><Pergunta>?<Resposta><Pergunta>?
A versão do formato QA ficaria assim:
Q: <Pergunta>?A: <Resposta>Q: <Pergunta>?A: <Resposta>Q: <Pergunta>?A: <Resposta>Q: <Pergunta>?A:
Lembre-se de que não é necessário usar o formato QA. O formato do prompt depende da tarefa em mãos. Por exemplo, você pode executar uma tarefa de classificação simples e fornecer exemplares que demonstrem a tarefa da seguinte forma:
Prompt:
Isso é incrível! // PositivoIsto é mau! // NegativoUau, esse filme foi radical! // PositivoQue espetáculo horrível! //
Saída:
Negativo
Os prompts de poucos tiros permitem o aprendizado no contexto, que é a capacidade dos modelos de linguagem de aprender tarefas dadas algumas demonstrações.
Share this post