Pular para o conteúdo

9 Técnicas de prompting para te ajudar com as IAs generativas

técnicas de prompting

Afinal, você costuma ter bons resultados quando solicita algo em uma IA generativa? Será que com técnicas de prompting adequadas seus resultados poderiam ser melhores?

Utilizar técnicas de prompting permite obter não só respostas mais precisas, mas também ajuda a entender o processo lógico por trás da resposta, ampliando o potencial da interação.

É importante destacar que a documentação sobre essas técnicas está disponível em artigos acadêmicos (papers). Assim sendo, ter o hábito de ler esses arquivos é algo fundamental para se aprofundar.

Neste texto, vou compartilhar 9 técnicas essenciais para você que quer aproveitar ao máximo o ChatGPT ou outras IAs generativas. Confira!

técnicas de prompting

1. Zero-shot

Imagine que você quer perguntar algo para o ChatGPT, mas sem fornecer contextos ou exemplos; simplesmente faz a pergunta e espera uma boa resposta.

É uma técnica que permite realizar comandos diretos e, como resultado, a IA responderá usando apenas o conhecimento prévio que possui.

Para saber mais sobre Zero-shot, leia o paper: FINETUNED LANGUAGE MODELS ARE ZERO-SHOT LEARNERS.

Situações em que o Zero-shot é útil:

  • Quando você quer respostas rápidas e diretas;
  • Quando a tarefa é relativamente simples;
  • Quando quer testar o conhecimento geral do modelo;
  • Para fazer perguntas de curiosidade ou consultas rápidas;
  • Para traduzir idiomas.

“Explique o que é o efeito estufa.”

2. Few-shot

A técnica de Few-shot é um passo além do Zero-shot. Aqui, você fornece alguns exemplos para a IA entender o padrão ou o tipo de resposta que você deseja.

Essa técnica é ótima quando a tarefa é um pouco mais complexa e, antes de mais nada, você quer ter certeza de que a IA entendeu perfeitamente o que você está pedindo.

Para saber mais, leia o paper: Language Models are Few-Shot Learners.

Situações em que o Few-shot é útil:

  • Quando a tarefa é mais específica e precisa de exemplos para ser entendida;
  • Quando você quer que a resposta siga um certo estilo ou padrão;
  • Para treinar a IA em tarefas menos comuns;
  • Quando as respostas precisam ser consistentes;
  • Para tarefas que têm múltiplas interpretações possíveis.

“Crie uma metáfora sobre amizade.
Exemplo 1: ‘Amizade é como uma ponte que suporta qualquer peso.’ Exemplo 2: ‘Amizade é como uma árvore que cresce mais forte com o tempo.’
Crie uma metáfora sobre felicidade.”

3. Chain-of-thought

Com Chain-of-thought, a ideia é fazer o modelo pensar em voz alta, por assim dizer. Você instrui a IA a descrever o processo de pensamento até chegar à resposta final.

Essa é uma das técnicas de prompting que se dão melhor com questões de lógica, de modo que o resultado seja um passo a passo bem raciocinado.

Confira mais detalhes no paper: Chain-of-Thought Prompting Elicits Reasoning in Large Language Models.

Situações em que o Chain-of-thought é útil:

  • Quando o problema requer raciocínio passo a passo;
  • Para resolver problemas matemáticos;
  • Tomar decisões que precisam de justificativa;
  • Quando você quer entender como o modelo chegou à resposta;
  • Debugar códigos de programação.

“Calcule o lucro de uma loja que vendeu 150 camisetas por R$25 cada, tendo um custo de produção de R$15 por camiseta. Mostre seu raciocínio passo a passo.”

técnicas de prompting

4. Chain-of-verification

A técnica de Chain-of-verification é como ter uma segunda opinião no próprio processo de resposta do seu prompt. Faz muito sentido em IAs com acesso à internet, como o Copilot.

O modelo verifica cada passo do seu raciocínio, garantindo que não haja “alucinações” (respostas incorretas). É como uma auditoria do pensamento da IA.

Para mais informações, veja o paper: CHAIN-OF-VERIFICATION REDUCES HALLUCINATION IN LARGE LANGUAGE MODELS.

Situações em que o Chain-of-verification é útil:

  • Para evitar erros em respostas complexas;
  • Quando a precisão é fundamental certamente;
  • Para análises críticas de informações;
  • Ao trabalhar com dados sensíveis;
  • Fact-checking de informações históricas ou científicas.

“Quem foi o primeiro presidente do Brasil? Após fornecer a resposta, verifique se a informação está correta, citando fontes confiáveis.”

5. Least-to-most

Com Least-to-most, você faz o modelo resolver problemas complexos dividindo-os em partes menores e gerenciáveis.

A princípio, a IA soluciona os aspectos mais simples e vai aumentando a complexidade. É como resolver um quebra-cabeça começando pelas peças mais fáceis.

Leia mais no paper: LEAST-TO-MOST PROMPTING ENABLES COMPLEX REASONING IN LARGE LANGUAGE MODELS.

Situações em que o Least-to-most é útil:

  • Quando o problema é complicado e precisa ser simplificado;
  • Resolver problemas multifacetados;
  • Evitar que o modelo de linguagem se confunda e alucine;
  • Para guiar a IA em uma sequência lógica de raciocínio;
  • Para otimizar a precisão nas respostas de tarefas complexas.

“Explique como fazer um bolo de cenoura com cobertura de chocolate. Comece com os ingredientes necessários, depois detalhe cada etapa do preparo e, enfim, como servir e armazenar.”

6. Self-consistency

Na técnica de Self-consistency, a ideia é pedir ao modelo para gerar várias respostas e, em seguida, escolher a mais comum ou coerente.

Dentre as técnicas de prompting, essa faz com que o modelo de linguagem tome uma decisão ativa a partir de várias opções, sobretudo justificando a escolha.

Veja o paper: SELF-CONSISTENCY IMPROVES CHAIN OF THOUGHT REASONING IN LANGUAGE MODELS.

Situações em que o Self-consistency é útil:

  • Quando a precisão da resposta é importante;
  • Para reduzir a probabilidade de erros;
  • Para que obtenha a melhor resposta em casos ambíguos;
  • Quando a questão admite múltiplas respostas possíveis;
  • Tomar decisões em situações complexas.

“Gere três diferentes slogans para uma marca de tênis esportivos focada em conforto e performance. Depois, analise cada um e escolha o melhor, explicando o motivo.”

técnicas de prompt

7. Reflexion

Assim como na comunicação do dia a dia é sempre saudável pensar duas vezes antes de falar, a premissa pode ser útil para orientar o ChatGPT ou outros modelos de linguagem.

Ou seja, com o método Reflexion você permite que a IA generativa seja capaz de reflitir sobre a resposta e revise a saída gerada.

Leia mais no paper: Reflexion: Language Agents with Verbal Reinforcement Learning.

Situações em que o Reflexion é útil:

  • Quando a resposta não é óbvia de fato e precisa ser aprimorada;
  • Corrigir erros em códigos ou textos;
  • Quando a questão envolve análise crítica;
  • Com o fim de desenvolver soluções criativas;
  • Quando é preciso ajustar a resposta em diferentes etapas.

“Escreva um parágrafo sobre os benefícios do mindfulness. Em seguida, reflita sobre o que você escreveu e revise o parágrafo para tornar o texto mais persuasivo e informativo.”

8. Tree of Thought

Na técnica de Tree of Thought, o modelo explora diferentes caminhos possíveis para resolver um problema, como se fosse uma árvore de decisões.

Seria como planejar uma viagem considerando vários roteiros, a fim de explorar as possibilidades de acordo com os seus interesses.

Confira o paper: Tree of Thoughts: Deliberate Problem Solving with Large Language Models.

Situações em que o Tree of Thought é útil:

  • Avaliar planos de estudos para carreiras em Y ou em T;
  • Quando há várias abordagens possíveis para um problema;
  • A fim de planejar projetos ou estratégias;
  • Em situações que envolvem tomada de decisão;
  • Criar histórias ou enredos com vários desfechos possíveis.

“Elabore uma árvore de decisões com 20 políticas públicas que poderiam solucionar ou mitigar a situação da ‘Cracolândia’ em São Paulo. Explore diferentes abordagens.”

9. Directional Stimulus

Para finalizar esse guia de técnicas de prompting, apresento o método Directional Stimulus, que serve para indicar um caminho específico para o modelo de linguagem.

É como um GPS que direciona a rota para que o caminho seja mais produtivo e, logicamente, chegue ao seu destino sem complicações.

Para saber mais portanto, leia o paper: Guiding Large Language Models via Directional Stimulus Prompting.

Situações em que o Directional Stimulus é útil:

  • Quando você quer uma resposta em um estilo específico e personalizado;
  • Com o propósito de estimular respostas criativas dentro de certas restrições;
  • Quando há necessidade de foco em um aspecto particular;
  • Para evitar respostas vagas e genéricas;
  • Quando quer garantir consistência no tom ou conteúdo.

“Escreva uma descrição de produto para um smartphone. Use palavras que evoquem inovação e sofisticação, sem mencionar diretamente esses termos.”

técnicas de prompting

Em resumo, essas nove técnicas de prompting ajudam a obter o melhor desempenho possível ao interagir com IA generativa, ajustando e adaptando as respostas de acordo com a complexidade da tarefa e a precisão desejada.

Quer saber mais sobre IA generativa? Então descubra como o conceito de word embeddings pode ajudar em dúvidas gramaticais em um texto!

0 0 votes
Article Rating
Subscribe
Notify of
guest

2 Comentários
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
Andreisa
Andreisa
2 meses atrás

Adorei conhecer seu blog, tem muito artigos bem interessantes. Portátil vs. Instalado

⋮ Menu
× Voltar
2
0
Would love your thoughts, please comment.x
Pular para o conteúdo