Logo Passei Direto
Buscar

Guia Completo de Engenharia de Prompts para IA (1)

User badge image
Dulce

em

Material
páginas com resultados encontrados.
páginas com resultados encontrados.

Prévia do material em texto

Guia Completo 
de Engenharia de 
Prompts para IA 
Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
 
 
1 
Sumário 
Sumário .............................................................................................................................. 1 
Guia Completo de Engenharia de Prompts para IA – Introdução ............................................. 2 
A Importância da Engenharia de Prompts .......................................................................... 2 
Tokens ................................................................................................................................ 4 
Como a Medição Varia ...................................................................................................... 4 
Limites de Tokens e suas Implicações ............................................................................... 4 
Modificadores de Prompts ................................................................................................... 5 
Propósito e Funcionamento .............................................................................................. 5 
Exemplos de Uso e Categorias .......................................................................................... 6 
Definição de Persona ........................................................................................................... 7 
Como a Persona ou o Papel Influencia a Resposta da IA ..................................................... 7 
Exemplos Práticos ............................................................................................................ 8 
Limitações e Cuidados ..................................................................................................... 8 
Prompt Chaining – (Prompts Encadeados) ............................................................................ 9 
Propósito e Vantagens do Prompt Chaining ....................................................................... 9 
Como Aplicar o Prompt Chaining .................................................................................... 10 
Alucinações em uma IAG ................................................................................................... 11 
Por Que as Alucinações Ocorrem? .................................................................................. 11 
Como Minimizar as Alucinações ..................................................................................... 11 
Memória no LLM ................................................................................................................ 13 
Como Funciona a Memória no ChatGPT .......................................................................... 13 
Exemplos de Como a Memória Atua ............................................................................ 13 
Controle do Usuário sobre a Memória no ChatGPT ....................................................... 13 
Memória e Limitações de Contexto em outros Modelos (Gemini, Claude, JanitorAI) .......... 14 
Softskills Aplicadas à IAG ................................................................................................... 15 
Importância da Criatividade na Interação com a IAG ........................................................ 15 
Importância do Pensamento Crítico na Interação com a IAG ............................................ 16 
RAG .................................................................................................................................. 16 
Como a RAG Funciona .................................................................................................... 17 
Importância para a Precisão da IA ................................................................................... 17 
Desafios ............................................................................................................................ 18 
Referências ....................................................................................................................... 20 
 
 Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
2 
Guia Completo de Engenharia de Prompts para IA – 
Introdução 
A engenharia de prompts é uma disciplina relativamente nova – e fundamental – que se 
dedica a desenvolver e otimizar as instruções fornecidas aos modelos de Inteligência 
Artificial (IA), como os grandes modelos de linguagem (LLMs), para obter resultados mais 
precisos, relevantes e úteis. Em sua essência, a engenharia de prompts é a arte e a ciência 
de estruturar ou criar uma instrução em linguagem natural que orienta um modelo de 
IA a realizar uma tarefa específica ou a gerar uma saída desejada. Essa instrução pode ser 
uma consulta, um comando ou uma declaração maior que inclui contexto, diretrizes e 
histórico de conversação. Nesse contexto, para modelos de texto-para-imagem ou texto-
para-áudio, um prompt é uma descrição da saída desejada, como uma foto de alta 
qualidade de um astronauta andando a cavalo, por exemplo. 
É importante mencionar que não se trata apenas de pedir algo a um chatbot, mas de 
estruturar o pedido para que a IA entenda o contexto, o objetivo e a profundidade da 
resposta esperada. Assim, um prompt eficaz direciona a IA a produzir resultados 
precisos, relevantes e personalizados, e essa habilidade envolve a formulação cuidadosa 
de instruções textuais para otimizar o comportamento e as respostas dos modelos, sem a 
necessidade de modificar sua estrutura interna. 
A Importância da Engenharia de Prompts 
• Melhoria da qualidade e da precisão das respostas: prompts bem construídos 
são cruciais para a eficiência e a precisão das respostas geradas pelos modelos de 
IA. Eles guiam o modelo a entender a intenção do usuário e fornecer respostas 
úteis, impactando diretamente a qualidade da interação humano-máquina. Ao 
fornecer mais detalhes e dados específicos em um prompt, a chance de o modelo 
"alucinar" (isto é, gerar informações falsas ou inventadas) é significativamente 
reduzida; 
• Otimização do desempenho e do uso de recursos: profissionais focam em 
otimizar prompts para maximizar a eficiência dos sistemas de IA, o que reduz o uso 
de recursos computacionais, minimiza custos e melhora a performance de 
aplicações como chatbots e assistentes virtuais; 
Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
 
 
3 
• Habilidade essencial no uso da IA: a engenharia de prompts é vista como uma 
habilidade vital para maximizar o potencial dos modelos de linguagem. Ela se 
tornou uma competência fundamental em diversas áreas, como Marketing, 
Educação, Recursos Humanos e Direito, pois permite criar comandos claros e 
detalhados, ajustando as instruções conforme necessário; 
• Economia de tempo e aumento da eficiência: para empreendedores, a 
engenharia de prompts oferece a automação de tarefas repetitivas (como redação 
de e-mails e relatórios), a geração de insights estratégicos a partir de grandes 
volumes de dados e a melhoria da comunicação interna e externa. Estudos 
mostram que desenvolvedores podem completar tarefas de codificação até duas 
vezes mais rápido com prompts bem elaborados, e a qualidade de pesquisas 
complexas pode aumentar em 28%, com a rastreabilidade das respostas 
melhorando em 50%; 
• Flexibilidade e adaptação: permite adaptar modelos a domínios específicos ao 
fornecer contexto relevante nos prompts, sem a necessidade de “retreinamento”. 
Isso é útil para lidar com informações externas, como documentos recuperados; 
• Preservação do conhecimento geral do modelo: ao contrário do fine-tuning, que 
pode causar “esquecimento catastrófico” (perda de conhecimento geral 
resultante da especialização em uma tarefa), a engenharia de prompts mantém as 
amplas capacidades do modelo, permitindo que ele continue acessando todo o 
seu conhecimento enquanto se adapta às necessidades específicas da tarefa; 
• Transparência e depuração: prompts são legíveis por humanos, o queaumenta a 
transparência e facilita a compreensão e depuração. Em técnicas como 
encadeamento de prompts, a rastreabilidade completa permite identificar e 
corrigir problemas específicos em cada etapa do processo; 
• Base para avanços futuros: o campo da engenharia de prompts está em 
constante evolução, com novas técnicas e melhores práticas surgindo 
regularmente. Espera-se que esse avanço leve a uma interação mais intuitiva e 
eficaz entre humanos e máquinas, incluindo a personalização de modelos, 
modelos multimodais (texto, imagem, áudio) e a integração com outras 
tecnologias. 
 
 Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
4 
Tokens 
Em Inteligência Artificial Generativa (IAG), um token é a menor unidade de informação 
que o modelo processa ao interpretar e gerar texto. Em vez de analisar frases inteiras, 
modelos de IA, como o ChatGPT, “quebram” o texto em tokens para facilitar o 
processamento. Os tokens podem ser: 
• Palavras inteiras; 
• Partes de palavras; 
• Símbolos. 
Como a Medição Varia 
A forma como o conteúdo é convertido em tokens pode variar significativamente, 
dependendo do grande modelo de linguagem (LLM) utilizado. Por exemplo: 
• A frase “Eu adoro tecnologia” seria dividida em 3 tokens no GPT-4o; 
• Essa mesma frase seria dividida em 5 tokens no GPT 3.5 ou maior ou, ainda, no 
Google Gemini. 
Isso ocorre porque palavras mais longas ou complexas podem ser divididas em vários 
tokens, enquanto palavras curtas podem ser processadas como um único token. 
Limites de Tokens e suas Implicações 
Os modelos de IA também têm limites de tokens para armazenar o histórico da conversa e 
processar informações. Esses limites variam entre os modelos, por exemplo: 
• O GPT-3.5 tem um limite de cerca de 4.096 tokens para o histórico da conversa; 
• O GPT-4o pode considerar até 128.000 tokens (aproximadamente 96.000 palavras); 
• O Gemini Pro oferece uma janela de contexto ainda maior, suportando até 2 milhões de 
tokens (1,5 milhão de palavras), sendo ideal para tarefas que exigem grandes contextos. 
No entanto, a versão gratuita do Gemini pode limitar os prompts a 10 mil caracteres, o 
que pode restringir o uso em tarefas mais complexas. 
A compreensão desses limites e da forma como os tokens são medidos é importante, pois o 
encadeamento de prompts (ou prompt chaining) é uma técnica que pode ajudar a contornar os 
Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
 
 
5 
limites de tokens e contexto, permitindo que o modelo trabalhe com maiores volumes de 
informação sequencialmente. Para os modelos GPT da OpenAI, você pode usar a ferramenta 
Tokenizer para converter texto em palavras e vice-versa, em diferentes modelos. 
Modificadores de Prompts 
Modificadores de prompt são termos estratégicos que podem ser incluídos nos 
prompts para ajustar o estilo, o nível de detalhe e o tom da resposta gerada pela 
Inteligência Artificial (IA). Esses termos são essenciais para direcionar a IA a fornecer 
respostas mais personalizadas, adaptadas ao contexto e ao objetivo da interação. 
Geralmente, os modificadores são adjetivos, advérbios ou expressões que definem a 
qualidade ou o foco da resposta desejada. 
Propósito e Funcionamento 
Os modificadores de prompt são utilizados para refinar a comunicação com os modelos 
de IA, garantindo que a saída seja mais precisa e alinhada às expectativas do usuário. Eles 
permitem que o usuário especifique características como: 
• Nível de detalhe: essa característica determina se a resposta deve ser minuciosa 
ou concisa. Por exemplo, o modificador “detalhado” solicita uma resposta que 
aborde o máximo de aspectos de forma pormenorizada, enquanto o “sintético” 
pede um resumo objetivo, focado nos pontos principais; 
• Tom: corresponde à emoção ou atitude que o texto deve transmitir (ex.: otimista, 
pessimista, humorístico, sério); 
• Estilo: é a maneira única de usar palavras e estruturar frases (ex.: narrativo, 
persuasivo, descritivo); 
• Vocabulário: referente ao conjunto específico de palavras e frases (ex.: técnico, 
coloquial, jornalístico); 
• Personalidade: é a emulação de estilo, tom e vocabulário de uma figura específica 
(ex.: um economista, um professor de História). 
 Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
6 
Exemplos de Uso e Categorias 
Os modificadores podem ser aplicados em diversos contextos e setores, adaptando a 
resposta da IA a necessidades específicas. Veja, a seguir, alguns exemplos práticos, 
aplicados a diferentes áreas. 
• Marketing: uso de modificadores como “Extensiva”, para campanhas 
abrangentes, “Favorável”, para destacar benefícios, ou “Inovador”, para promover 
produtos criativos. 
o Exemplo: “Explique, de forma detalhada, os impactos da Inteligência 
Artificial na saúde mental”; 
• Recursos Humanos: utilização de termos como “Eficiente”, para otimizar 
processos, ou “Imparcial”, para realizar avaliações objetivas; 
• Educação: emprego de modificadores como “Progressivo”, para currículos, ou 
“Prático”, para focar na aplicação de conhecimentos; 
• Direito: uso de “Realista”, para análises jurídicas baseadas em fatos, ou “Crítico”, 
para abordar falhas em contratos; 
• Inovação e desenvolvimento de produtos: uso de “Exploratório”, para analisar 
novas possibilidades, ou “Futurista”, para discutir novas tecnologias; 
• Gestão de Projetos: aplicação de “Completo”, para cobrir todas as partes de um 
projeto, ou “Acelerado”, para entregas rápidas; 
• Consultoria e Estratégia Empresarial: utilização de “Contextual”, para análises 
adaptadas ao mercado, ou “Significativo”, para enfatizar aspectos fundamentais 
da estratégia; 
• Análise de riscos e finanças: uso de “Pessimista”, para avaliar cenários de risco, 
ou “Conservador”, para uma abordagem cautelosa em investimentos; 
• Ciência e pesquisa: emprego de “Teórico”, para discussões baseadas em 
frameworks acadêmicos, ou “Empírico”, para abordagens baseadas em 
evidências; 
• Comunicação e mídia: utilização de “Contrário”, para discutir pontos de vista 
alternativos, ou “Imparcial”, para análises objetivas em reportagens; 
Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
 
 
7 
• Sustentabilidade e responsabilidade social: uso de “Sustentável”, para práticas 
de negócios responsáveis, ou “Desastroso”, para destacar consequências 
negativas. 
Em suma, ao usar modificadores, o usuário tem maior controle sobre a saída da IA. Isso 
torna as interações mais eficazes e os resultados mais relevantes. 
Definição de Persona 
A definição de uma “persona” ou um “papel” no prompt é uma técnica poderosa que 
influencia diretamente a forma como a Inteligência Artificial (IA) gera suas respostas, 
tornando-as mais alinhadas às suas expectativas e ao contexto desejado. Essa técnica 
envolve instruir o modelo a emular o estilo, o tom e o vocabulário de uma figura 
específica, a qual pode ser: 
• Um profissional de uma área (como um economista, um CEO experiente em 
startups de tecnologia, um professor de História, um especialista em mídias 
sociais, um jornalista, um auditor fiscal etc.); 
• Um personagem conhecido; 
• Um arquétipo (como um especialista ou um influenciador). 
Como a Persona ou o Papel Influencia a Resposta da IA 
Ao definir uma persona ou um papel, você orienta a IA a: 
• Adotar um estilo de escrita específico: o modelo irá adaptar sua linguagem e 
estrutura para se assemelhar à persona escolhida. Por exemplo, pode-se pedir 
para ele escrever em um estilo casual, formal, humorístico, sério, impessoal, 
empático, didático, cínico, otimista, pessimista, animado, reservado, enérgico, 
passivo, encorajador, crítico, curioso ou afetuoso; 
• Definir o tom da resposta: a IA ajustará a atitude ou emoção transmitida no texto, 
como um tom profissional e amigável para uma mensagem de vendas ou um tom 
formal para um relatório corporativo; 
• Utilizar vocabulário e jargões adequados: o modelo empregará termos eexpressões comuns à profissão ou ao personagem emulado. Isso influencia a 
profundidade e a escolha de palavras na resposta gerada; 
 Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
8 
• Influenciar a profundidade e os detalhes: ao pedir que a IA atue como um(a) 
“especialista”, ela tenderá a fornecer informações mais aprofundadas e 
detalhadas sobre o tópico; 
• Manter um padrão de comunicação consistente: essa função é particularmente 
útil para conteúdos que precisam seguir um padrão de comunicação específico, 
como a criação de campanhas de marketing ou textos corporativos. 
Exemplos Práticos 
• Ao solicitar “Escreva como um economista, explicando as tendências do 
mercado financeiro para leigos”, a IA utilizará uma linguagem acessível para 
desmistificar conceitos complexos da Economia; 
• Um prompt como “Eu quero que você crie uma proposta de negócios no estilo 
de um CEO experiente em startups de tecnologia” fará com que a IA adote um 
tom estratégico e visionário, adequado a esse perfil; 
• “Responda como um professor de História, detalhando os impactos da 
Revolução Industrial” levará a uma resposta com linguagem didática e focada em 
eventos históricos; 
• No recrutamento, adotar a persona de um “Analista de Recrutamento, 
especializado em [Área ou Segmento], buscando preencher o cargo de [Nome 
do Cargo]” ajuda a IA a gerar requisitos e planos de recrutamento mais precisos. 
Limitações e Cuidados 
É importante notar que, ao tentar emular pessoas famosas, cujos conteúdos e ideias 
não estão amplamente disponíveis on-line, a IA pode “alucinar”, ou seja, gerar 
informações inventadas ou imprecisas que podem não ter relação com o objetivo 
original do usuário. Por exemplo, pedir para a IA imitar Elon Musk avaliando uma startup ou 
Warren Buffet recomendando investimentos pode resultar em respostas sem base real, se 
não houver material suficiente em seu treinamento para direcioná-la com precisão. 
Em resumo, a definição de uma persona ou de um papel é uma técnica de engenharia de 
prompt que permite personalizar e direcionar a saída da IA adaptando-a a um estilo, tom 
e vocabulário específicos. Isso resulta em respostas mais precisas, relevantes e úteis para 
a tarefa em questão. 
Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
 
 
9 
Prompt Chaining – (Prompts Encadeados) 
Prompt chaining (ou encadeamento de prompts) é uma técnica avançada de engenharia 
de prompts que consiste em encadear múltiplos prompts em sequência, de modo que 
a saída de um prompt se torne a entrada do prompt seguinte. Neste caso, em vez de tentar 
abordar uma tarefa complexa em um único prompt “gigante”, essa técnica “quebra” a 
tarefa em etapas menores e, portanto, mais gerenciáveis. 
Cada prompt dentro da cadeia tem um objetivo específico e bem definido, e o modelo de 
linguagem (como o GPT-4 ou 5, Gemini, Claude, Perplexity ou outros LLMs) resolve cada 
etapa sequencialmente até atingir o resultado desejado. O modelo “aprende” o contexto 
de cada etapa e as relações entre elas, gerando um texto final coerente, consistente e rico 
em contexto. 
Propósito e Vantagens do Prompt Chaining 
O prompt chaining é utilizado para driblar as limitações de um prompt único e 
monolítico, que pode resultar em saídas confusas, incompletas ou fora de contexto. Ao 
dividir a interação em vários prompts, os benefícios são numerosos: 
• Mais foco e precisão: cada subprompt direciona o modelo a uma tarefa pontual, 
o que aumenta a ênfase em cada etapa, reduzindo erros e levando a respostas 
mais precisas e relevantes para cada parte do problema. Isso garante que o modelo 
se concentre 100% em cada objetivo separado, melhorando a qualidade geral da 
saída; 
• Controle e transparência: com prompts encadeados, é possível visualizar o passo 
a passo da solução, o que proporciona transparência e rastreabilidade ao 
processo. Em resumo, é mais fácil identificar em qual etapa um erro pode ter 
ocorrido, depurar e ajustar cada uma delas individualmente, aumentando, assim, 
a confiabilidade; 
• Redução de complexidade e erros: a divisão de uma solicitação complexa em 
partes mais simples diminui a chance de mal-entendidos por parte da IA. Isso reduz 
a carga cognitiva sobre o modelo, facilitando a compreensão exata do que é 
desejado e, consequentemente, diminuindo erros ou respostas sem sentido; 
 Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
10 
• Superação de limites de contexto: o encadeamento de prompts permite 
contornar os limites de tokens e contexto que os modelos de IA conseguem 
processar de uma vez. Ao dividir um documento muito longo, por exemplo, em 
partes para análise sequencial, é possível trabalhar com volumes maiores de 
informação sem perder o objetivo final; 
• Clareza e manutenibilidade: para equipes de desenvolvimento, o prompt chaining 
torna as instruções mais fáceis de entender e manter. Desse modo, prompts 
menores e bem direcionados são mais simples de escrever, testar e aprimorar ao 
longo do tempo, facilitando a colaboração; 
• Resultados mais completos e refinados: pesquisas indicam que o prompt chaining 
tende a produzir resultados mais completos e refinados em comparação com a 
abordagem de um único prompt, mesmo quando este último é muito detalhado. 
Como Aplicar o Prompt Chaining 
A aplicação do prompt chaining envolve um processo de planejamento e experimentação. 
Observe: 
1. Definir claramente o objetivo final: pensar em qual é o problema a ser resolvido; 
2. Dividir o problema em subtarefas lógicas: “quebrar” o objetivo em etapas 
menores e manejáveis, que façam sentido sequencialmente; 
3. Desenhar os prompts para cada etapa: escrever prompts claros e diretos para cada 
subtarefa, garantindo que a saída de um prompt, muitas vezes formatada de forma 
estruturada (como JSON ou lista numerada), esteja pronta para alimentar o próximo; 
4. Orquestrar a sequência e integrar ao código: coordenar as chamadas à API do 
modelo, garantindo que cada prompt rode na ordem correta, utilizando 
ferramentas como LangChain para facilitar a orquestração; 
5. Testar etapa por etapa: executar a cadeia e avaliar os resultados intermediários 
para ajustar prompts específicos, se necessário; 
6. Iterar e refinar: ajustar continuamente os prompts, adicionar exemplos (few-shot 
prompting) ou modificar a decomposição das subtarefas para aprimorar os 
resultados. 
Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
 
 
11 
Essa técnica permite automatizar tarefas criativas e analíticas, possibilitando fluxos de 
trabalho inteligentes e altamente personalizados. 
Alucinações em uma IAG 
Em Inteligência Artificial Generativa (IAG), alucinação ocorre quando o modelo gera uma 
resposta aparentemente plausível, mas que não é baseada em fatos verificáveis (isso 
pode incluir informações falsas, inventadas ou distorcidas). Modelos como o ChatGPT 
priorizam a plausibilidade linguística, ou seja, a coerência da resposta em termos de 
forma, em vez de garantir que ela seja verdadeira ou precisa. 
Por Que as Alucinações Ocorrem? 
Modelos de IA, como ChatGPT, Gemini, Claude, entre outros, preveem a próxima palavra, 
ou sequência de palavras, com base em uma vasta base de dados, mas não têm um 
entendimento real do mundo, isto é, eles não verificam ativamente as informações que 
fornecem. Por isso, quando confrontados com lacunas em seu conhecimento, ou quando 
não há dados suficientes para sustentar uma resposta, os modelos tendem a preencher 
essas lacunas com informações que “soam” corretas, mas que não contam com uma 
base factual. Essa característica reflete a natureza probabilística dos modelos, que são 
treinados para gerar texto fluente, mas sem uma verificação direta de fatos. 
As alucinações são mais comuns quando o modelo é solicitado a responder perguntas 
sobre temas muito específicos, com pouca cobertura nas fontes de dados utilizadas em 
seu treinamento. Mesmo em modelosavançados, como o GPT-4o e o1-preview, essa 
limitação ainda está presente, embora em níveis mais baixos. 
Como Minimizar as Alucinações 
Embora não seja possível eliminar completamente as alucinações, a engenharia de 
prompts desempenha um papel fundamental em minimizá-las. Algumas estratégias 
incluem: 
• Usar prompts específicos e baseados em fatos: quanto mais detalhes e dados 
específicos você incluir em um prompt, menor a chance de o modelo alucinar. Para 
isso, é importante fornecer informações contextuais claras e evitar deixar lacunas 
que o modelo possa tentar “preencher”. Por exemplo, em vez de incluir um prompt 
 Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
12 
genérico como “Explique a história da Revolução Industrial”, uma alternativa mais 
eficiente seria “Explique a história da Revolução Industrial na Inglaterra, 
detalhando o impacto da máquina a vapor e da indústria têxtil entre os anos de 
1760 e 1840. Cite fontes históricas conhecidas e descreva o papel de figuras como 
James Watt”; 
• Solicitar respostas justificadas: pedir para o modelo explicar o raciocínio por trás 
de sua resposta pode ajudar a detectar possíveis incoerências. Frases como 
“Justifique sua resposta com fatos” ou “Explique o processo por trás dessa 
conclusão” podem forçar o modelo a expor falhas ou incertezas no raciocínio; 
• Usar fontes confiáveis: sempre que possível, forneça fontes externas ou dados 
precisos diretamente no prompt para que o modelo possa utilizá-los como base 
para suas respostas. É possível carregar documentos diretamente no ChatGPT, 
Claude, Gemini, Perplexity e outros, para garantir que o conteúdo gerado seja 
baseado em informações confiáveis; 
• Utilizar a técnica de Geração Aumentada por Recuperação (Retrieval-
Augmented Generation, ou RAG): essa técnica permite que a IA acesse dados 
atualizados e confiáveis de fontes externas (como internet ou documentos 
anexados) para complementar suas respostas, resolvendo a limitação de modelos 
treinados com conhecimento limitado a uma data específica. A RAG ajuda a reduzir 
as alucinações ao forçar o modelo a “ater-se aos fatos” obtidos de fontes externas. 
Para usar RAG no ChatGPT, Claude, Gemini, Perplexity e outros, é geralmente 
necessário ter a versão paga dos serviços; 
• Monitorar a coerência em iterações prolongadas: em ciclos longos de iterações, 
como na técnica Optimize Prompt Refinement Over Iterations (Otimização do 
Aprimoramento de Prompts por Iteração, ou OPRO), há risco de alucinações. É 
crucial, por esse motivo, monitorar a coerência em cada resposta e, se a IA 
apresentar informações desconexas ou inventadas, considerar reiniciar o 
processo com um prompt mais completo, mantendo clareza e foco nas iterações. 
Em resumo, a alucinação é uma limitação dos modelos de IA generativa, em que a 
plausibilidade textual é priorizada sobre a veracidade. Contudo, com técnicas de 
engenharia de prompt bem aplicadas, é possível mitigar significativamente esse risco e 
obter resultados mais confiáveis e precisos. 
Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
 
 
13 
Memória no LLM 
Em Inteligência Artificial Generativa (IAG), a funcionalidade de memória refere-se à 
capacidade de um modelo de IA de lembrar detalhes de interações anteriores para 
tornar as conversas futuras mais personalizadas e eficientes. Isso elimina a necessidade 
de repetir informações constantemente, resultando em uma experiência de uso mais 
fluida e customizada. 
Como Funciona a Memória no ChatGPT 
No caso do ChatGPT, Gemini, Claude e outros, a funcionalidade de memória foi lançada 
em fevereiro de 2024 e liberada para todos os usuários em setembro de 2024. Ela atua de 
forma contínua, capturando detalhes que você menciona durante suas conversas e 
armazenando essas informações para uso futuro. Vamos, a seguir, focar no ChatGPT. 
Exemplos de Como a Memória Atua 
• Se você expressar preferência por resumos de reuniões, com tópicos principais e 
ações resumidas no final, o ChatGPT lembrará dessa preferência e a aplicará em 
futuras solicitações de resumos; 
• Se você mencionar que administra um restaurante, o ChatGPT poderá usar essa 
informação para ajudar a criar posts personalizados para sua empresa; 
• A memória pode armazenar preferências de formatação, estilo ou até mesmo 
detalhes pessoais, como a idade de um filho ou o tipo de música que você gosta. 
• Esse processo é progressivo: quanto mais você interage com o ChatGPT, mais 
refinadas e ajustadas às suas preferências serão as respostas. 
Controle do Usuário sobre a Memória no ChatGPT 
O usuário tem controle total sobre a funcionalidade de memória. Ele pode: 
• Desativar ou ativar: é possível desativar a memória a qualquer momento nas 
configurações (Configurações > Personalização > Memória). Com ela desativada, 
o ChatGPT não armazenará nenhuma informação de suas conversas, por exemplo; 
• Gerenciar memórias específicas: o ChatGPT informa quando algo novo é 
armazenado na memória. Você pode visualizar essas atualizações (clicando em 
 Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
14 
‘Memória atualizada’) e gerenciar o que foi armazenado, com a opção de excluir 
memórias específicas ou limpar todas de uma vez (Configurações > 
Personalização > Gerenciar); 
• Chat temporário: para garantir total privacidade, há a opção de usar o “chat 
temporário”. Nesse modo, nenhuma memória é utilizada e seus dados não são 
compartilhados com o sistema para treinar novos modelos. Informações sensíveis, 
como detalhes de saúde, só são lembradas se você solicitar expressamente que o 
ChatGPT memorize-as. 
Memória e Limitações de Contexto em outros Modelos (Gemini, 
Claude, JanitorAI) 
A capacidade de memória ou de reter contexto é uma característica intrínseca dos grandes 
modelos de linguagem (LLMs), incluindo Gemini e Claude. No entanto, essa capacidade é 
limitada pela janela de contexto do modelo, que é a quantidade máxima de tokens que a 
IA consegue processar de uma vez em uma conversa. 
• ChatGPT: o GPT-3.5 tem um limite de cerca de 4.096 tokens para armazenar o 
histórico da conversa, enquanto o GPT-4o considera até 128.000 tokens 
(aproximadamente 96.000 palavras). Para evitar que o modelo esqueça 
informações importantes em conversas longas, é recomendado relembrá-lo de 
elementos cruciais em prompts subsequentes; 
• Google Gemini: o Gemini Pro tem uma janela de contexto muito maior, suportando 
até 2 milhões de tokens (o equivalente a 1,5 milhão de palavras), o que o torna ideal 
para tarefas que exigem grandes contextos. A versão gratuita do Gemini, no 
entanto, limita os prompts a 10 mil caracteres, o que pode restringir o uso em 
tarefas mais complexas, que pedem mais informações; 
• Claude: embora não seja detalhada a funcionalidade de memória para o Claude, 
ele é mencionado como um dos concorrentes do ChatGPT e um LLM que ensina a 
usar as mesmas habilidades de prompts. Sendo um LLM, ele também opera com 
uma janela de contexto para lembrar informações; 
• JanitorAI: em plataformas como JanitorAI, que utilizam LLMs, a funcionalidade de 
“prompts avançados” e “memória do chat” permite que o usuário insira 
informações importantes para que o bot lembre-se delas e as utilize para guiar suas 
Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
 
 
15 
respostas, mantendo a personalidade do personagem. Isso é crucial para que ele 
não “saia do seu papel”. 
Em suma, a funcionalidade de memória nos modelos de IA generativa é vital para 
personalização e coerência nas interações. Apesar disso, essa memória está sempre 
sujeita aos limites da janela de contexto de cada modelo, o que exige do usuário a 
habilidade de refinar e, se necessário, reiniciar a interação com o contexto completo. 
Softskills Aplicadas à IAG 
As softskills, como criatividade e pensamento crítico, são essenciais para o uso eficaz 
da Inteligência Artificial Generativa (IAG). Essashabilidades humanas complementam 
as capacidades da IA, garantindo que a interação seja mais produtiva e que os resultados 
gerados sejam de alta qualidade, precisos e relevantes. 
Importância da Criatividade na Interação com a IAG 
A criatividade é fundamental para maximizar o potencial das ferramentas de IAG. Ela 
permite ao usuário: 
• Definir os limites das habilidades da IA: é a capacidade humana de imaginar que 
possibilita a formulação de perguntas e propostas mais elaboradas e 
completas, direcionando o processo de cocriação com a IA; 
• Gerar prompts avançados: a criatividade é crucial para escrever prompts que 
orientem a IA a explorar além do esperado, gerando novas ideias, abordagens 
inovadoras ou insights que o usuário não havia considerado inicialmente; 
• Fazer conexões inesperadas: a IA, por si só, geralmente não faz conexões entre 
áreas de conhecimento muito distintas, nem adiciona experiências pessoais, 
emoções ou percepções humanas ao contexto. A criatividade humana é, pois, 
necessária para expandir as criações da IA e fornecer o comando certo, com 
contexto humano; 
• Combinar diferentes áreas do conhecimento: ao unir, por exemplo, marketing 
digital e psicologia comportamental em um prompt, a IA é orientada a cruzar 
informações e gerar respostas mais ricas e inovadoras. 
 Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
16 
Importância do Pensamento Crítico na Interação com a IAG 
O pensamento crítico é outra habilidade indispensável ao trabalhar com a IAG, uma vez 
que essas ferramentas são criativas e podem inventar nomes, fatos e dados para 
obedecer ao prompt. A responsabilidade pelo resultado recai, dessa forma, sobre o 
usuário, não sobre o algoritmo. Assim, o pensamento crítico permite: 
• Avaliar e questionar os resultados: é fundamental questionar e, se necessário, 
corrigir os fatos e dados produzidos pela IA antes de utilizá-los. Isso é crucial 
porque, embora o conteúdo gerado possa parecer plausível ou gramaticalmente 
correto, ele não é, necessariamente, verídico; 
• Identificar alucinações: a IA pode gerar respostas que parecem corretas, mas são 
falsas, inventadas ou distorcidas, especialmente em tópicos complexos ou com 
poucas fontes de dados em seu treinamento. O pensamento crítico ajuda a 
detectar essas “alucinações” e a garantir a precisão da informação; 
• Interpretar resultados e ajustar comandos: o domínio do assunto permite ao 
usuário interpretar os resultados da IA de forma crítica e ajustar os comandos 
(prompts) quando necessário, mantendo a inteligência humana no controle do 
processo; 
• Garantir a confiabilidade: o pensamento crítico é vital para assegurar que as 
informações geradas sejam confiáveis, especialmente em contextos que exigem alta 
precisão, como diagnósticos médicos, análises jurídicas ou problemas técnicos. 
Em suma, a IAG oferece um poder computacional e de geração de conteúdo sem 
precedentes. No entanto, a criatividade e o pensamento crítico humanos são os pilares 
que garantem a utilização dessa tecnologia de forma estratégica, ética e eficiente, 
transformando consultas simples em soluções complexas e insights valiosos. 
RAG 
A “Geração Aumentada por Recuperação” (RAG), do inglês Retrieval-Augmented 
Generation, é uma técnica de engenharia de prompt que combina a geração de texto por 
modelos de Inteligência Artificial com a recuperação de informações de fontes externas. 
Seu objetivo principal é garantir que a IA acesse dados atualizados e confiáveis, superando as 
limitações de modelos treinados com conhecimento restrito a uma data específica. 
Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
 
 
17 
Como a RAG Funciona 
A RAG incorpora a recuperação de informações antes que o grande modelo de linguagem 
(LLM) gere uma resposta. Em vez de depender apenas de seus dados de treinamento 
estáticos, a RAG: 
• Recupera texto relevante de bancos de dados, documentos carregados ou fontes 
da web; 
• Modifica a interação com o LLM, fazendo com que ele se refira a um conjunto 
especificado de documentos para suplementar as informações de seus dados de 
treinamento preexistentes; 
• Permite que os LLMs utilizem informações específicas e/ou atualizadas de um 
domínio. 
Essa técnica é uma das mais especializadas na engenharia de prompts. Para utilizá-la no 
ChatGPT e em outros recursos, é necessário assinar a versão paga, como o ChatGPT Plus, 
que permite buscar fontes on-line e anexar documentos diretamente. 
Importância para a Precisão da IA 
A importância da RAG para a precisão da IA reside em diversos benefícios cruciais: 
• Aumento da precisão e atualização: o principal benefício da RAG é a capacidade 
de fornecer respostas mais precisas e atualizadas, pois a IA utiliza fontes 
verificáveis e em tempo real. Isso é essencial para superar o fato de que os modelos 
de IA podem não refletir informações mais recentes, já que seu conhecimento é 
limitado à data de seu treinamento; 
• Redução de alucinações: a RAG ajuda a reduzir as alucinações da IA, que ocorrem 
quando o modelo gera respostas que parecem plausíveis, mas, em verdade, são 
inventadas ou distorcidas, e não baseadas em fatos. Ao utilizar informações de fontes 
externas, o modelo “atém-se aos fatos”, prevenindo problemas no mundo real, como 
chatbots inventando políticas ou advogados citando casos legais inexistentes; 
• Confiança nas respostas: ao fornecer informações diretamente de artigos, relatórios ou 
fontes definidas pelo usuário, a RAG assegura que os dados utilizados são verificáveis, 
aumentando a confiança nas respostas. Isso é particularmente útil em contextos que 
exigem alta confiabilidade, como decisões empresariais ou publicações científicas; 
 Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
18 
• Personalização: a RAG oferece grande personalização, permitindo que o usuário controle 
de onde os dados serão recuperados. Isso pode ser feito buscando dados na internet ou 
anexando documentos diretamente, o que proporciona maior controle e precisão no 
resultado. 
Em suma, a RAG é fundamental para que os modelos de IA, como o ChatGPT, possam 
fornecer respostas não apenas coerentes, mas também factualmente corretas e 
confiáveis. Isso é especialmente importante em cenários que exigem informações 
atualizadas ou conhecimento de domínio específico. 
Desafios 
A criação de prompts eficazes para modelos de Inteligência Artificial (IA) generativa 
apresenta diversos desafios significativos, que vão desde a formulação da instrução até as 
características intrínsecas dos próprios modelos. Os principais desafios incluem: 
• Ambiguidade e falta de clareza: um dos maiores desafios é evitar que os prompts 
sejam vagos ou ambíguos, pois isso pode levar a respostas irrelevantes, imprecisas 
ou confusas. A engenharia de prompt busca, por essa razão, refinar as interações 
para eliminar ambiguidades e melhorar a qualidade das respostas; 
• Contexto limitado: modelos de IA podem ter dificuldades em compreender 
contextos complexos, e prompts que não fornecem contexto suficiente podem 
gerar respostas inadequadas. É fundamental, assim, incluir informações 
relevantes para ajudar o modelo a entender melhor a tarefa; 
• Viés algorítmico: os modelos de linguagem são treinados em vastos conjuntos de 
dados textuais que, frequentemente, refletem os vieses presentes na sociedade. 
Isso pode resultar em respostas que perpetuam vieses de representação, associativos 
ou de confirmação. A qualidade e a representatividade dos dados de treinamento são, 
portanto, fatores-chave na introdução desses vieses; 
• Geração de conteúdo tóxico: os modelos de IA podem gerar conteúdo prejudicial, 
ofensivo ou discriminatório (como discurso de ódio ou desinformação), porque 
aprenderam padrões presentes em dados de treinamento que contêm linguagem 
tóxica e preconceituosa. Nesse sentido, definir o que constitui “conteúdo tóxico” 
também é um desafio complexo,pois pode variar cultural e socialmente; 
Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
 
 
19 
• Opacidade dos modelos de linguagem (a ‘caixa preta’ da IA): a complexidade 
dos grandes modelos de linguagem dificulta a compreensão de seus processos 
internos. Essa opacidade limita a capacidade de identificar e corrigir erros, bem 
como de garantir a confiabilidade das respostas geradas. Há um equilíbrio (trade-
off) entre interpretabilidade e desempenho, com modelos mais complexos que, 
geralmente, oferecem melhor performance, mas são mais difíceis de interpretar; 
• Alucinações: os modelos de IA podem gerar respostas que parecem plausíveis, 
mas que não são baseadas em fatos. Isso ocorre porque, como mencionado 
anteriormente, a IA prioriza a plausibilidade linguística e a coerência da resposta 
em vez de garantir a veracidade ou precisão. Alucinações são mais comuns em 
tópicos muito específicos, com pouca cobertura nas fontes de dados de 
treinamento. Ainda, tentar emular pessoas famosas sem material suficiente para 
direcionar a IA com precisão também pode levar a alucinações; 
• Sensibilidade e falta de generalização: grandes modelos de linguagem (LLMs) 
são altamente sensíveis a variações sutis na formatação, estrutura e propriedades 
linguísticas dos prompts, o que pode levar a resultados significativamente 
diferentes, mesmo com pequenas mudanças. Os princípios e as habilidades de 
engenharia de prompt dependem muito do modelo específico que está sendo 
utilizado e não são facilmente generalizáveis para todo o campo; 
• Adaptação a diferentes cenários e evolução rápida: criar prompts que 
funcionem bem em diversos cenários exige uma compreensão aprofundada do 
modelo de IA e do contexto de uso, além de experimentação contínua. O campo da 
engenharia de prompts está em constante evolução, com novas técnicas e 
melhores práticas surgindo regularmente. A própria relevância da profissão de 
engenheiro de prompt já foi questionada devido à melhoria da capacidade dos 
modelos em intuir a intenção do usuário, assim como aos treinamentos internos 
das empresas, o que demonstra a natureza dinâmica e desafiadora da área. 
 Guia Completo de Engenharia de Prompts para IA 
 
 
 
 
20 
Referências 
 
ALURA. Guia de estudo: engenharia de prompts e IA generativa. 23/06/2023. Disponível 
em: https://www.alura.com.br/artigos/guia-estudo-engenharia-prompts-ia-generativa. 
Acesso em: 14/08/2025. 
AZEVEDO, T. Engenharia de prompts de IA: aprenda a criar prompts eficazes. DIO, 
13/08/2024. Disponível em: https://www.dio.me/articles/engenharia-de-prompts-de-ia-
aprenda-a-criar-prompts-eficazes. Acesso em: 14/08/2025. 
FUTURECOM. Tendências da engenharia de prompt para 2025: o futuro da eficiência na 
era da IA. 11/12/2023. Disponível em: 
https://www.futurecom.com.br/pt/blog/tendencias-da-engenharia-de-prompt-para-
2025-o-futuro-da-eficiencia-na-era-da-ia. Acesso em: 14/08/2025. 
MELO, V. Os desafios da engenharia de prompts. DIO, 14/08/2024. Disponível em: 
https://www.dio.me/articles/os-desafios-da-engenharia-de-prompts. Acesso em: 
14/08/2025. 
MORAES, L. Os 3 níveis de prompts: básico, intermediário e avançado. LinkedIn, 
10/03/2024. Disponível em: https://www.linkedin.com/pulse/os-3-n%C3%ADveis-de-
prompts-b%C3%A1sico-intermedi%C3%A1rio-e-avan%C3%A7ado-moraes-s5wxf/. 
Acesso em: 14/08/2025. 
PEREIRA, V. Prompt engineering: melhores práticas para IA eficiente. RDD10, 18/04/2024. 
Disponível em: https://rdd10.com.br/prompt-engineering/. Acesso em: 14/08/2025. 
REDDIT. Prompts avançados para LLM. 2023. Disponível em: 
https://www.reddit.com/r/JanitorAI_Official/comments/16g417l/prompts_avan%C3%A7a
dos_para_llm/. Acesso em: 14/08/2025. 
ROCKETSEAT. Prompt chaining: automações inteligentes e fluxos de trabalho 
imbatíveis!, 24/07/2024. Disponível em: https://www.rocketseat.com.br/blog/prompt-
chaining. Acesso em: 14/08/2025. 
SARAVIA, E. et al. Guia de engenharia prompt. DAIR.AI, 2024. Disponível em: 
https://www.promptingguide.ai/pt. Acesso em: 14/08/2025. 
SCRIBD. ChatGPT do zero aos prompts avançados (nova edição – outubro, 2024). 
2024. Disponível em: https://pt.scribd.com/document/733842149/ChatGPT-Do-Zero-
aos-Prompts-Avancados-nova-edicao-outubro-2024. Acesso em: 14/08/2025. 
WIKIPEDIA. Engenharia de prompt. 2024. Disponível em: 
https://pt.wikipedia.org/wiki/Engenharia_de_prompt. Acesso em: 14/08/2025. 
 
https://www.google.com/search?q=https://www.alura.com.br/artigos/guia-estudo-engenharia-prompts-ia-generativa
https://www.dio.me/articles/engenharia-de-prompts-de-ia-aprenda-a-criar-prompts-eficazes
https://www.dio.me/articles/engenharia-de-prompts-de-ia-aprenda-a-criar-prompts-eficazes
https://www.google.com/search?q=https://www.futurecom.com.br/pt/blog/tendencias-da-engenharia-de-prompt-para-2025-o-futuro-da-eficiencia-na-era-da-ia
https://www.google.com/search?q=https://www.futurecom.com.br/pt/blog/tendencias-da-engenharia-de-prompt-para-2025-o-futuro-da-eficiencia-na-era-da-ia
https://www.dio.me/articles/os-desafios-da-engenharia-de-prompts
https://www.google.com/search?q=https://www.linkedin.com/pulse/os-3-n%25C3%25ADveis-de-prompts-b%25C3%25A1sico-intermedi%25C3%25A1rio-e-avan%25C3%25A7ado-moraes-s5wxf/
https://www.google.com/search?q=https://www.linkedin.com/pulse/os-3-n%25C3%25ADveis-de-prompts-b%25C3%25A1sico-intermedi%25C3%25A1rio-e-avan%25C3%25A7ado-moraes-s5wxf/
https://www.google.com/search?q=https://rdd10.com.br/prompt-engineering/
https://www.google.com/search?q=https://www.reddit.com/r/JanitorAI_Official/comments/16g417l/prompts_avan%25C3%25A7ados_para_llm/
https://www.google.com/search?q=https://www.reddit.com/r/JanitorAI_Official/comments/16g417l/prompts_avan%25C3%25A7ados_para_llm/
https://www.google.com/search?q=https://www.rocketseat.com.br/blog/prompt-chaining
https://www.google.com/search?q=https://www.rocketseat.com.br/blog/prompt-chaining
https://www.promptingguide.ai/pt
https://www.google.com/search?q=https://pt.scribd.com/document/733842149/ChatGPT-Do-Zero-aos-Prompts-Avancados-nova-edicao-outubro-2024
https://www.google.com/search?q=https://pt.scribd.com/document/733842149/ChatGPT-Do-Zero-aos-Prompts-Avancados-nova-edicao-outubro-2024
https://www.google.com/search?q=https://pt.wikipedia.org/wiki/Engenharia_de_prompt

Mais conteúdos dessa disciplina