Prévia do material em texto
Guia Completo de Engenharia de Prompts para IA Guia Completo de Engenharia de Prompts para IA 1 Sumário Sumário .............................................................................................................................. 1 Guia Completo de Engenharia de Prompts para IA – Introdução ............................................. 2 A Importância da Engenharia de Prompts .......................................................................... 2 Tokens ................................................................................................................................ 4 Como a Medição Varia ...................................................................................................... 4 Limites de Tokens e suas Implicações ............................................................................... 4 Modificadores de Prompts ................................................................................................... 5 Propósito e Funcionamento .............................................................................................. 5 Exemplos de Uso e Categorias .......................................................................................... 6 Definição de Persona ........................................................................................................... 7 Como a Persona ou o Papel Influencia a Resposta da IA ..................................................... 7 Exemplos Práticos ............................................................................................................ 8 Limitações e Cuidados ..................................................................................................... 8 Prompt Chaining – (Prompts Encadeados) ............................................................................ 9 Propósito e Vantagens do Prompt Chaining ....................................................................... 9 Como Aplicar o Prompt Chaining .................................................................................... 10 Alucinações em uma IAG ................................................................................................... 11 Por Que as Alucinações Ocorrem? .................................................................................. 11 Como Minimizar as Alucinações ..................................................................................... 11 Memória no LLM ................................................................................................................ 13 Como Funciona a Memória no ChatGPT .......................................................................... 13 Exemplos de Como a Memória Atua ............................................................................ 13 Controle do Usuário sobre a Memória no ChatGPT ....................................................... 13 Memória e Limitações de Contexto em outros Modelos (Gemini, Claude, JanitorAI) .......... 14 Softskills Aplicadas à IAG ................................................................................................... 15 Importância da Criatividade na Interação com a IAG ........................................................ 15 Importância do Pensamento Crítico na Interação com a IAG ............................................ 16 RAG .................................................................................................................................. 16 Como a RAG Funciona .................................................................................................... 17 Importância para a Precisão da IA ................................................................................... 17 Desafios ............................................................................................................................ 18 Referências ....................................................................................................................... 20 Guia Completo de Engenharia de Prompts para IA 2 Guia Completo de Engenharia de Prompts para IA – Introdução A engenharia de prompts é uma disciplina relativamente nova – e fundamental – que se dedica a desenvolver e otimizar as instruções fornecidas aos modelos de Inteligência Artificial (IA), como os grandes modelos de linguagem (LLMs), para obter resultados mais precisos, relevantes e úteis. Em sua essência, a engenharia de prompts é a arte e a ciência de estruturar ou criar uma instrução em linguagem natural que orienta um modelo de IA a realizar uma tarefa específica ou a gerar uma saída desejada. Essa instrução pode ser uma consulta, um comando ou uma declaração maior que inclui contexto, diretrizes e histórico de conversação. Nesse contexto, para modelos de texto-para-imagem ou texto- para-áudio, um prompt é uma descrição da saída desejada, como uma foto de alta qualidade de um astronauta andando a cavalo, por exemplo. É importante mencionar que não se trata apenas de pedir algo a um chatbot, mas de estruturar o pedido para que a IA entenda o contexto, o objetivo e a profundidade da resposta esperada. Assim, um prompt eficaz direciona a IA a produzir resultados precisos, relevantes e personalizados, e essa habilidade envolve a formulação cuidadosa de instruções textuais para otimizar o comportamento e as respostas dos modelos, sem a necessidade de modificar sua estrutura interna. A Importância da Engenharia de Prompts • Melhoria da qualidade e da precisão das respostas: prompts bem construídos são cruciais para a eficiência e a precisão das respostas geradas pelos modelos de IA. Eles guiam o modelo a entender a intenção do usuário e fornecer respostas úteis, impactando diretamente a qualidade da interação humano-máquina. Ao fornecer mais detalhes e dados específicos em um prompt, a chance de o modelo "alucinar" (isto é, gerar informações falsas ou inventadas) é significativamente reduzida; • Otimização do desempenho e do uso de recursos: profissionais focam em otimizar prompts para maximizar a eficiência dos sistemas de IA, o que reduz o uso de recursos computacionais, minimiza custos e melhora a performance de aplicações como chatbots e assistentes virtuais; Guia Completo de Engenharia de Prompts para IA 3 • Habilidade essencial no uso da IA: a engenharia de prompts é vista como uma habilidade vital para maximizar o potencial dos modelos de linguagem. Ela se tornou uma competência fundamental em diversas áreas, como Marketing, Educação, Recursos Humanos e Direito, pois permite criar comandos claros e detalhados, ajustando as instruções conforme necessário; • Economia de tempo e aumento da eficiência: para empreendedores, a engenharia de prompts oferece a automação de tarefas repetitivas (como redação de e-mails e relatórios), a geração de insights estratégicos a partir de grandes volumes de dados e a melhoria da comunicação interna e externa. Estudos mostram que desenvolvedores podem completar tarefas de codificação até duas vezes mais rápido com prompts bem elaborados, e a qualidade de pesquisas complexas pode aumentar em 28%, com a rastreabilidade das respostas melhorando em 50%; • Flexibilidade e adaptação: permite adaptar modelos a domínios específicos ao fornecer contexto relevante nos prompts, sem a necessidade de “retreinamento”. Isso é útil para lidar com informações externas, como documentos recuperados; • Preservação do conhecimento geral do modelo: ao contrário do fine-tuning, que pode causar “esquecimento catastrófico” (perda de conhecimento geral resultante da especialização em uma tarefa), a engenharia de prompts mantém as amplas capacidades do modelo, permitindo que ele continue acessando todo o seu conhecimento enquanto se adapta às necessidades específicas da tarefa; • Transparência e depuração: prompts são legíveis por humanos, o queaumenta a transparência e facilita a compreensão e depuração. Em técnicas como encadeamento de prompts, a rastreabilidade completa permite identificar e corrigir problemas específicos em cada etapa do processo; • Base para avanços futuros: o campo da engenharia de prompts está em constante evolução, com novas técnicas e melhores práticas surgindo regularmente. Espera-se que esse avanço leve a uma interação mais intuitiva e eficaz entre humanos e máquinas, incluindo a personalização de modelos, modelos multimodais (texto, imagem, áudio) e a integração com outras tecnologias. Guia Completo de Engenharia de Prompts para IA 4 Tokens Em Inteligência Artificial Generativa (IAG), um token é a menor unidade de informação que o modelo processa ao interpretar e gerar texto. Em vez de analisar frases inteiras, modelos de IA, como o ChatGPT, “quebram” o texto em tokens para facilitar o processamento. Os tokens podem ser: • Palavras inteiras; • Partes de palavras; • Símbolos. Como a Medição Varia A forma como o conteúdo é convertido em tokens pode variar significativamente, dependendo do grande modelo de linguagem (LLM) utilizado. Por exemplo: • A frase “Eu adoro tecnologia” seria dividida em 3 tokens no GPT-4o; • Essa mesma frase seria dividida em 5 tokens no GPT 3.5 ou maior ou, ainda, no Google Gemini. Isso ocorre porque palavras mais longas ou complexas podem ser divididas em vários tokens, enquanto palavras curtas podem ser processadas como um único token. Limites de Tokens e suas Implicações Os modelos de IA também têm limites de tokens para armazenar o histórico da conversa e processar informações. Esses limites variam entre os modelos, por exemplo: • O GPT-3.5 tem um limite de cerca de 4.096 tokens para o histórico da conversa; • O GPT-4o pode considerar até 128.000 tokens (aproximadamente 96.000 palavras); • O Gemini Pro oferece uma janela de contexto ainda maior, suportando até 2 milhões de tokens (1,5 milhão de palavras), sendo ideal para tarefas que exigem grandes contextos. No entanto, a versão gratuita do Gemini pode limitar os prompts a 10 mil caracteres, o que pode restringir o uso em tarefas mais complexas. A compreensão desses limites e da forma como os tokens são medidos é importante, pois o encadeamento de prompts (ou prompt chaining) é uma técnica que pode ajudar a contornar os Guia Completo de Engenharia de Prompts para IA 5 limites de tokens e contexto, permitindo que o modelo trabalhe com maiores volumes de informação sequencialmente. Para os modelos GPT da OpenAI, você pode usar a ferramenta Tokenizer para converter texto em palavras e vice-versa, em diferentes modelos. Modificadores de Prompts Modificadores de prompt são termos estratégicos que podem ser incluídos nos prompts para ajustar o estilo, o nível de detalhe e o tom da resposta gerada pela Inteligência Artificial (IA). Esses termos são essenciais para direcionar a IA a fornecer respostas mais personalizadas, adaptadas ao contexto e ao objetivo da interação. Geralmente, os modificadores são adjetivos, advérbios ou expressões que definem a qualidade ou o foco da resposta desejada. Propósito e Funcionamento Os modificadores de prompt são utilizados para refinar a comunicação com os modelos de IA, garantindo que a saída seja mais precisa e alinhada às expectativas do usuário. Eles permitem que o usuário especifique características como: • Nível de detalhe: essa característica determina se a resposta deve ser minuciosa ou concisa. Por exemplo, o modificador “detalhado” solicita uma resposta que aborde o máximo de aspectos de forma pormenorizada, enquanto o “sintético” pede um resumo objetivo, focado nos pontos principais; • Tom: corresponde à emoção ou atitude que o texto deve transmitir (ex.: otimista, pessimista, humorístico, sério); • Estilo: é a maneira única de usar palavras e estruturar frases (ex.: narrativo, persuasivo, descritivo); • Vocabulário: referente ao conjunto específico de palavras e frases (ex.: técnico, coloquial, jornalístico); • Personalidade: é a emulação de estilo, tom e vocabulário de uma figura específica (ex.: um economista, um professor de História). Guia Completo de Engenharia de Prompts para IA 6 Exemplos de Uso e Categorias Os modificadores podem ser aplicados em diversos contextos e setores, adaptando a resposta da IA a necessidades específicas. Veja, a seguir, alguns exemplos práticos, aplicados a diferentes áreas. • Marketing: uso de modificadores como “Extensiva”, para campanhas abrangentes, “Favorável”, para destacar benefícios, ou “Inovador”, para promover produtos criativos. o Exemplo: “Explique, de forma detalhada, os impactos da Inteligência Artificial na saúde mental”; • Recursos Humanos: utilização de termos como “Eficiente”, para otimizar processos, ou “Imparcial”, para realizar avaliações objetivas; • Educação: emprego de modificadores como “Progressivo”, para currículos, ou “Prático”, para focar na aplicação de conhecimentos; • Direito: uso de “Realista”, para análises jurídicas baseadas em fatos, ou “Crítico”, para abordar falhas em contratos; • Inovação e desenvolvimento de produtos: uso de “Exploratório”, para analisar novas possibilidades, ou “Futurista”, para discutir novas tecnologias; • Gestão de Projetos: aplicação de “Completo”, para cobrir todas as partes de um projeto, ou “Acelerado”, para entregas rápidas; • Consultoria e Estratégia Empresarial: utilização de “Contextual”, para análises adaptadas ao mercado, ou “Significativo”, para enfatizar aspectos fundamentais da estratégia; • Análise de riscos e finanças: uso de “Pessimista”, para avaliar cenários de risco, ou “Conservador”, para uma abordagem cautelosa em investimentos; • Ciência e pesquisa: emprego de “Teórico”, para discussões baseadas em frameworks acadêmicos, ou “Empírico”, para abordagens baseadas em evidências; • Comunicação e mídia: utilização de “Contrário”, para discutir pontos de vista alternativos, ou “Imparcial”, para análises objetivas em reportagens; Guia Completo de Engenharia de Prompts para IA 7 • Sustentabilidade e responsabilidade social: uso de “Sustentável”, para práticas de negócios responsáveis, ou “Desastroso”, para destacar consequências negativas. Em suma, ao usar modificadores, o usuário tem maior controle sobre a saída da IA. Isso torna as interações mais eficazes e os resultados mais relevantes. Definição de Persona A definição de uma “persona” ou um “papel” no prompt é uma técnica poderosa que influencia diretamente a forma como a Inteligência Artificial (IA) gera suas respostas, tornando-as mais alinhadas às suas expectativas e ao contexto desejado. Essa técnica envolve instruir o modelo a emular o estilo, o tom e o vocabulário de uma figura específica, a qual pode ser: • Um profissional de uma área (como um economista, um CEO experiente em startups de tecnologia, um professor de História, um especialista em mídias sociais, um jornalista, um auditor fiscal etc.); • Um personagem conhecido; • Um arquétipo (como um especialista ou um influenciador). Como a Persona ou o Papel Influencia a Resposta da IA Ao definir uma persona ou um papel, você orienta a IA a: • Adotar um estilo de escrita específico: o modelo irá adaptar sua linguagem e estrutura para se assemelhar à persona escolhida. Por exemplo, pode-se pedir para ele escrever em um estilo casual, formal, humorístico, sério, impessoal, empático, didático, cínico, otimista, pessimista, animado, reservado, enérgico, passivo, encorajador, crítico, curioso ou afetuoso; • Definir o tom da resposta: a IA ajustará a atitude ou emoção transmitida no texto, como um tom profissional e amigável para uma mensagem de vendas ou um tom formal para um relatório corporativo; • Utilizar vocabulário e jargões adequados: o modelo empregará termos eexpressões comuns à profissão ou ao personagem emulado. Isso influencia a profundidade e a escolha de palavras na resposta gerada; Guia Completo de Engenharia de Prompts para IA 8 • Influenciar a profundidade e os detalhes: ao pedir que a IA atue como um(a) “especialista”, ela tenderá a fornecer informações mais aprofundadas e detalhadas sobre o tópico; • Manter um padrão de comunicação consistente: essa função é particularmente útil para conteúdos que precisam seguir um padrão de comunicação específico, como a criação de campanhas de marketing ou textos corporativos. Exemplos Práticos • Ao solicitar “Escreva como um economista, explicando as tendências do mercado financeiro para leigos”, a IA utilizará uma linguagem acessível para desmistificar conceitos complexos da Economia; • Um prompt como “Eu quero que você crie uma proposta de negócios no estilo de um CEO experiente em startups de tecnologia” fará com que a IA adote um tom estratégico e visionário, adequado a esse perfil; • “Responda como um professor de História, detalhando os impactos da Revolução Industrial” levará a uma resposta com linguagem didática e focada em eventos históricos; • No recrutamento, adotar a persona de um “Analista de Recrutamento, especializado em [Área ou Segmento], buscando preencher o cargo de [Nome do Cargo]” ajuda a IA a gerar requisitos e planos de recrutamento mais precisos. Limitações e Cuidados É importante notar que, ao tentar emular pessoas famosas, cujos conteúdos e ideias não estão amplamente disponíveis on-line, a IA pode “alucinar”, ou seja, gerar informações inventadas ou imprecisas que podem não ter relação com o objetivo original do usuário. Por exemplo, pedir para a IA imitar Elon Musk avaliando uma startup ou Warren Buffet recomendando investimentos pode resultar em respostas sem base real, se não houver material suficiente em seu treinamento para direcioná-la com precisão. Em resumo, a definição de uma persona ou de um papel é uma técnica de engenharia de prompt que permite personalizar e direcionar a saída da IA adaptando-a a um estilo, tom e vocabulário específicos. Isso resulta em respostas mais precisas, relevantes e úteis para a tarefa em questão. Guia Completo de Engenharia de Prompts para IA 9 Prompt Chaining – (Prompts Encadeados) Prompt chaining (ou encadeamento de prompts) é uma técnica avançada de engenharia de prompts que consiste em encadear múltiplos prompts em sequência, de modo que a saída de um prompt se torne a entrada do prompt seguinte. Neste caso, em vez de tentar abordar uma tarefa complexa em um único prompt “gigante”, essa técnica “quebra” a tarefa em etapas menores e, portanto, mais gerenciáveis. Cada prompt dentro da cadeia tem um objetivo específico e bem definido, e o modelo de linguagem (como o GPT-4 ou 5, Gemini, Claude, Perplexity ou outros LLMs) resolve cada etapa sequencialmente até atingir o resultado desejado. O modelo “aprende” o contexto de cada etapa e as relações entre elas, gerando um texto final coerente, consistente e rico em contexto. Propósito e Vantagens do Prompt Chaining O prompt chaining é utilizado para driblar as limitações de um prompt único e monolítico, que pode resultar em saídas confusas, incompletas ou fora de contexto. Ao dividir a interação em vários prompts, os benefícios são numerosos: • Mais foco e precisão: cada subprompt direciona o modelo a uma tarefa pontual, o que aumenta a ênfase em cada etapa, reduzindo erros e levando a respostas mais precisas e relevantes para cada parte do problema. Isso garante que o modelo se concentre 100% em cada objetivo separado, melhorando a qualidade geral da saída; • Controle e transparência: com prompts encadeados, é possível visualizar o passo a passo da solução, o que proporciona transparência e rastreabilidade ao processo. Em resumo, é mais fácil identificar em qual etapa um erro pode ter ocorrido, depurar e ajustar cada uma delas individualmente, aumentando, assim, a confiabilidade; • Redução de complexidade e erros: a divisão de uma solicitação complexa em partes mais simples diminui a chance de mal-entendidos por parte da IA. Isso reduz a carga cognitiva sobre o modelo, facilitando a compreensão exata do que é desejado e, consequentemente, diminuindo erros ou respostas sem sentido; Guia Completo de Engenharia de Prompts para IA 10 • Superação de limites de contexto: o encadeamento de prompts permite contornar os limites de tokens e contexto que os modelos de IA conseguem processar de uma vez. Ao dividir um documento muito longo, por exemplo, em partes para análise sequencial, é possível trabalhar com volumes maiores de informação sem perder o objetivo final; • Clareza e manutenibilidade: para equipes de desenvolvimento, o prompt chaining torna as instruções mais fáceis de entender e manter. Desse modo, prompts menores e bem direcionados são mais simples de escrever, testar e aprimorar ao longo do tempo, facilitando a colaboração; • Resultados mais completos e refinados: pesquisas indicam que o prompt chaining tende a produzir resultados mais completos e refinados em comparação com a abordagem de um único prompt, mesmo quando este último é muito detalhado. Como Aplicar o Prompt Chaining A aplicação do prompt chaining envolve um processo de planejamento e experimentação. Observe: 1. Definir claramente o objetivo final: pensar em qual é o problema a ser resolvido; 2. Dividir o problema em subtarefas lógicas: “quebrar” o objetivo em etapas menores e manejáveis, que façam sentido sequencialmente; 3. Desenhar os prompts para cada etapa: escrever prompts claros e diretos para cada subtarefa, garantindo que a saída de um prompt, muitas vezes formatada de forma estruturada (como JSON ou lista numerada), esteja pronta para alimentar o próximo; 4. Orquestrar a sequência e integrar ao código: coordenar as chamadas à API do modelo, garantindo que cada prompt rode na ordem correta, utilizando ferramentas como LangChain para facilitar a orquestração; 5. Testar etapa por etapa: executar a cadeia e avaliar os resultados intermediários para ajustar prompts específicos, se necessário; 6. Iterar e refinar: ajustar continuamente os prompts, adicionar exemplos (few-shot prompting) ou modificar a decomposição das subtarefas para aprimorar os resultados. Guia Completo de Engenharia de Prompts para IA 11 Essa técnica permite automatizar tarefas criativas e analíticas, possibilitando fluxos de trabalho inteligentes e altamente personalizados. Alucinações em uma IAG Em Inteligência Artificial Generativa (IAG), alucinação ocorre quando o modelo gera uma resposta aparentemente plausível, mas que não é baseada em fatos verificáveis (isso pode incluir informações falsas, inventadas ou distorcidas). Modelos como o ChatGPT priorizam a plausibilidade linguística, ou seja, a coerência da resposta em termos de forma, em vez de garantir que ela seja verdadeira ou precisa. Por Que as Alucinações Ocorrem? Modelos de IA, como ChatGPT, Gemini, Claude, entre outros, preveem a próxima palavra, ou sequência de palavras, com base em uma vasta base de dados, mas não têm um entendimento real do mundo, isto é, eles não verificam ativamente as informações que fornecem. Por isso, quando confrontados com lacunas em seu conhecimento, ou quando não há dados suficientes para sustentar uma resposta, os modelos tendem a preencher essas lacunas com informações que “soam” corretas, mas que não contam com uma base factual. Essa característica reflete a natureza probabilística dos modelos, que são treinados para gerar texto fluente, mas sem uma verificação direta de fatos. As alucinações são mais comuns quando o modelo é solicitado a responder perguntas sobre temas muito específicos, com pouca cobertura nas fontes de dados utilizadas em seu treinamento. Mesmo em modelosavançados, como o GPT-4o e o1-preview, essa limitação ainda está presente, embora em níveis mais baixos. Como Minimizar as Alucinações Embora não seja possível eliminar completamente as alucinações, a engenharia de prompts desempenha um papel fundamental em minimizá-las. Algumas estratégias incluem: • Usar prompts específicos e baseados em fatos: quanto mais detalhes e dados específicos você incluir em um prompt, menor a chance de o modelo alucinar. Para isso, é importante fornecer informações contextuais claras e evitar deixar lacunas que o modelo possa tentar “preencher”. Por exemplo, em vez de incluir um prompt Guia Completo de Engenharia de Prompts para IA 12 genérico como “Explique a história da Revolução Industrial”, uma alternativa mais eficiente seria “Explique a história da Revolução Industrial na Inglaterra, detalhando o impacto da máquina a vapor e da indústria têxtil entre os anos de 1760 e 1840. Cite fontes históricas conhecidas e descreva o papel de figuras como James Watt”; • Solicitar respostas justificadas: pedir para o modelo explicar o raciocínio por trás de sua resposta pode ajudar a detectar possíveis incoerências. Frases como “Justifique sua resposta com fatos” ou “Explique o processo por trás dessa conclusão” podem forçar o modelo a expor falhas ou incertezas no raciocínio; • Usar fontes confiáveis: sempre que possível, forneça fontes externas ou dados precisos diretamente no prompt para que o modelo possa utilizá-los como base para suas respostas. É possível carregar documentos diretamente no ChatGPT, Claude, Gemini, Perplexity e outros, para garantir que o conteúdo gerado seja baseado em informações confiáveis; • Utilizar a técnica de Geração Aumentada por Recuperação (Retrieval- Augmented Generation, ou RAG): essa técnica permite que a IA acesse dados atualizados e confiáveis de fontes externas (como internet ou documentos anexados) para complementar suas respostas, resolvendo a limitação de modelos treinados com conhecimento limitado a uma data específica. A RAG ajuda a reduzir as alucinações ao forçar o modelo a “ater-se aos fatos” obtidos de fontes externas. Para usar RAG no ChatGPT, Claude, Gemini, Perplexity e outros, é geralmente necessário ter a versão paga dos serviços; • Monitorar a coerência em iterações prolongadas: em ciclos longos de iterações, como na técnica Optimize Prompt Refinement Over Iterations (Otimização do Aprimoramento de Prompts por Iteração, ou OPRO), há risco de alucinações. É crucial, por esse motivo, monitorar a coerência em cada resposta e, se a IA apresentar informações desconexas ou inventadas, considerar reiniciar o processo com um prompt mais completo, mantendo clareza e foco nas iterações. Em resumo, a alucinação é uma limitação dos modelos de IA generativa, em que a plausibilidade textual é priorizada sobre a veracidade. Contudo, com técnicas de engenharia de prompt bem aplicadas, é possível mitigar significativamente esse risco e obter resultados mais confiáveis e precisos. Guia Completo de Engenharia de Prompts para IA 13 Memória no LLM Em Inteligência Artificial Generativa (IAG), a funcionalidade de memória refere-se à capacidade de um modelo de IA de lembrar detalhes de interações anteriores para tornar as conversas futuras mais personalizadas e eficientes. Isso elimina a necessidade de repetir informações constantemente, resultando em uma experiência de uso mais fluida e customizada. Como Funciona a Memória no ChatGPT No caso do ChatGPT, Gemini, Claude e outros, a funcionalidade de memória foi lançada em fevereiro de 2024 e liberada para todos os usuários em setembro de 2024. Ela atua de forma contínua, capturando detalhes que você menciona durante suas conversas e armazenando essas informações para uso futuro. Vamos, a seguir, focar no ChatGPT. Exemplos de Como a Memória Atua • Se você expressar preferência por resumos de reuniões, com tópicos principais e ações resumidas no final, o ChatGPT lembrará dessa preferência e a aplicará em futuras solicitações de resumos; • Se você mencionar que administra um restaurante, o ChatGPT poderá usar essa informação para ajudar a criar posts personalizados para sua empresa; • A memória pode armazenar preferências de formatação, estilo ou até mesmo detalhes pessoais, como a idade de um filho ou o tipo de música que você gosta. • Esse processo é progressivo: quanto mais você interage com o ChatGPT, mais refinadas e ajustadas às suas preferências serão as respostas. Controle do Usuário sobre a Memória no ChatGPT O usuário tem controle total sobre a funcionalidade de memória. Ele pode: • Desativar ou ativar: é possível desativar a memória a qualquer momento nas configurações (Configurações > Personalização > Memória). Com ela desativada, o ChatGPT não armazenará nenhuma informação de suas conversas, por exemplo; • Gerenciar memórias específicas: o ChatGPT informa quando algo novo é armazenado na memória. Você pode visualizar essas atualizações (clicando em Guia Completo de Engenharia de Prompts para IA 14 ‘Memória atualizada’) e gerenciar o que foi armazenado, com a opção de excluir memórias específicas ou limpar todas de uma vez (Configurações > Personalização > Gerenciar); • Chat temporário: para garantir total privacidade, há a opção de usar o “chat temporário”. Nesse modo, nenhuma memória é utilizada e seus dados não são compartilhados com o sistema para treinar novos modelos. Informações sensíveis, como detalhes de saúde, só são lembradas se você solicitar expressamente que o ChatGPT memorize-as. Memória e Limitações de Contexto em outros Modelos (Gemini, Claude, JanitorAI) A capacidade de memória ou de reter contexto é uma característica intrínseca dos grandes modelos de linguagem (LLMs), incluindo Gemini e Claude. No entanto, essa capacidade é limitada pela janela de contexto do modelo, que é a quantidade máxima de tokens que a IA consegue processar de uma vez em uma conversa. • ChatGPT: o GPT-3.5 tem um limite de cerca de 4.096 tokens para armazenar o histórico da conversa, enquanto o GPT-4o considera até 128.000 tokens (aproximadamente 96.000 palavras). Para evitar que o modelo esqueça informações importantes em conversas longas, é recomendado relembrá-lo de elementos cruciais em prompts subsequentes; • Google Gemini: o Gemini Pro tem uma janela de contexto muito maior, suportando até 2 milhões de tokens (o equivalente a 1,5 milhão de palavras), o que o torna ideal para tarefas que exigem grandes contextos. A versão gratuita do Gemini, no entanto, limita os prompts a 10 mil caracteres, o que pode restringir o uso em tarefas mais complexas, que pedem mais informações; • Claude: embora não seja detalhada a funcionalidade de memória para o Claude, ele é mencionado como um dos concorrentes do ChatGPT e um LLM que ensina a usar as mesmas habilidades de prompts. Sendo um LLM, ele também opera com uma janela de contexto para lembrar informações; • JanitorAI: em plataformas como JanitorAI, que utilizam LLMs, a funcionalidade de “prompts avançados” e “memória do chat” permite que o usuário insira informações importantes para que o bot lembre-se delas e as utilize para guiar suas Guia Completo de Engenharia de Prompts para IA 15 respostas, mantendo a personalidade do personagem. Isso é crucial para que ele não “saia do seu papel”. Em suma, a funcionalidade de memória nos modelos de IA generativa é vital para personalização e coerência nas interações. Apesar disso, essa memória está sempre sujeita aos limites da janela de contexto de cada modelo, o que exige do usuário a habilidade de refinar e, se necessário, reiniciar a interação com o contexto completo. Softskills Aplicadas à IAG As softskills, como criatividade e pensamento crítico, são essenciais para o uso eficaz da Inteligência Artificial Generativa (IAG). Essashabilidades humanas complementam as capacidades da IA, garantindo que a interação seja mais produtiva e que os resultados gerados sejam de alta qualidade, precisos e relevantes. Importância da Criatividade na Interação com a IAG A criatividade é fundamental para maximizar o potencial das ferramentas de IAG. Ela permite ao usuário: • Definir os limites das habilidades da IA: é a capacidade humana de imaginar que possibilita a formulação de perguntas e propostas mais elaboradas e completas, direcionando o processo de cocriação com a IA; • Gerar prompts avançados: a criatividade é crucial para escrever prompts que orientem a IA a explorar além do esperado, gerando novas ideias, abordagens inovadoras ou insights que o usuário não havia considerado inicialmente; • Fazer conexões inesperadas: a IA, por si só, geralmente não faz conexões entre áreas de conhecimento muito distintas, nem adiciona experiências pessoais, emoções ou percepções humanas ao contexto. A criatividade humana é, pois, necessária para expandir as criações da IA e fornecer o comando certo, com contexto humano; • Combinar diferentes áreas do conhecimento: ao unir, por exemplo, marketing digital e psicologia comportamental em um prompt, a IA é orientada a cruzar informações e gerar respostas mais ricas e inovadoras. Guia Completo de Engenharia de Prompts para IA 16 Importância do Pensamento Crítico na Interação com a IAG O pensamento crítico é outra habilidade indispensável ao trabalhar com a IAG, uma vez que essas ferramentas são criativas e podem inventar nomes, fatos e dados para obedecer ao prompt. A responsabilidade pelo resultado recai, dessa forma, sobre o usuário, não sobre o algoritmo. Assim, o pensamento crítico permite: • Avaliar e questionar os resultados: é fundamental questionar e, se necessário, corrigir os fatos e dados produzidos pela IA antes de utilizá-los. Isso é crucial porque, embora o conteúdo gerado possa parecer plausível ou gramaticalmente correto, ele não é, necessariamente, verídico; • Identificar alucinações: a IA pode gerar respostas que parecem corretas, mas são falsas, inventadas ou distorcidas, especialmente em tópicos complexos ou com poucas fontes de dados em seu treinamento. O pensamento crítico ajuda a detectar essas “alucinações” e a garantir a precisão da informação; • Interpretar resultados e ajustar comandos: o domínio do assunto permite ao usuário interpretar os resultados da IA de forma crítica e ajustar os comandos (prompts) quando necessário, mantendo a inteligência humana no controle do processo; • Garantir a confiabilidade: o pensamento crítico é vital para assegurar que as informações geradas sejam confiáveis, especialmente em contextos que exigem alta precisão, como diagnósticos médicos, análises jurídicas ou problemas técnicos. Em suma, a IAG oferece um poder computacional e de geração de conteúdo sem precedentes. No entanto, a criatividade e o pensamento crítico humanos são os pilares que garantem a utilização dessa tecnologia de forma estratégica, ética e eficiente, transformando consultas simples em soluções complexas e insights valiosos. RAG A “Geração Aumentada por Recuperação” (RAG), do inglês Retrieval-Augmented Generation, é uma técnica de engenharia de prompt que combina a geração de texto por modelos de Inteligência Artificial com a recuperação de informações de fontes externas. Seu objetivo principal é garantir que a IA acesse dados atualizados e confiáveis, superando as limitações de modelos treinados com conhecimento restrito a uma data específica. Guia Completo de Engenharia de Prompts para IA 17 Como a RAG Funciona A RAG incorpora a recuperação de informações antes que o grande modelo de linguagem (LLM) gere uma resposta. Em vez de depender apenas de seus dados de treinamento estáticos, a RAG: • Recupera texto relevante de bancos de dados, documentos carregados ou fontes da web; • Modifica a interação com o LLM, fazendo com que ele se refira a um conjunto especificado de documentos para suplementar as informações de seus dados de treinamento preexistentes; • Permite que os LLMs utilizem informações específicas e/ou atualizadas de um domínio. Essa técnica é uma das mais especializadas na engenharia de prompts. Para utilizá-la no ChatGPT e em outros recursos, é necessário assinar a versão paga, como o ChatGPT Plus, que permite buscar fontes on-line e anexar documentos diretamente. Importância para a Precisão da IA A importância da RAG para a precisão da IA reside em diversos benefícios cruciais: • Aumento da precisão e atualização: o principal benefício da RAG é a capacidade de fornecer respostas mais precisas e atualizadas, pois a IA utiliza fontes verificáveis e em tempo real. Isso é essencial para superar o fato de que os modelos de IA podem não refletir informações mais recentes, já que seu conhecimento é limitado à data de seu treinamento; • Redução de alucinações: a RAG ajuda a reduzir as alucinações da IA, que ocorrem quando o modelo gera respostas que parecem plausíveis, mas, em verdade, são inventadas ou distorcidas, e não baseadas em fatos. Ao utilizar informações de fontes externas, o modelo “atém-se aos fatos”, prevenindo problemas no mundo real, como chatbots inventando políticas ou advogados citando casos legais inexistentes; • Confiança nas respostas: ao fornecer informações diretamente de artigos, relatórios ou fontes definidas pelo usuário, a RAG assegura que os dados utilizados são verificáveis, aumentando a confiança nas respostas. Isso é particularmente útil em contextos que exigem alta confiabilidade, como decisões empresariais ou publicações científicas; Guia Completo de Engenharia de Prompts para IA 18 • Personalização: a RAG oferece grande personalização, permitindo que o usuário controle de onde os dados serão recuperados. Isso pode ser feito buscando dados na internet ou anexando documentos diretamente, o que proporciona maior controle e precisão no resultado. Em suma, a RAG é fundamental para que os modelos de IA, como o ChatGPT, possam fornecer respostas não apenas coerentes, mas também factualmente corretas e confiáveis. Isso é especialmente importante em cenários que exigem informações atualizadas ou conhecimento de domínio específico. Desafios A criação de prompts eficazes para modelos de Inteligência Artificial (IA) generativa apresenta diversos desafios significativos, que vão desde a formulação da instrução até as características intrínsecas dos próprios modelos. Os principais desafios incluem: • Ambiguidade e falta de clareza: um dos maiores desafios é evitar que os prompts sejam vagos ou ambíguos, pois isso pode levar a respostas irrelevantes, imprecisas ou confusas. A engenharia de prompt busca, por essa razão, refinar as interações para eliminar ambiguidades e melhorar a qualidade das respostas; • Contexto limitado: modelos de IA podem ter dificuldades em compreender contextos complexos, e prompts que não fornecem contexto suficiente podem gerar respostas inadequadas. É fundamental, assim, incluir informações relevantes para ajudar o modelo a entender melhor a tarefa; • Viés algorítmico: os modelos de linguagem são treinados em vastos conjuntos de dados textuais que, frequentemente, refletem os vieses presentes na sociedade. Isso pode resultar em respostas que perpetuam vieses de representação, associativos ou de confirmação. A qualidade e a representatividade dos dados de treinamento são, portanto, fatores-chave na introdução desses vieses; • Geração de conteúdo tóxico: os modelos de IA podem gerar conteúdo prejudicial, ofensivo ou discriminatório (como discurso de ódio ou desinformação), porque aprenderam padrões presentes em dados de treinamento que contêm linguagem tóxica e preconceituosa. Nesse sentido, definir o que constitui “conteúdo tóxico” também é um desafio complexo,pois pode variar cultural e socialmente; Guia Completo de Engenharia de Prompts para IA 19 • Opacidade dos modelos de linguagem (a ‘caixa preta’ da IA): a complexidade dos grandes modelos de linguagem dificulta a compreensão de seus processos internos. Essa opacidade limita a capacidade de identificar e corrigir erros, bem como de garantir a confiabilidade das respostas geradas. Há um equilíbrio (trade- off) entre interpretabilidade e desempenho, com modelos mais complexos que, geralmente, oferecem melhor performance, mas são mais difíceis de interpretar; • Alucinações: os modelos de IA podem gerar respostas que parecem plausíveis, mas que não são baseadas em fatos. Isso ocorre porque, como mencionado anteriormente, a IA prioriza a plausibilidade linguística e a coerência da resposta em vez de garantir a veracidade ou precisão. Alucinações são mais comuns em tópicos muito específicos, com pouca cobertura nas fontes de dados de treinamento. Ainda, tentar emular pessoas famosas sem material suficiente para direcionar a IA com precisão também pode levar a alucinações; • Sensibilidade e falta de generalização: grandes modelos de linguagem (LLMs) são altamente sensíveis a variações sutis na formatação, estrutura e propriedades linguísticas dos prompts, o que pode levar a resultados significativamente diferentes, mesmo com pequenas mudanças. Os princípios e as habilidades de engenharia de prompt dependem muito do modelo específico que está sendo utilizado e não são facilmente generalizáveis para todo o campo; • Adaptação a diferentes cenários e evolução rápida: criar prompts que funcionem bem em diversos cenários exige uma compreensão aprofundada do modelo de IA e do contexto de uso, além de experimentação contínua. O campo da engenharia de prompts está em constante evolução, com novas técnicas e melhores práticas surgindo regularmente. A própria relevância da profissão de engenheiro de prompt já foi questionada devido à melhoria da capacidade dos modelos em intuir a intenção do usuário, assim como aos treinamentos internos das empresas, o que demonstra a natureza dinâmica e desafiadora da área. Guia Completo de Engenharia de Prompts para IA 20 Referências ALURA. Guia de estudo: engenharia de prompts e IA generativa. 23/06/2023. Disponível em: https://www.alura.com.br/artigos/guia-estudo-engenharia-prompts-ia-generativa. Acesso em: 14/08/2025. AZEVEDO, T. Engenharia de prompts de IA: aprenda a criar prompts eficazes. DIO, 13/08/2024. Disponível em: https://www.dio.me/articles/engenharia-de-prompts-de-ia- aprenda-a-criar-prompts-eficazes. Acesso em: 14/08/2025. FUTURECOM. Tendências da engenharia de prompt para 2025: o futuro da eficiência na era da IA. 11/12/2023. Disponível em: https://www.futurecom.com.br/pt/blog/tendencias-da-engenharia-de-prompt-para- 2025-o-futuro-da-eficiencia-na-era-da-ia. Acesso em: 14/08/2025. MELO, V. Os desafios da engenharia de prompts. DIO, 14/08/2024. Disponível em: https://www.dio.me/articles/os-desafios-da-engenharia-de-prompts. Acesso em: 14/08/2025. MORAES, L. Os 3 níveis de prompts: básico, intermediário e avançado. LinkedIn, 10/03/2024. Disponível em: https://www.linkedin.com/pulse/os-3-n%C3%ADveis-de- prompts-b%C3%A1sico-intermedi%C3%A1rio-e-avan%C3%A7ado-moraes-s5wxf/. Acesso em: 14/08/2025. PEREIRA, V. Prompt engineering: melhores práticas para IA eficiente. RDD10, 18/04/2024. Disponível em: https://rdd10.com.br/prompt-engineering/. Acesso em: 14/08/2025. REDDIT. Prompts avançados para LLM. 2023. Disponível em: https://www.reddit.com/r/JanitorAI_Official/comments/16g417l/prompts_avan%C3%A7a dos_para_llm/. Acesso em: 14/08/2025. ROCKETSEAT. Prompt chaining: automações inteligentes e fluxos de trabalho imbatíveis!, 24/07/2024. Disponível em: https://www.rocketseat.com.br/blog/prompt- chaining. Acesso em: 14/08/2025. SARAVIA, E. et al. Guia de engenharia prompt. DAIR.AI, 2024. Disponível em: https://www.promptingguide.ai/pt. Acesso em: 14/08/2025. SCRIBD. ChatGPT do zero aos prompts avançados (nova edição – outubro, 2024). 2024. Disponível em: https://pt.scribd.com/document/733842149/ChatGPT-Do-Zero- aos-Prompts-Avancados-nova-edicao-outubro-2024. Acesso em: 14/08/2025. WIKIPEDIA. Engenharia de prompt. 2024. Disponível em: https://pt.wikipedia.org/wiki/Engenharia_de_prompt. Acesso em: 14/08/2025. https://www.google.com/search?q=https://www.alura.com.br/artigos/guia-estudo-engenharia-prompts-ia-generativa https://www.dio.me/articles/engenharia-de-prompts-de-ia-aprenda-a-criar-prompts-eficazes https://www.dio.me/articles/engenharia-de-prompts-de-ia-aprenda-a-criar-prompts-eficazes https://www.google.com/search?q=https://www.futurecom.com.br/pt/blog/tendencias-da-engenharia-de-prompt-para-2025-o-futuro-da-eficiencia-na-era-da-ia https://www.google.com/search?q=https://www.futurecom.com.br/pt/blog/tendencias-da-engenharia-de-prompt-para-2025-o-futuro-da-eficiencia-na-era-da-ia https://www.dio.me/articles/os-desafios-da-engenharia-de-prompts https://www.google.com/search?q=https://www.linkedin.com/pulse/os-3-n%25C3%25ADveis-de-prompts-b%25C3%25A1sico-intermedi%25C3%25A1rio-e-avan%25C3%25A7ado-moraes-s5wxf/ https://www.google.com/search?q=https://www.linkedin.com/pulse/os-3-n%25C3%25ADveis-de-prompts-b%25C3%25A1sico-intermedi%25C3%25A1rio-e-avan%25C3%25A7ado-moraes-s5wxf/ https://www.google.com/search?q=https://rdd10.com.br/prompt-engineering/ https://www.google.com/search?q=https://www.reddit.com/r/JanitorAI_Official/comments/16g417l/prompts_avan%25C3%25A7ados_para_llm/ https://www.google.com/search?q=https://www.reddit.com/r/JanitorAI_Official/comments/16g417l/prompts_avan%25C3%25A7ados_para_llm/ https://www.google.com/search?q=https://www.rocketseat.com.br/blog/prompt-chaining https://www.google.com/search?q=https://www.rocketseat.com.br/blog/prompt-chaining https://www.promptingguide.ai/pt https://www.google.com/search?q=https://pt.scribd.com/document/733842149/ChatGPT-Do-Zero-aos-Prompts-Avancados-nova-edicao-outubro-2024 https://www.google.com/search?q=https://pt.scribd.com/document/733842149/ChatGPT-Do-Zero-aos-Prompts-Avancados-nova-edicao-outubro-2024 https://www.google.com/search?q=https://pt.wikipedia.org/wiki/Engenharia_de_prompt