Ed
há 4 meses
Vamos analisar as alternativas apresentadas para identificar a sequência correta de passos para construir e implantar uma aplicação RAG (Retrieval-Augmented Generation). A sequência lógica para desenvolver uma aplicação desse tipo geralmente envolve: 1. Ingestão de documentos: Coletar as informações necessárias de uma fonte. 2. Indexação dos documentos: Organizar esses documentos para que possam ser pesquisados eficientemente. 3. Salvar em busca vetorial: Armazenar os documentos indexados em um formato que permita buscas rápidas. 4. Submissão de consultas pelo usuário: O usuário faz perguntas que serão processadas. 5. Recuperação de documentos relevantes: O modelo de linguagem (LLM) busca os documentos que respondem à consulta. 6. Geração de resposta: O LLM gera uma resposta com base nos documentos recuperados. 7. Avaliação do modelo: Verificar a eficácia do modelo e das respostas geradas. 8. Implantação usando Model Serving: Colocar o modelo em produção para uso. Agora, analisando as opções: A. Ingest documents from a source → Index the documents and saves to Vector Search → User submits queries against an LLM → LLM retrieves relevant documents → Evaluate model → LLM generates a response → Deploy it using Model Serving Esta opção segue a sequência correta, mas a avaliação do modelo deve ocorrer após a geração da resposta. B. Ingest documents from a source → Index the documents and save to Vector Search → User submits queries against an LLM → LLM retrieves relevant documents → LLM generates a response → Evaluate model → Deploy it using Model Serving Esta opção também segue a sequência correta e coloca a avaliação após a geração da resposta, o que é mais apropriado. C. Ingest documents from a source → Index the documents and save to Vector Search → Evaluate model → Deploy it using Model Serving Esta opção está incompleta, pois não inclui a parte de submissão de consultas e geração de respostas. D. User submits queries against an LLM → Ingest documents from a source → Index the documents and save to Vector Search → LLM retrieves relevant documents → LLM generates a response → Evaluate model → Deploy it using Model Serving Esta opção está na ordem errada, pois a ingestão e indexação devem ocorrer antes da submissão de consultas. Portanto, a alternativa correta é: B. Ingest documents from a source → Index the documents and save to Vector Search → User submits queries against an LLM → LLM retrieves relevant documents → LLM generates a response → Evaluate model → Deploy it using Model Serving.
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material