Ed
há 2 meses
Vamos analisar cada uma das opções apresentadas: a. Redimensionamento para um tamanho padrão, como 256x256 pixels. - Esta opção se refere ao pré-processamento de imagens, não de dados de texto. Portanto, está incorreta. b. Tokenização, que consiste em dividir o texto em unidades menores como palavras ou subpalavras. - Esta é uma etapa comum e fundamental no pré-processamento de dados de texto. Está correta. c. Normalização dos valores de pixel para uma escala consistente. - Assim como a opção a, esta se refere ao pré-processamento de imagens, não de texto. Portanto, está incorreta. d. Aumento de dados, gerando variações das imagens existentes (rotações, espelhamentos). - Esta opção também se refere ao pré-processamento de imagens, não de texto. Portanto, está incorreta. e. Conversão para espectrogramas para capturar características do som. - Esta opção se refere ao pré-processamento de dados de áudio, não de texto. Portanto, está incorreta. Com base na análise, a única opção correta que descreve uma etapa comum de pré-processamento para dados de texto é a opção b: Tokenização, que consiste em dividir o texto em unidades menores como palavras ou subpalavras.