Ed
há 8 meses
A tokenização é um processo fundamental em Text Mining que envolve a divisão de um texto em unidades menores, que podem ser palavras, frases ou outros elementos significativos, conhecidos como "tokens". Analisando as alternativas: A) Processo de remoção de palavras irrelevantes do texto - Isso se refere a uma etapa diferente chamada "stop word removal". B) Divisão de um texto em palavras ou frases menores (tokens) - Esta é a definição correta de tokenização. C) Transformação de palavras em números - Isso se relaciona mais com a vetorização ou representação numérica de texto. D) Classificação de documentos em categorias - Isso é um processo de categorização, não de tokenização. Portanto, a alternativa correta é: B) Divisão de um texto em palavras ou frases menores (tokens).
Já tem uma conta?
Ao continuar, você aceita os Termos de Uso e Política de Privacidade
Mais perguntas desse material