Ed
há 8 meses
Vamos analisar as opções apresentadas sobre o que é e para que serve o robots.txt: 1. Um padrão de regras definido como "Protocolo de Exclusão de Robôs"; Define as permissões do coletor automático em um determinado website. - Esta opção está correta, pois o robots.txt realmente serve para definir quais partes de um site podem ser acessadas por robôs de busca. 2. Um tipo de robô ou coletor automático; Faz download do conteúdo de websites. - Esta opção está incorreta, pois o robots.txt não é um robô, mas sim um arquivo que orienta os robôs. 3. Um conjunto de regras; Define a estrutura do documento HTML em que as informações estão. - Esta opção também está incorreta, pois o robots.txt não define a estrutura do HTML, mas sim as permissões de acesso. 4. Um padrão de regras definido como "Protocolo de Exclusão de Robôs"; Define a estrutura do documento HTML em que as informações estão. - Esta opção é incorreta, pois, novamente, o robots.txt não define a estrutura do HTML. Portanto, a alternativa correta é: Um padrão de regras definido como "Protocolo de Exclusão de Robôs"; Define as permissões do coletor automático em um determinado website.
Libere respostas sem pagar
Ajude estudantes
Ed
ano passado
A função do arquivo robots.txt é indicar aos motores de busca quais partes de um site podem ser rastreadas. Ele serve para controlar o acesso dos robôs de busca às páginas de um site, permitindo ou bloqueando a indexação de determinados conteúdos. Analisando as opções: - Um padrão de regras definido como "Protocolo de Exclusão de Robôs"; Define as permissões do coletor automático em um determinado website. - Esta é a definição correta do robots.txt e sua função. - Um tipo de robô ou coletor automático; Faz download do conteúdo de websites - Esta opção descreve um robô ou crawler, não o arquivo robots.txt. - Um conjunto de regras; Define a estrutura do documento HTML em que as informações estão. - Esta opção descreve mais a função de um arquivo de estilo CSS do que o robots.txt. - Um padrão de regras definido como "Protocolo de Exclusão de Robôs"; Define a estrutura do documento HTML em que as informações estão. - Esta opção mistura conceitos e não descreve corretamente o robots.txt. Portanto, a resposta correta é: Um padrão de regras definido como "Protocolo de Exclusão de Robôs"; Define as permissões do coletor automático em um determinado website.