Close Popup
Report Bug

robots.txt GERADOR

Padrão - Todos os robôs são
Atraso de rastreamento
Sitemap: (deixe em branco se não tiver)
Robôs de pesquisa
Google
imagem do Google
Google Mobile
Pesquisa MSN
Yahoo
Yahoo MM
Blogs do Yahoo
Pergunte/Teoma
GigaBlast
Verificador DMOZ
Porca
Alexa/Wayback
Baidu
Naver
MSN PicSearch
Diretórios restritos
O caminho é relativo à raiz e deve conter uma barra final "/"

Robots.txt Um guia para Crawlers – Use Robots Txt Generator Google

Robots.txt é um arquivo que contém instruções sobre como rastrear um site. Ele também é conhecido como protocolo de exclusão de robôs, e este padrão é usado por sites para contar os bots que parte de seu site precisa de indexação. Além disso, você pode especificar quais áreas que você não quer ficar processado por esses rastreadores; essas áreas contêm conteúdo duplicado ou estão em desenvolvimento. Bots como detectores de malware, colheitadeiras e-mail não seguem esse padrão e irá procurar fraquezas em seus títulos, e há uma probabilidade considerável de que eles vão começar a examinar seu site a partir das áreas que você não quer ser indexado.

Um arquivo robots.txt completa contém “User-agent”, e abaixo dele, você pode escrever outras directivas como “Permitir”, “Proibir”, “Crawl-Delay” etc. se escrito manualmente pode levar muito tempo, e você pode digitar várias linhas de comandos em um arquivo. Se você quiser excluir uma página, você terá que escrever “Disallow: o link que você não quer que os bots para visitar” mesmo vale para o atributo permitindo. Se você acha que é tudo que existe no arquivo robots.txt, então não é fácil, uma linha errada pode excluir sua página da fila de indexação. Então, é melhor deixar a tarefa para os profissionais, deixar o nosso Robots.txt gerador de cuidar do arquivo para você.

O que é Robot Txt em SEO?

Sabe este pequeno arquivo, é uma forma de desbloquear melhor classificação para o seu site?

A primeira pesquisa de arquivo bots motor olhar é arquivo txt do robô, se não for encontrado, então há uma chance enorme de que crawlers não irá indexar todas as páginas do seu site. Este arquivo minúsculo pode ser alterado mais tarde, quando você adicionar mais páginas com a ajuda de pequenas instruções, mas certifique-se que você não adicionar a página principal do disallow directive.Google é executado em um orçamento rastreamento; este orçamento é baseado em um limite de rastreamento. O limite de rastreamento é o número de rastreadores tempo vai gastar em um site, mas se o Google descobre que rastrear seu site está agitando a experiência do usuário, em seguida, ele irá rastrear o site mais lento. Isto significa mais lentas que cada vez que o Google envia aranha, ele só irá verificar algumas páginas do seu site e seu mais recente post vai levar tempo para ser indexada. Para remover essa restrição, o seu site precisa ter um mapa do site e um arquivo robots.txt.

Como cada bot tem crawl cotação para um site, o que torna necessário ter um arquivo melhor robô para um site wordpress também. A razão é que ele contém uma grande quantidade de páginas que não precisam de indexação você pode até mesmo gerar um robôs WP arquivo txt com as nossas ferramentas. Além disso, se você não tem um robótica arquivo txt, crawlers ainda irá indexar o seu site, se é um blog eo site não tem um monte de páginas, então não é necessário ter um.

O Propósito de directivas em arquivo Um robots.txt

Se você estiver criando o arquivo manualmente, então você precisa estar ciente das orientações utilizados no arquivo. Você pode até mesmo modificar o arquivo mais tarde, depois de aprender como eles funcionam.

  • Crawl-delay
    Esta directiva é usada para impedir rastreadores de sobrecarregar o anfitrião, muitos pedidos pode sobrecarregar o servidor que irá resultar em má experiência do usuário. Crawl-delay é tratada de forma diferente por diferentes bots dos motores de busca, Bing, Google, Yandex tratar esta directiva de maneiras diferentes. Para Yandex é uma espera entre as visitas sucessivas, por Bing, é como uma janela de tempo em que o bot irá visitar o local apenas uma vez, e para o Google, você pode usar o console de busca para controlar as visitas dos bots.
  • Permitindo
    directiva permitindo que é usado para ativar a indexação da seguinte URL. Você pode adicionar quantos URLs como quiser especialmente se é um site de compras, em seguida, sua lista pode ficar grande. Ainda assim, usar apenas o arquivo robots se o seu site tem páginas que você não quer para ser indexada.
  • Impedindo
    O objetivo principal de um arquivo Robots é rastreadores de lixo de visitar os links mencionados, diretórios, etc. Esses diretórios, no entanto, são acessados por outros bots que precisam para verificar se há malwares porque não cooperar com o padrão.

Diferença entre um arquivo Sitemap e Um robots.txt

Um mapa do site é vital para todos os sites, uma vez que contém informações úteis para os motores de busca. Um mapa do site diz bots quantas vezes você atualizar seu site que tipo de conteúdo do seu site oferece. Sua principal motivação é notificar os motores de busca de todas as páginas do seu site tem que precisa ser rastreado enquanto robótica txt arquivo é para crawlers. Ele informa aos rastreadores quais página para rastrear e que não para. Um Sitemap é necessário para o seu site indexado enquanto txt do robô não é (se você não tem páginas que não precisam ser indexados).

Como fazer do robô usando o Google Robots Gerador de arquivos?

Robots txt arquivo é fácil de fazer, mas as pessoas que não estão cientes de como, eles precisam seguir as seguintes instruções para economizar tempo.

  1. Quando você ter desembarcado na página de Novos robôs txt gerador , você verá um par de opções, nem todas as opções são obrigatórios, mas você precisa escolher com cuidado. A primeira linha contém, valores padrão para todos os robôs e se você quiser manter um rastreamento-delay. Deixá-los como eles são, se você não quer mudá-los como mostrado na imagem abaixo:
  2. A segunda linha é de cerca de mapa do site, certifique-se de ter um e não se esqueça de mencioná-lo em arquivo txt do robô.
  3. Após isso, você pode escolher entre uma série de opções para os motores de busca se você quer os motores de busca bots para rastrear ou não, o segundo bloco é para imagens se você estiver indo para permitir a sua indexação a terceira coluna é para a versão móvel do local na rede Internet.
  4. A última opção é para desautorizar, onde você irá restringir os rastreadores de indexar as áreas da página. Certifique-se de adicionar a barra antes de preencher o campo com o endereço do diretório ou página.

Outras línguas: English, русский, 日本語, italiano, français, Português, Español, Deutsche, 中文

COMO VISTO EM:

Você pode gostar de nossas ferramentas e aplicativos mais populares
Assine nossa Newsletter e fique atualizado