O arquivo robots.txt é um item primordial para o gerenciar o comportamento de crawlers (robôs de rastreamento) no site.
É possível escolher quais páginas podem ser rastreadas, quanto tempo o robô deve passar em cada página, definir um sitemap e ainda realizar configurações para cada robô, sendo os principais: