Robots.txt和Sitemap.xml

目录

一、Robots.txt 是什么?

二、Sitemap.xml

总结

一、Robots.txt 是什么?

我们可以在网站上手动或利用工具自动检查多个位置以开始发现更多内容。 

robots.txt 是一个文件,它告诉搜索引擎(爬虫)哪些页面可以显示,哪些页面不允许显示在搜索引擎结果中,或者禁止特定搜索引擎完全抓取该网站。通常的做法是限制某些网站区域,使其不会显示在搜索引擎结果中。这些页面可能是网站客户的管理门户或文件等区域。该文件为我们提供了网站上所有者不希望我们作为渗透测试人员发现的位置的列表。

Robots.txt和Sitemap.xml_第1张图片

二、Sitemap.xml

与限制搜索引擎爬虫可以查看的 robots.txt 文件不同,sitemap.xml 文件提供了网站所有者希望在搜索引擎上列出的每个文件的列表。这些有时可能包含网站中难以导航的区域,甚至列出当前网站不再使用但仍在幕后工作的一些旧网页。

Robots.txt和Sitemap.xml_第2张图片

总结

以上就是今天的内容,本文仅仅简单介绍了robots.txt 和sitemap.xml的区别与功能。

你可能感兴趣的:(网络安全入门,python,数据挖掘,http,网络安全)