我需要控制哪些URL可以被索引。为了做到这一点,我想让谷歌只索引我的站点地图中列出的URL,并禁止谷歌索引其他任何内容。
最简单的解决方法是,如果有一种方法可以配置robots.txt来拒绝所有内容:
User-agent: * Disallow: /
同时允许在以下列表中列出的每个URL:
Sitemaps: sitemap1.xml Sitemaps: sitemap2.xml
是否可以配置robots.txt来实现这一点?或者还有其他解决方法吗?
最简单的解决方法是,如果有一种方法可以配置robots.txt来拒绝所有内容:
User-agent: * Disallow: /
同时允许在以下列表中列出的每个URL:
Sitemaps: sitemap1.xml Sitemaps: sitemap2.xml
是否可以配置robots.txt来实现这一点?或者还有其他解决方法吗?