关于我们 RRS sitemaps 网站地图

首页 > SEO基础 > SEO优化 > 正文

SEM论坛

为什么我的网站已经加了robots.txt,还能在百度搜索出来?

2019-07-02 16:13:06 |  评论:0  |  点击:  |  SEM论坛

  因为搜索引擎索引数据库的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。
  如果您的拒绝被收录需求非常急迫,也可以通过反馈中心反馈请求处理

  来源:SEO问答 转载注明出处!

关键字: