域名注冊 網(wǎng)站制作
您現(xiàn)在的位置:首頁 >> 常見問題 >> 內(nèi)容

為什么我的網(wǎng)站已經(jīng)加了robots.txt,還能在百度搜索出來?

時間:2014/3/22 10:36:18 點擊:710

摘要:因為搜索引擎索引數(shù)據(jù)庫的更新需要時間。雖然Baiduspider已經(jīng)停止訪問您網(wǎng)站上的網(wǎng)頁,但百度搜索引擎數(shù)據(jù)庫中已經(jīng)建立的網(wǎng)頁索引信息,可能需要數(shù)月時間才會清除。另外也請檢查您的robots配置是否...
因為搜索引擎索引數(shù)據(jù)庫的更新需要時間。雖然Baiduspider已經(jīng)停止訪問您網(wǎng)站上的網(wǎng)頁,但百度搜索引擎數(shù)據(jù)庫中已經(jīng)建立的網(wǎng)頁索引信息,可能需要數(shù)月時間才會清除。另外也請檢查您的robots配置是否正確。
如果您的拒絕被收錄需求非常急迫,也可以通過反饋中心反饋請求處理

轉(zhuǎn)載請保留原文地址: http://www.fij982.cn/show-256.html

責編:王麗 作者:不詳 來源:網(wǎng)絡(luò)