Robot.txt文件要如何正確設置( 二 )


文章插圖

網站誤封Robots該如何處理
robots文件是搜索生態中很重要的一個環節,同時也是一個很細節的環節 。 很多站長同學在網站運營過程中,很容易忽視robots文件的存在,進行錯誤覆蓋或者全部封禁robots,造成不必要損失!
網站Robots文件誤封處理方式:
1、修改Robots封禁為允許,然后到百度搜索資源后臺檢測并更新Robots 。
2、在百度搜索資源后臺抓取檢測,此時顯示抓取失敗,沒關系,多點擊抓取幾次,觸發蜘蛛抓取站點 。
3、在百度搜索資源后臺抓取頻次,申請抓取頻次上調 。
4、百度反饋中心,反饋是因為誤操作導致了這種情況的發生 。
5、百度搜索資源后臺鏈接提交處,設置數據API推送(實時) 。
6、更新sitemap網站地圖,重新提交百度,每天手動提交一次 。
以上處理完,接下來就是等待了,一段時間后網站索引數據會開始慢慢回升,直至網站索引數據恢復到正常狀態!

相關經驗推薦