
文章插圖
網站Robots.txt文件可以告訴搜索引擎訪問哪些頁面, 并為網站上的哪些頁面提供索引 。 例如, 如果Robots.txt文件中指定的網絡不希望搜索引擎訪問您的“關于我們”頁面, 則該頁面將不會顯示在搜索結果中, 網絡用戶將無法訪問該頁面并找到它 。 保持搜索引擎訪問您網站上的某些頁面對于您網站的隱私和SEO非常重要 。
在本文中, 上海網站優化公司將解釋為什么會出現這種情況, 并為您提供關于如何建立一個好的Robots.txt文件的知識 。
首先, 機器人的工作方式
搜索引擎發出一個叫“蜘蛛”或“機器人”的微型程序來搜索你的網站, 并將信息帶回搜索引擎, 這樣你的網站頁面就可以在搜索結果中被索引, 被網絡用戶找到 。 您的Robots.txt文件指示搜索引擎蜘蛛程序不要抓取這些頁面, 并使用“不允許”命令在指定網站上搜索網頁 。 例如, 以下Robots.txt命令:
用戶代理:*
禁止:/謝謝
…將阻止所有搜索引擎機器人訪問您網站上的以下頁面:
請注意, 在“禁止”命令之前, 您有以下命令:
用戶代理:*
“用戶代理:”部分指定了要阻止的機器人, 可能如下所示:
用戶代理:Googlebot
此命令只會阻止谷歌機器人, 而其他機器人仍然可以訪問此頁面:
但是, 通過使用“*”字符, 您可以指定它下面的命令引用所有機器人 。 您的robots.txt文件將位于您網站的根目錄下 。 例如:
第二, 為什么有些頁面需要封禁
有三個原因, 你應該使用Robots.txt文件來阻止頁面 。 首先, 如果你網站上的一個頁面被另一個頁面復制了, 你不希望機器人索引, 因為這會導致內容重復, 從而破壞網站的SEO 。 第二個原因是, 如果網站上有頁面, 除非你采取具體措施, 否則你不會希望用戶訪問該頁面 。 例如, 如果您有一個“謝謝”頁面, 用戶可以訪問特定的信息, 因為他們已經給出了自己的電子郵件地址, 您可能不希望人們通過谷歌搜索找到這個頁面 。 阻止頁面或文件的另一個時機是當您想要保護站點回收站中的私有文件(如cgi)并防止機器人為您的圖像文件編制索引而占用帶寬時:
用戶代理:*
禁止:/圖像/
禁止:/cgi-bin/
在所有這些情況下, 都需要在Robots.txt文件中包含一個命令, 告訴搜索引擎蜘蛛不要訪問該頁面, 不要對搜索結果進行索引, 也不要向該頁面發送訪問者 。 讓我們看看如何創建一個Robots.txt文件來實現它 。
第三, 創建Robots.txt文件
通過設置一個免費的網站管理員工具帳戶, 您可以通過選擇菜單欄中“網站配置”選項下的“獲取工具訪問權限”選項, 輕松創建Robot . txt文件并設置一個簡單的Robot . txt文件 。
結論
【上海seo培訓:Robots文件在SEO優化中的重要性】 如果網站添加的內容不想被搜索引擎索引或網絡用戶訪問, 更新Robots.txt文件是非常重要的 。 這樣會保證網站的安全性, 通過優化搜索引擎得到最好的結果 。
相關經驗推薦
- seo管理:大膽假設小心求證是做SEO的訣竅
- 三明seo:聯通大數據公司與成都高新區簽署大數據智能產
- 上海青要焯水嗎
- 湖北seo:建站之前應該考慮哪些問題?
- 了解什么是百度SEO快排技術
- 灰色詞菠菜SEO快照劫持與推廣揭密(黑帽SEO)
- 什么是SEO輪鏈,SEO輪鏈實現自動化步驟
- 免費SEO診斷把脈活動進行中!
- SEO菜鳥需要掌握哪些基本SEO技巧?
- 上海seo培訓:帶您了解反鏈權重對SEO優化的影響
