日本一卡精品视频免费丨国产午夜片无码区在线播放丨国产精品成人久久久久久久丨国产亚洲日韩av在线播放不卡丨亚洲日韩av无码

robots.txt文件是什么?robots.txt的寫法

2017/2/14 8:47:02   閱讀:1787    發布者:1787

  robots.txt是一個純文本文件,是搜索引擎訪問網站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務器上什么文件是可以被查看的。每個站點最好建立一個robots.txt文件,對網站SEO優化有很很好的作用。

  每當搜索蜘蛛來尋找并不存在的robots.txt文件時,服務器將在日志中記錄一條404錯誤,所以你應該在網站中添加一個robots.txt(即使這個robots.txt文件只是一個空文件)。

  robots.txt的寫法(語法)

  1)User-agent: 該項的值用于描述搜索引擎蜘蛛的名字。如果該項的值設為*,則該協議對任何機器人均有效。

  2)Disallow: 該項的值用于描述不希望被訪問到的一個URL,一個目錄或者整個網站。以Disallow開頭的URL 均不會被搜索引擎蜘蛛訪問到。任何一條Disallow記錄為空,說明該網站的所有部分都允許被訪問。

  3)用法舉例:

  網站目錄下所有文件均能被所有搜索引擎蜘蛛訪問

  User-agent: *

  Disallow:

  禁止所有搜索引擎蜘蛛訪問網站的任何部分

  User-agent: *

  Disallow: /

  禁止所有的搜索引擎蜘蛛訪問網站的幾個目錄

  User-agent: *

  Disallow: /a/

  Disallow: /b/

  禁止搜索引擎蜘蛛訪問目錄a和目錄b

  User-agent: Googlebot

  Disallow:

  只允許某個搜索引擎蜘蛛訪問

  您應該限制網站某些文件不被蜘蛛抓取。

  一般網站中不需要蜘蛛抓取的文件有:后臺管理文件、程序腳本、附件、數據庫文件、編碼文件、樣式表文件、模板文件、導航圖片和背景圖片等等。

主站蜘蛛池模板: 欧美情侣性视频| 亚洲一区二区三区乱码aⅴ蜜桃女| 欧美猛少妇色xxxxx| 日本大尺度吃奶呻吟视频| 顶级欧美熟妇高潮xxxxx| 波多野结衣av在线播放| 人妻av中文字幕久久| 日韩视频在线观看| 欧美精品a片久久www慈禧| 国产香蕉97碰碰久久人人| 成在线人免费视频| 国产精品pans私拍| 欧美精品一区午夜小说| 99久久精品国产一区二区三区| 极品白嫩少妇无套内谢| 久99久无码精品视频免费播放 | 中文无码一区二区不卡av| 日韩午夜激情视频| 骚片av蜜桃精品一区| 亚洲中文字幕在线无码一区二区 | 国产精品一区二区免费看| 日韩久久无码免费毛片软件| 国产无套内射又大又猛又粗又爽| 精品卡一卡二卡3卡高清乱码| 国产精品久久久久aaaa| 免费三级大片| 亚洲最新版av无码中文字幕一区| 波多野结衣绝顶大高潮| 在线观看肉片av网站免费| 手机在线免费观看av片| 精品人妻大屁股白浆无码| 欧美成人www在线观看| 狠狠躁18三区二区一区ai明星| xxxxxxxx黄色片| 欧美性猛交久久久乱大交小说 | 日本一区午夜艳熟免费| 色婷婷香蕉| 无码人妻啪啪一区二区|