• <tbody id="9je1r"></tbody><tbody id="9je1r"><acronym id="9je1r"><rp id="9je1r"></rp></acronym></tbody>
      • <acronym id="9je1r"><acronym id="9je1r"><rp id="9je1r"></rp></acronym></acronym>

        亚洲无码Aⅴ,视频1页精品,欧美系列一区二区,曰韩色999

        robots.txt文件是什么?robots.txt的寫法

        2017/2/14 8:47:02   閱讀:1727    發(fā)布者:1727

          robots.txt是一個純文本文件,是搜索引擎訪問網(wǎng)站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務器上什么文件是可以被查看的。每個站點最好建立一個robots.txt文件,對網(wǎng)站SEO優(yōu)化有很很好的作用。

          每當搜索蜘蛛來尋找并不存在的robots.txt文件時,服務器將在日志中記錄一條404錯誤,所以你應該在網(wǎng)站中添加一個robots.txt(即使這個robots.txt文件只是一個空文件)。

          robots.txt的寫法(語法)

          1)User-agent: 該項的值用于描述搜索引擎蜘蛛的名字。如果該項的值設為*,則該協(xié)議對任何機器人均有效。

          2)Disallow: 該項的值用于描述不希望被訪問到的一個URL,一個目錄或者整個網(wǎng)站。以Disallow開頭的URL 均不會被搜索引擎蜘蛛訪問到。任何一條Disallow記錄為空,說明該網(wǎng)站的所有部分都允許被訪問。

          3)用法舉例:

          網(wǎng)站目錄下所有文件均能被所有搜索引擎蜘蛛訪問

          User-agent: *

          Disallow:

          禁止所有搜索引擎蜘蛛訪問網(wǎng)站的任何部分

          User-agent: *

          Disallow: /

          禁止所有的搜索引擎蜘蛛訪問網(wǎng)站的幾個目錄

          User-agent: *

          Disallow: /a/

          Disallow: /b/

          禁止搜索引擎蜘蛛訪問目錄a和目錄b

          User-agent: Googlebot

          Disallow:

          只允許某個搜索引擎蜘蛛訪問

          您應該限制網(wǎng)站某些文件不被蜘蛛抓取。

          一般網(wǎng)站中不需要蜘蛛抓取的文件有:后臺管理文件、程序腳本、附件、數(shù)據(jù)庫文件、編碼文件、樣式表文件、模板文件、導航圖片和背景圖片等等。

        亚洲无码Aⅴ,视频1页精品,欧美系列一区二区,曰韩色999
            • <tbody id="9je1r"></tbody><tbody id="9je1r"><acronym id="9je1r"><rp id="9je1r"></rp></acronym></tbody>
            • <acronym id="9je1r"><acronym id="9je1r"><rp id="9je1r"></rp></acronym></acronym>
              云安县| 雷波县| 武隆县| 晋州市| 长汀县| 乐业县| 武胜县| 砚山县| 宁陵县| 泉州市| 大同县| 新密市| 尼木县| 莱州市| 哈巴河县| 积石山| 巨野县| 泰宁县| 姚安县| 山西省| 定结县| 保亭| 西青区| 涞源县| 武宁县| 革吉县| 青龙| 保定市| 商河县| 上杭县| 额尔古纳市| 库尔勒市| 云安县| 秦皇岛市| 普兰店市| 中方县| 兰溪市| 泰顺县| 泰和县| 万源市| 麻城市|