導航:首頁 > 網路信息 > 如何拒絕搜索引擎收錄網站

如何拒絕搜索引擎收錄網站

發布時間:2023-08-30 14:01:35

『壹』 如何讓網站不被搜索引擎收錄

上傳robot.txt到你的網站根目錄。

robots.txt是一個純文本文件,在這個文件中網站管理者可以聲明該網站中不想被robots訪問的部分,或者指定搜索引擎只收錄指定的內容。

當一個搜索機器人(有的叫搜索蜘蛛)訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜索機器人就會按照該文件中的內容來確定訪問的范圍;如果該文件不存在,那麼搜索機器人就沿著鏈接抓取。

另外,robots.txt必須放置在一個站點的根目錄下,而且文件名必須全部小寫。

robots.txt寫作語法

首先,我們來看一個robots.txt範例:http://www.seovip.cn/robots.txt

訪問以上具體地址,我們可以看到robots.txt的具體內容如下:

# Robots.txt file from http://www.seovip.cn
# All robots will spider the domain

User-agent: *
Disallow:

以上文本表達的意思是允許所有的搜索機器人訪問www.seovip.cn站點下的所有文件。

具體語法分析:其中#後面文字為說明信息;User-agent:後面為搜索機器人的名稱,後面如果是*,則泛指所有的搜索機器人;Disallow:後面為不允許訪問的文件目錄。

下面,我將列舉一些robots.txt的具體用法:

允許所有的robot訪問

User-agent: *
Disallow:

或者也可以建一個空文件 "/robots.txt" file

禁止所有搜索引擎訪問網站的任何部分

User-agent: *
Disallow: /

禁止所有搜索引擎訪問網站的幾個部分(下例中的01、02、03目錄)

User-agent: *
Disallow: /01/
Disallow: /02/
Disallow: /03/

禁止某個搜索引擎的訪問(下例中的BadBot)

User-agent: BadBot
Disallow: /

只允許某個搜索引擎的訪問(下例中的Crawler)

User-agent: Crawler
Disallow:

User-agent: *
Disallow: /

閱讀全文

與如何拒絕搜索引擎收錄網站相關的資料

熱點內容
傳文件用什麼軟體快點 瀏覽:924
連上otg後u盤顯示無文件 瀏覽:891
qq郵箱上怎樣發送文件夾里 瀏覽:248
如何用管理員許可權打開文件 瀏覽:587
js有二維數組嗎 瀏覽:594
熹妃q傳的網路什麼時候可以修好 瀏覽:165
key文件linux 瀏覽:990
java調用hessian 瀏覽:486
福建聚合網路公司怎麼樣 瀏覽:302
魅族手機備份文件夾 瀏覽:204
電腦c盤騰訊文件夾有什麼用 瀏覽:467
編程語言哪個最好就業 瀏覽:912
能不能找到cad之前打開的文件 瀏覽:259
怎樣設置文件夾許可權 瀏覽:60
oppo手機如何把圖片壓縮成文件 瀏覽:808
載入語言文件失敗 瀏覽:884
招聘plc編程屬於什麼職位類別 瀏覽:580
appstore改區後購買記錄 瀏覽:538
win10管理該文件沒有與之關聯的程序 瀏覽:799
手機里qt是什麼文件夾 瀏覽:48

友情鏈接