robots.txt:如何讓搜索引擎不要抓取沒用的頁(yè)面

1462次閱讀

robots.txt.

| 什么是robots文件?

Robots是站點(diǎn)與spider溝通的重要渠道,是網(wǎng)站與搜索引擎爬蟲之間的協(xié)議,告知哪些可抓取哪些不允許。


| 為什么要做robots文件?

網(wǎng)站上總有一些頁(yè)面是禁止蜘蛛抓取的。例如:搜索頁(yè)面、篩選頁(yè)面、后臺(tái)登錄地址等。


| 如何制作 robots文件?

編寫robots.txt文件并上傳到網(wǎng)站根目錄。

 

| 制作 robots.txt注意事項(xiàng)

● 所有搜索引擎則用星號(hào)表示

● Allow(允許)和Disallow(不允許)優(yōu)先級(jí)

● 至少屏蔽一個(gè),可以屏蔽:搜索結(jié)果頁(yè)面/404頁(yè)面

● 記得將sitemap放到Robots文件中

● 可以陸續(xù)放入更多,而不是一次性決定所有

● 網(wǎng)站后臺(tái)地址/圖片地址/下載文件地址/錯(cuò)誤鏈接

 

本文的視頻課程地址:https://ke.seowhy.com/play/9492.html

閱讀本文的人還可以閱讀:

什么是robots文件?設(shè)置搜索robots協(xié)議的后果

robots.txt文件用法舉例,百度官方資料截圖版

robots.txt概念和10條注意事項(xiàng)

Robots.txt 文件應(yīng)放在哪里?

如何使用Robots避免蜘蛛黑洞?

本文由夫唯SEO特訓(xùn)營(yíng)編輯整理。

搜外專注SEO培訓(xùn)和SEO周邊Saas服務(wù)解決方案,10年來(lái)超過五萬(wàn)學(xué)員在此獲得技術(shù)提升和人脈圈子。

SEO課程包含移動(dòng)搜索、零基礎(chǔ)建站、群站SEO思維、搜外6系統(tǒng)、SEM入門等。

192期A班報(bào)名時(shí)間7月1日-7月15日,請(qǐng)?zhí)砑诱猩头∧⑿牛簊eowhy2021。 微信掃碼添加客服人員

我們的目標(biāo)是:讓非技術(shù)人員輕松學(xué)會(huì)互聯(lián)網(wǎng)技術(shù)。

  • 搜外會(huì)員SEO交流群(免費(fèi))

    微信掃碼添加客服人員
  • 小程序運(yùn)營(yíng)交流群(免費(fèi))

    微信掃碼添加客服人員
  • 搜外會(huì)員SEM競(jìng)價(jià)交流群(免費(fèi))

    微信掃碼添加客服人員
  • 夫唯學(xué)員SEO交流群(VIP)

    微信掃碼添加客服人員

掃碼獲取資源

微信掃碼添加客服人員
  • SEO技術(shù)實(shí)戰(zhàn)微信群

    微信掃碼添加客服人員
  • 大站流量總監(jiān)群(審核身份)

    微信掃碼添加客服人員
  • Google獨(dú)立站英文SEO群

    微信掃碼添加客服人員
  • SEO團(tuán)隊(duì)KPI管理表格

    微信掃碼添加客服人員
  • 工業(yè)品網(wǎng)站友情鏈接群

    微信掃碼添加客服人員
  • 本地生活服務(wù)業(yè)友鏈群

    微信掃碼添加客服人員

跟夫唯老師系統(tǒng)學(xué)習(xí)群站SEO
成為互聯(lián)網(wǎng)運(yùn)營(yíng)推廣大咖

掌握SEO技巧、建站前端、群站霸屏、SEM入門、新聞源推廣……
Processed in 0.123155 Second , 40 querys.