作為一名SEOer大家肯定是知道搜索蜘蛛的,但是關(guān)于robots.txt這個(gè)搜索蜘蛛遵循協(xié)議,卻鮮少有人談起,其實(shí)用好robots是很容易為你網(wǎng)站提權(quán)的。
第一,用robots屏蔽網(wǎng)站重復(fù)頁(yè)
很多網(wǎng)站一個(gè)內(nèi)容提供多種瀏覽版本,雖然很方便用戶卻對(duì)蜘蛛造成了困難,因?yàn)樗植磺迥莻€(gè)是主,那個(gè)是次,一旦讓它認(rèn)為你在惡意重復(fù),兄弟你就慘了
User-agent: *
Disallow: /sitemap/ 《禁止蜘蛛抓取 文本網(wǎng)頁(yè)》
第二,用robots保護(hù)網(wǎng)站安全
很多人納悶了,robots怎么還和網(wǎng)站安全有關(guān)系了?其實(shí)關(guān)系還很大,不少低級(jí)黑客就是通過(guò)搜索默認(rèn)后臺(tái)登陸,以達(dá)到入侵網(wǎng)站的目標(biāo)
User-agent: *
Disallow: /admin/ 《禁止蜘蛛抓取admin目錄下所有文件》
第三,防止盜鏈
一般盜鏈也就幾個(gè)人,可是一旦被搜索引擎“盜鏈”那家伙你100M寬帶也吃不消,如果你做的不是圖片網(wǎng)站,又不想被搜索引擎“盜鏈”你的網(wǎng)站圖片
User-agent: *
Disallow: .jpg$
第四,提交網(wǎng)站地圖
現(xiàn)在做優(yōu)化的都知道做網(wǎng)站地圖了,可是卻沒(méi)幾個(gè)會(huì)提交的,絕大多數(shù)人是干脆在網(wǎng)頁(yè)上加個(gè)鏈接,其實(shí)robots是支持這個(gè)功能的
Sitemap: http://www.010wangzhanyouhua.com/sitemaps/sitemaps_1.xml
第五,禁止某二級(jí)域名的抓取
一些網(wǎng)站會(huì)對(duì)VIP會(huì)員提供一些特殊服務(wù),卻又不想這個(gè)服務(wù)被搜索引擎檢索到
User-agent: *
Disallow: /