網(wǎng)站建設之robots文件設置須知
眾所周知SEO優(yōu)化中robots文件是用來管理機器人抓取網(wǎng)站內(nèi)容的,而robots.txt文件則是放在我們網(wǎng)站根目錄下面的一個文本文件,用來規(guī)定什么蜘蛛(機器人)可以抓取什么文件,不可以抓取什么文件。我們通常用robots來告訴搜索引擎,這個目錄你可以進,那個目錄你不可以進;這個文件你可以訪問,那個文件你不能訪問。但是有些時候,robots文件,我們還是要謹慎使用的好。
事情還得從年初開始。年初濟南網(wǎng)站建設康美科技的網(wǎng)站維護員負責的一個網(wǎng)站因為網(wǎng)站剛建好,內(nèi)容還沒填充完整,大家的觀點不都是沒建好的網(wǎng)站不要給搜索引擎抓取嘛。我用robots.txt文件把網(wǎng)站根目錄屏蔽所有搜索引擎抓取,等到一個月之后,填充得已經(jīng)差不多了,我就開放蜘蛛抓取。我不僅有提交首頁網(wǎng)址給百度,提交網(wǎng)址診斷,而且還發(fā)了不少外鏈,但一天一天過去,在百度上面SITE網(wǎng)站就是一個收錄都沒有。我就納悶了,是不是我什么地方設置錯誤了呢?結果在谷歌上面site了一下已經(jīng)有上百個收錄了,360,搜狗上面也有少則幾個多則十幾個收錄了。于是我不得不認為是robots屏蔽,百度長時間未反應過來導致的。

網(wǎng)站建設之robots文件設置須知
前兩個月,我又有一個新站重新建好開始填充內(nèi)容,也是把網(wǎng)站屏蔽著,結果到現(xiàn)在都兩個月過去了,可是還是不收錄,首頁還是提示“由于該網(wǎng)站的robots.txt文件存在限制指令,系統(tǒng)無法提供該頁面的內(nèi)容描述?!倍雀缡珍浟?3條,搜狗收錄了1條,360收錄了45條。這次我這次徹底對度娘的robots文件反應速度是無語了。
前兩天在群里與伙伴們討論,一位叫烏鴉的大神說自己之前也遇到過幾次這樣的情況。
在此濟南網(wǎng)站建設康美科技慎重的提醒各位朋友,新建的網(wǎng)站,千萬不要先把網(wǎng)站文件上傳到空間后加個robots.txt,然后填充信息,填充好了才開放抓取。如果可以在本地把濟南網(wǎng)站建設建立好,填充好內(nèi)容再上傳最好,否則上傳到空間加robots禁止抓取,等開放抓取的時候,百度蜘蛛很可能又會幾個月時間都反應不過來。幾個月后網(wǎng)站才被收錄,對網(wǎng)站優(yōu)化的周期影響無疑是巨大的。因此建議大家多多注意robots的設置。
專業(yè)服務:濟南高端建網(wǎng)站,濟南網(wǎng)站制作,濟南網(wǎng)站設計,濟南網(wǎng)站制作公司
咨詢電話:13864169891(7*24小時在線服務)
咨詢QQ:269434804
公司網(wǎng)址:m.fxexvku.cn
本文標簽:robots文件 網(wǎng)站建設
聲明: 本文源自: 康美科技 ,轉載請保留鏈接: http://m.fxexvku.cn/258.html/