搜索引擎蜘蛛,在搜索引擎系統中又被稱之為“蜘蛛”或“機器人”,是用來爬行和訪問頁面的程序。那么搜索引擎蜘蛛爬行和抓取網站的過程步驟是怎么樣的?【網站優化】
1、蜘蛛訪問
相信大家都知道它了,蜘蛛訪問任何一個網站時,都會先訪問網站根目錄下的robots.txt文件,如果robots.txt文件禁止搜索引擎抓取某些文件和目錄,蜘蛛會遵守協議,不抓取被禁止的網址。
2、跟蹤鏈接
為了抓取網上盡量多的頁面, 搜索引擎蜘蛛跟蹤頁面上的鏈接,從一個頁面爬到下一個頁面,最簡單的爬行策略分為兩種:一種是深度優先,另一種是廣度優先。
深度是指蜘蛛沿著發現的鏈接一直向前爬行,直到前面再也沒有其他鏈接,然后返回到第一個頁面,沿著另一個鏈接再一直往前爬行。
廣度是指蜘蛛在一個頁面上發現多個鏈接時,不是順著一個鏈接一直向前,而是把頁面上所有第一層鏈接都爬一遍,然后再沿著第二層頁面上發現的鏈接爬向第三層頁面。
3、吸引蜘蛛
SEO人員想要搜索引擎網站收錄,就要想辦法吸引蜘蛛來抓取,蜘蛛只會抓取有價值的頁面,以下是五個影響因素:網站和頁面權重、頁面更新度、導入鏈接、與首頁的距離、URL結構。
4、地址庫
為了避免重復爬行和抓取網址,搜索引擎會建立一個地址庫,記錄已經被發現但還沒有抓取的頁面,以及已經被抓取的頁面。蜘蛛在頁面上發現鏈接后并不是馬上就去訪問,而是將URL存入地址庫,然后統一安排抓取。
地址庫中URL有幾個來源:
① 人工錄入的種子網站;
② 蜘蛛抓取頁面后,從HTML中解析出新的鏈接URL,與地址庫中的數據進行對比,如果是地址庫中沒有網址,就存入待訪問地址庫;
③ 站長通過接口提交進來的網址;
④ 站長通過XML網站地圖、站長平臺提交的網址;
5) 文件存儲。搜索引擎蜘蛛抓取的數據存入原始頁面數據庫。
6) 爬行時進行復制內容檢測。