close

做seo優化我們不得不懂的搜索引擎原理


  從事seo工作就必須要了解搜索引SEO擎原理,而我們做為一個稱職的seo優化人,搜索引擎的守護者,不得不對它的運行規律、工作原理、習性、優缺點做了解,同時也不是了解理論就可以,還SEO需要不斷地實踐,通過實踐得真理,通過實踐得到經驗。那麼搜索引擎到底是如何工作的呢?

  第一、搜索引擎爬行抓取

  1)網與網認為爬行抓取是搜索引擎工作最重要的一部分,爬取網頁回來分析,我們也應該知道我們在進行搜索時,基本是以秒來獲得結果的,在如此訊速的時 間裡得到自己想要的結果,可見搜索引擎是事先做好這部分工作的,如果不然,那麼想想每次搜索將要花多少時間與精力,其實按照網與網的理解來說,可以分為三 小部分:

  1、批量抓取所有網頁,這種技術的缺點是浪費帶寬,時效性不高。

  2、增量收集,在前者的基礎上進行技術改進,爬取更新的網頁,並刪除掉重復的內容以及無效的鏈接。

  3、主動提交地址到搜索引擎,當然這種主動提交的方式被認為是審核期加長,這在部分seo資深人員看來是這樣。

  2)在鏈接爬取的過程中通常有兩種方式我們需要理解,現在我們來了解一下深度優先以及廣度優SEO

  1、深度優先

  蜘蛛從頂級A開始抓取,比如先從seoA FG,再從AEHI,依次類推。


2、廣度優先

  主要指蜘蛛在一個頁發現多個鏈接,先爬取所有第一層,然後接著是第二層,第三層。。依次類推。

  
但總的來說,無論是哪種爬行,目的都是讓搜索引擎蜘蛛減少工作量,盡快完成抓取工作。


  但總的來說,無論是哪種爬行,目的都是讓搜索引擎蜘蛛減少工作量,盡快完成抓取工作。

  3)針對重復網頁,我們需要訪問列,同時也需要收集重要網頁的機制

  1、對於搜索引擎而言,如果重復爬取一些網頁,不seo公浪費帶寬,而且也不能增強時效性。所以搜索引擎需要一種技術來實現避免重復網頁的出現。目前,搜索引擎可以用已訪問列表以及未訪問表來記錄這個過程,這樣極大的減少了搜索引擎的工作量。

  2、重要的網頁需要重點收錄,因為互聯網就像大海,不可能搜索引擎什麼都抓取,所以需要采用不同的策略來收集一些重要的網頁,主搜尋行銷要可以通過幾方面來實現,比如:目錄越小有利於用戶體驗,節省蜘蛛爬行時間;高質量外鏈增加網頁權重;信息更新及時,提高搜索引擎的光顧率;網站內容高質量,高原創。

  第二、預處理是搜索引擎原理的第二步

  1、把網頁爬取回來,就需要多個處理階段,其中之一就是關鍵詞提取,把代碼爬取下來,去掉比如CSS,DIV等標簽,把這些對排名無意義的統統去除掉,剩下的是用於關鍵詞排名的文字。

  2、去除停用詞,有些專家也稱之為停止詞,比如我們常見的:的、地、得、啊、呀、哎等無意義詞。

  3、中文分詞技術,基於字符串匹配的分詞方法以及統計分詞方法。

  4、消除噪聲,把網站上的廣告圖片、登錄框之類的信息去隊掉。

  5、分析網頁,建立倒排文件方法

arrow
arrow
    全站熱搜
    創作者介紹
    創作者 leiyou 的頭像
    leiyou

    时尚美容

    leiyou 發表在 痞客邦 留言(0) 人氣()