跳至主要內容

    Crawl Trap

    Crawl trap 指爬蟲掉進無限 URL 空間(參數、篩選、日曆)導致 crawl budget 被耗盡。

    定義

    Crawl trap(爬取陷阱)是指網站產生大量可探索但價值低的 URL(例如參數組合、篩選/排序、日曆頁),讓爬蟲持續抓取而浪費 crawl budget,導致重要頁反而抓不到或更新變慢。

    為什麼重要

    • 浪費 crawl budget,拖累重要頁的收錄與更新
    • 容易造成大量重複內容與 canonical 混亂
    • 在 pSEO/電商/篩選頁特別常見

    怎麼做(實作重點)

    • 限制可索引的參數組合(noindex 或 canonical)
    • 用 robots.txt 避免抓取低價值無限路徑(謹慎使用)
    • 優化內鏈:重要頁不被深層篩選頁稀釋

    相關連結

    常見問題

    關於這個詞彙的常見問答。

    回到詞彙表