跳至主要內容

    Googlebot

    Googlebot 是 Google 的爬蟲,負責抓取與索引網站內容;會遵守大多數 robots 規則與站點限制。

    定義

    Googlebot 是 Google 用來抓取網站內容的爬蟲(crawler)。它會讀取 robots.txt、遵循 HTTP 狀態碼與 redirect,並在可行時渲染 JavaScript 來理解頁面內容。

    為什麼重要

    • 你的可見度取決於 Googlebot 能否抓到、渲染並理解內容
    • 阻擋 Googlebot(或資源)會造成收錄延遲或失敗
    • 了解 user-agent 有助於 log 分析與除錯

    怎麼做(實作重點)

    • 不要在 robots.txt 誤擋重要頁與資源(CSS/JS)
    • 確保重要 URL 回 200 且有正確 canonical/hreflang
    • 用 Search Console 的 URL 檢查與抓取統計排查問題

    相關連結

    常見問題

    關於這個詞彙的常見問答。

    回到詞彙表