Googlebot
Googlebot 是 Google 的爬蟲,負責抓取與索引網站內容;會遵守大多數 robots 規則與站點限制。
定義
Googlebot 是 Google 用來抓取網站內容的爬蟲(crawler)。它會讀取 robots.txt、遵循 HTTP 狀態碼與 redirect,並在可行時渲染 JavaScript 來理解頁面內容。
為什麼重要
- 你的可見度取決於 Googlebot 能否抓到、渲染並理解內容
- 阻擋 Googlebot(或資源)會造成收錄延遲或失敗
- 了解 user-agent 有助於 log 分析與除錯
怎麼做(實作重點)
- 不要在 robots.txt 誤擋重要頁與資源(CSS/JS)
- 確保重要 URL 回 200 且有正確 canonical/hreflang
- 用 Search Console 的 URL 檢查與抓取統計排查問題
相關連結
常見問題
關於這個詞彙的常見問答。