[Hướng dẫn SEO] Khi nào cần chặn Googlebot crawl các trang phân trang (Pagination)?
Published on: April 01, 2023
Last updated: August 02, 2025 Xem trên toàn màn hình
Last updated: August 02, 2025 Xem trên toàn màn hình



- 02 May 2023
Hiểu Đúng Chỉ Số: Linking Root Domains, Ranking Keywords và Spam Score Trên Moz 147
- 09 Oct 2023
Backlinks và Linking Websites: Chỉ Số Nào Mới Thực Sự Quyết Định Sức Mạnh SEO Của Bạn? 131
- 01 Jul 2023
Xây Dựng Domain Liên Kết Đa Dạng – Chiến Lược Thành Công Trong Cuộc Chiến SEO 101
- 02 Dec 2023
Tại sao Website của Bạn Có Traffic Cao nhưng Domain Authority Thấp? Giải Mã Bí Ẩn Đằng Sau! 101
- 10 Aug 2020
Bạn có biết quy tắc thất bại nhanh: Fail early, fail often, fail cheap, but always fail forward 74
- 11 Mar 2025
Thiên hướng Hành động (Bias for Action) và Thiên hướng Quy trình (Bias for Process) tác động tiêu cực tới "đổi mới và sáng tạo" như thế nào? 39
- 16 Apr 2025
Lãnh đạo linh hoạt: Hành động (Bias for Action) hay không hành động (Non-Action)? 20
- 02 Aug 2024
[Hướng dẫn SEO] Phân Trang (Pagination) Có Tốt Cho SEO Không? 6
Tình huống: Chặn Googlebot crawl các trang phân trang
Một admin web blog cấu hình file robots.txt
như sau:
User-agent: * Disallow: /blog?page=
Hoặc:
User-agent: * Disallow: /*?page=
Giải thích:
-
Disallow: /blog?page=
có nghĩa là Googlebot sẽ không được phép crawl bất kỳ URL nào có chuỗi/blog?page=
, chẳng hạn:/blog?page=2
/blog?page=3
-
Dòng
Disallow: /*?page=
còn nguy hiểm hơn vì nó áp dụng cho toàn bộ website, bất kỳ URL nào có?page=
đều bị chặn.
Hậu quả đối với SEO
Google không thể crawl các trang tiếp theo
- Chỉ crawl được
/blog
hoặc/blog?page=1
- Mọi bài viết nằm ở các trang sau (trang 2, 3, 4...) sẽ không bao giờ được Google nhìn thấy
Mất index các nội dung quan trọng
- Nếu nội dung cũ, hoặc sản phẩm nằm ở trang 2-10, Google sẽ không index chúng
- Website có nguy cơ mất hàng loạt cơ hội hiển thị trên Google
Tỷ lệ index thấp hơn crawl budget
Google bot sẽ dừng lại ở trang đầu và nghĩ rằng website của bạn ít nội dung → ảnh hưởng đến đánh giá chất lượng tổng thể của site.
Khi nào có thể dùng chặn này?
Chỉ nên chặn nếu:
- Bạn có hệ thống phân trang vô hạn (infinite scroll) và các trang sau là nội dung lặp lại hoặc không quan trọng
- Bạn muốn hợp nhất toàn bộ nội dung về trang đầu tiên và không muốn bị index trùng lặp
- Bạn đã dùng canonical hợp lý và thiết lập sơ đồ site XML để khai báo nội dung chính
Lời khuyên (Best Practices)
Thay vì chặn, hãy để Google crawl các trang phân trang, nhưng:
- Tối ưu internal link rõ ràng
- Dùng canonical chuẩn
- Đảm bảo nội dung ở các trang sau vẫn có giá trị SEO
Kết luận
Không nên chặn phân trang trong robots.txt trừ khi bạn hiểu rõ hậu quả và đã có chiến lược SEO thay thế để Google không bỏ sót nội dung quan trọng.
[{"displaySettingInfo":"[{\"isFullLayout\":false,\"layoutWidthRatio\":\"\",\"showBlogMetadata\":true,\"showAds\":true,\"showQuickNoticeBar\":true,\"includeSuggestedAndRelatedBlogs\":true,\"enableLazyLoad\":true,\"quoteStyle\":\"1\",\"bigHeadingFontStyle\":\"1\",\"postPictureFrameStyle\":\"1\",\"isFaqLayout\":false,\"isIncludedCaption\":false,\"faqLayoutTheme\":\"1\",\"isSliderLayout\":false}]"},{"articleSourceInfo":"[{\"sourceName\":\"\",\"sourceValue\":\"\"}]"},{"privacyInfo":"[{\"isOutsideVietnam\":false}]"},{"tocInfo":"[{\"isEnabledTOC\":true,\"isAutoNumbering\":false,\"isShowKeyHeadingWithIcon\":false}]"},{"termSettingInfo":"[{\"showTermsOnPage\":true,\"displaySequentialTermNumber\":true}]"}]
Nguồn
{content}
