Pierre Far, chuyên gia phân tích của Google Webmaster Trends nhận định rằng: "Các hướng dẫn mới nhấn mạnh việc bạn nên cho phép GoogleBot truy cập vào tất cả các dữ liệu Javascript, CSS và hình ảnh mà trang của bạn đang sử dụng” để “Google có thể thu thập dữ liệu và index nhanh hơn. Việc chặn các robots.txt dò tìm các file Javascript hay CSS sẽ gây hại trực tiếp đến việc các thuật toán tham gia vào rà soát nội dung của website cũng như ảnh hưởng tới quá trình index nội dung trong kết quả tìm kiếm. Điều này sẽ gây ra sự thiếu xót trong tối ưu hóa bảng xếp hạng".
Lời khuyên cho tối ưu hóa index
Thời gian trước, hệ thống index của Google chỉ có thể quét được các dòng nội dung trong trình duyệt dưới dạng văn bản (như Lynx chẳng hạn). Giờ đây, khi kiểu dò tìm thông tin “lạc hậu này” đã không còn phù hợp với các trình duyệt web hiện đại ngày nay, Google đã quyết định thay đổi và cải tiến hệ thống index:
Cũng giống như một số trình duyệt web hiện đại, công cụ dò tìm nội dung của Google không hỗ trợ tất cả các dạng công nghệ cao mà một trang web sử dụng. Chính vì vậy, một điều quan trọng ở đây là bạn nên thiết kế website theo các quy chuẩn mã ở mức độ phức tạp vừa phải để giúp cho hệ thống render của Google dễ dàng hơn trong việc nhìn biết được nội dung cũng như chức năng cơ bản của một số tính năng thiết kế web nào đó chưa được hỗ trợ.
Việc một trang web có thể được dò tìm nhanh chóng sẽ giúp ích rất nhiều trong việc giúp mang thông tin đó đến với người đọc; ngoài ra còn cải thiện tốc độ index và thứ hạng của website đó.
Vậy làm thế nào để bạn có thể điều hướng cho GoogleBot dò tìm thông tin theo đúng cách? Google đã tạo ra một công cụ Fetch and Render Tool trong Google Webmaster Tool là vì lý do này. Với công cụ đó, bạn có thể “xác định được số lượng các vấn đề trong quá trình index: bao gồm hạn chế sự dò tìm của robots.txt không đúng cách, redirect mà Google không thể theo kịp, vv. Hơn nữa, họ cũng đã đưa ra một số lời khuyên nhằm giúp mọi người có thể tối ưu hóa được hiệu suất trang một cách tốt nhất:
- Loại bỏ các Downloads không cần thiết.
- Tối ưu hóa dữ liệu CSS và JavaScript bằng cách kết hợp CSS riêng của bạn và các tập tin JavaScript; giảm bớt các tập tin kết nối, và cấu hình lại máy chủ của website để phục vụ các file nén (thường là nén gzip).
Kiểm tra và xử lý sự cố
Chính xác thì điều gì thay đổi trong Guidelines?
Trước:
Sử dụng trình duyệt dành riêng cho text như Lynx chẳng hạn để kiểm tra website của bạn, bởi vì hầu hết các spider của công cụ tìm kiếm đều dò quét nội dung theo kiểu của Lynx. Nếu các tính năng hiện đại như JavaScript, cookies, session IDs, frames, DHTML, or Flash ngăn cản bạn nhìn thấy nội dung trong toàn bộ website thì dĩ nhiên các spiders cũng sẽ gặp rắc rối trong quá trình thu thập thông tin từ website của bạn.
Sau:
Để giúp cho Google có thể hiểu được rõ hơn nội dung trong website của bạn, cho phép tất cả các sở mục trong website đều được quét như CSS, JavaScripts. Hệ thống index của Google sẽ tiến hành dò quét webpages có sử dụng HTML cũng như tất cả các tính năng khác như CSS, Java, hình ảnh… Để nhận biết được phần nào trong website Google không thể dò tìm được cũng như đưa ra chỉ thị gỡ lỗi cho file robots.txt của bạn, hãy sử dụng công cụ Fetch and Render Tool và Robots.txt Tester Tools trong Webmaster Tools.
0 nhận xét:
Post a Comment