Tin tức và phân tích của tất cả các thiết bị di động

Google cho biết chặn một số tài nguyên bên ngoài là ổn

Trong một giờ Office SEO JavaScript gần đây, Martin Splitt của Google đã trả lời một câu hỏi về việc chặn các tài nguyên CSS và CSS bên ngoài. Câu hỏi đặt ra là liệu việc chặn tài nguyên có khiến trang web bị mất thứ hạng hay không.

Tuy nhiên, có một nếp nhăn trong câu hỏi đã được hỏi …

JavaScript và CSS bị chặn có thể ảnh hưởng đến thứ hạng

Khóa các tệp JavaScript và CSS có thể gây ra sự cố phân loại trong các tình huống nhất định. Một trong những lý do là vì Google cần một số tệp đó để hiển thị trang web và xác định xem nó có tương thích với thiết bị di động hay không.

Một trang chính thức của nhà phát triển Google cho biết điều này:

Để có kết xuất và lập chỉ mục tối ưu, luôn cho phép Googlebot truy cập các tệp JavaScript, CSS và hình ảnh được sử dụng bởi trang web của bạn để Googlebot có thể xem trang web của bạn như một người dùng trung bình.

Nếu tệp robot.txt của trang web của bạn không cho phép các tài sản này được theo dõi, điều đó trực tiếp làm tổn thương mức độ thuật toán của chúng tôi xử lý và lập chỉ mục nội dung của chúng. Điều này có thể dẫn đến xếp hạng dưới tối ưu. "

Khóa JavaScript và CSS bên ngoài

Người đặt câu hỏi có lý do chính đáng để lo lắng về cách Google có thể phản ứng với việc chặn tài nguyên bên ngoài.

Câu hỏi:

"Nếu bạn sử dụng robot.txt để chặn JS hoặc CSS trong các tệp / tệp CSS bên ngoài trong một tên miền khác hoặc nếu một tên miền khác chặn chúng, người dùng sẽ thấy những thứ khác với Googlebot, phải không?

Google có nghi ngờ loại trang này và giảm chúng không?

Martin Splitt tự tin trả lời:

"Không, chúng tôi sẽ không tải xuống bất cứ thứ gì. Nó không phải là che giấu. Che giấu rất cụ thể có nghĩa là lừa dối người dùng.

Chỉ vì chúng tôi không thể thấy nội dung không nhất thiết có nghĩa là bạn đang đánh lừa người dùng. "

Che giấu là một thủ thuật mà những kẻ gửi thư rác sử dụng để hiển thị một bộ nội dung cho Google nhằm lừa Google phân loại nội dung đó và hiển thị một trang web hoàn toàn khác cho người dùng, chẳng hạn như trang web chứa virus hoặc spam.

Che giấu cũng là một cách để ngăn Google thu thập dữ liệu URL mà các nhà xuất bản không muốn Google nhìn thấy, chẳng hạn như các liên kết liên kết.

Câu trả lời của Martin xuất phát từ hướng liệu việc chặn các nguồn lực bên ngoài sẽ được coi là một sự che đậy và câu trả lời của anh là không.

Làm thế nào để chặn tài nguyên bên ngoài có thể có vấn đề

Martin tiếp tục mô tả làm thế nào chặn tài nguyên bên ngoài có thể trở thành một vấn đề:

"Vẫn có khả năng có vấn đề nếu nội dung của bạn chỉ xuất hiện khi chúng tôi có thể nhận được các tài nguyên này và chúng tôi không thấy nội dung trong HTML được hiển thị vì nội dung đó bị chặn bởi tệp robots.txt.

Vì vậy, chúng tôi không thể lập chỉ mục nó. Nếu nội dung bị thiếu, chúng tôi không thể lập chỉ mục cho nó. "

Các công cụ kiểm tra của Google sẽ tiết lộ các vấn đề

Martin sau đó cho thấy cách một biên tập viên có thể chẩn đoán liệu khóa tài nguyên có vấn đề hay không.

"Do đó, rất đáng để thử các công cụ kiểm tra của chúng tôi để xem liệu nội dung bạn muốn xem trên trang có thực sự hiển thị trên trang hay không, mặc dù một số tài nguyên JavaScript hoặc CSS có thể là robot.

Nhưng nói chung, robot hóa tài nguyên JavaScript hoặc CSS không phải là một vấn đề. Nó có thể là một vấn đề nếu chúng ta không thể xem nội dung, nhưng nó tốt từ quan điểm che đậy, không phải là che đậy. "

Ông nói rõ hơn:

"Nếu JavaScript tải nội dung và chúng tôi không thể tải JavaScript đó vì nó là robot, chúng tôi sẽ không thấy nội dung đó và điều đó có thể có vấn đề." Nhưng nếu đó là một bản nâng cấp như hộp trò chuyện hoặc tiện ích bình luận thì đó không phải là vấn đề. "

Biên tập viên hỏi một câu hỏi mẹo

Đó là một câu trả lời thú vị rằng bạn có thể chặn các tài nguyên bên ngoài được liên kết với hộp trò chuyện hoặc tiện ích nhận xét. Chặn các tài nguyên đó có thể hữu ích, ví dụ: nếu nó giúp tăng tốc kết xuất trang web cho Google, nhưng …

Nhưng có một nếp nhăn nhẹ trong câu hỏi: Bạn không thể chặn tài nguyên bên ngoài (trong một tên miền khác) bằng robot.txt.

Câu hỏi ban đầu là hai phần.

Đây là phần có vấn đề đầu tiên:

"Nếu bạn sử dụng robot.txt để chặn JS hoặc CSS trong các tệp JS / tệp CSS bên ngoài trong một miền khác …"

Đó là một phần của câu hỏi là không thể đạt được với Robots.txt.

Trang nhà phát triển Google đề cập đến chủ đề này về tệp robot.txt:

"Nó hợp lệ cho tất cả các tệp trong tất cả các thư mục con trên cùng một máy chủ, giao thức và số cổng."

Điều bị bỏ qua về câu hỏi đó là robot.txt chỉ sử dụng URL tương đối, không phải URL tuyệt đối (ngoại trừ vị trí của sơ đồ trang web).

URL tương đối có nghĩa là URL "tương đối" với trang có liên kết.

Trong tệp HTACCESS, tất cả các URL trông như thế này:

/file-1/example

Và đây là một URL tuyệt đối trông như thế nào:

https://www.example.com

Vì vậy, nếu bạn không thể sử dụng URL tuyệt đối trong tệp robot.txt thì bạn không thể chặn tài nguyên bên ngoài bằng tệp robot.txt.

Phần thứ hai của câu hỏi là đúng về mặt kỹ thuật:

"… Hoặc nếu một tên miền khác chặn chúng, thì người dùng sẽ thấy những thứ khác với Googlebot, phải không? Google có mất lòng tin loại trang này và hạ cấp chúng không?

Tài nguyên bên ngoài thường bị chặn bởi các trang web khác. Vì vậy, câu hỏi và câu trả lời có ý nghĩa hơn từ hướng đó.

Martin Splitt nói rằng việc chặn các tài nguyên bên ngoài đó không được che đậy. Câu nói đó là đúng nếu bạn không sử dụng Robots.txt.

Đó có lẽ là những gì Martin đã đề cập, nhưng …

Nhưng câu hỏi cụ thể là về robot.txt.

Trong thế giới thực, nếu bạn muốn chặn tài nguyên bên ngoài bằng tệp robot.txt, nhiều biện pháp để che giấu.

Che đậy có một danh tiếng xấu và vì lý do tốt. Nhưng sự thật là, không phải tất cả các trang bìa đều xấu. Ví dụ, Yoast có một hướng dẫn về kỹ thuật che giấu liên kết chẳng hạn.

Một số hình thức che giấu có thể là một cách chặn tài nguyên không liên quan gì đến cách hiển thị trang và phù hợp với những gì Google khuyến nghị.

Kiểm tra giờ làm việc của Google JavaScript SEO tại đây:

Mục lục