6 bước kiểm tra “sức khỏe” SEO (Phần 1)

0
70

On-page SEO (tối ưu hóa các yếu tố hiển thị trên trang web như thẻ meta hay nội dung), off-page SEO (tối ưu hóa các yếu tố ngoài trang web như xây dựng link liên kết), và SEO kỹ thuật, có thể xem là ba “cột trụ” của tối ưu hóa công cụ tìm kiếm tự nhiên. Trong ba yếu tố này, SEO kỹ thuật hay thường dễ bị lãng quên, bởi có vẻ như nó khó xơi nhất.

Tuy nhiên, với sự cạnh tranh trong kết quả tìm kiếm hiện nay, những marketer không thể nào né tránh những thách thức của SEO kỹ thuật – một trang web có thể crawl nhanh, an toàn và sẽ đảm bảo trang của bạn luôn xuất hiện hoàn hảo trên công cụ tìm kiếm. Crawl là khả năng thu thập toàn bộ nội dung văn bản để tìm ra thông tin về trang web của bạn.

technical SEO health check

Kỹ thuật kiểm tra “sức khỏe” SEO khá khác nhau

Vì kỹ thuật SEO là một chủ đề rộng lớn (và đang phát triển), bài viết này sẽ không thể bao gồm hết mọi thứ. Tuy nhiên, nó sẽ chỉ ra 6 yếu tố cơ bản của kỹ thuật SEO bạn nên chú ý và cải thiện chất lượng trang web của mình và giữ nó hoạt động hiệu quả. Khi bạn đã làm chủ được 6 yếu tố cơ bản này, bạn có thể tiếp tục với những chiến lượng SEO kỹ thuật nâng cao hơn.

1. Hãy chắc chắn trang web của bạn có thể crawl

Thật vô ích để viết một nội dung hấp dẫn cho các trang web mà công cụ tìm kiếm không thể crawl (khả năng thu thập toàn bộ nội dung văn bản để tìm ra thông tin về trang web của bạn) và lập chỉ mục các trang này. Do đó, bạn nên bắt đầu bằng cách kiểm tra file robot.txt. Tệp tài liệu này là điểm gọi đầu tiên cho bất cứ phần mềm crawl web nào khi nó xuất hiện ở trang của bạn.

Những tệp tài liệu robots.txt sẽ phác họa các phần trong trang web nên hoặc không nên được crawl. Nó thực hiện việc này bằng cách “cho phép” hoặc “không cho phép” các hành động của những đại diện người dùng cụ thể. Các tệp robots.txt có sẵn cho mọi người và có thể được tìm thấy bằng việc thêm /robots.txt vào phần cuối của bất cứ root domain nào. Đây là một ví dụ cho trang Hallam.

robot.txt file

Chúng ta có thể thấy là Hallam đang yêu cầu những URLs bắt đầu với /wp-admin (phần backend của trang web) không được crawl. Bằng cách chỉ ra những chỗ không cho phép những đại diện người dùng này, bạn sẽ tiết kiệm được lượng băng truyền (bandwidth), tài nguyên server, và quỹ crawl của mình.

Cũng như, bạn sẽ không muốn ngăn các bot công cụ tìm kiếm khỏi crawl những phần quan trọng của website chỉ bởi vô tình “không cho phép” chúng. Vì nó sẽ là tệp đầu tiên mà các bot thấy khi crawl trang của bạn, đây cũng là cách tốt nhất để dẫn đến các sơ đồ trang web.

Bạn có thể chỉnh sửa và kiểm tra các tệp robots.txt trong Google Search Console cũ.

robot.txt file test in Google Search Console

Đối với những marketer kỹ thuật số, phiên bản Google Search Console mới vẫn cung cấp ít chức năng hơn phiên bản cũ. Đặc biệt là khi đề cập đến SEO kỹ thuật. Trong thời gian viết, bạn vẫn có thể xem những crawl stats trên search console cũ để hiểu cách trang web của mình được crawl.

crawl stats

crawl stats

Bản báo cáo này hiển thị ba biểu đồ chính với dữ liệu trong 90 ngày gần đây. Những trang được crawl mỗi ngày, kilobytes được tải mỗi ngày, và thời gian được sử dụng để tải một trang (bằng milliseconds) sẽ hợp thành tỉ lệ crawl của trang web và mối quan hệ với bots công cụ tìm kiếm.

2. Kiểm tra rằng trang web có thể lập chỉ mục (index)

Đào sâu lại bản báo cáo tình hình Google Search Console, chúng ta có thể xem tình trạng của mọi trang web. we can look at the status of every page of the website.

Google Analytics impressions

Trong bản báo cáo này, chúng ta có thể có:

  • Errors (Lỗi): Lỗi gián tiếp, 404s.
  • Valid with warnings (Hiệu lực với các cảnh báo): Các trang được lập chỉ mục nhưng với các cảnh báo đi kèm.
  • Valid (Hiệu lực): Các trang được lập chỉ mục thành công.
  • Excluded (Loại trừ): Những trang bị loại trừ khỏi việc được lập chỉ mục và lý do cho điều này, như là các trang với điều hướng lại hay bị khóa bởi robots.txt.

Bạn cũng có thể phân tích những URL cụ thể dùng công cụ kiểm tra URL. Có lẽ bản muốn kiểm tra một trang mới bạn vừa thêm vào có được lập chỉ mục hay gỡ sự cố một URl nếu nó giảm lượt truy cập đến một trong những trang chính của bạn.

3. Xem lại sơ đồ trang web

Khi nhắc đến SEO, bạn không thể đánh giá thấp tầm quan trọng của một sơ đồ dễ hiểu và có hệ thống. Sơ đồ trang web XML là một sơ đồ trang web của bạn đến Google và những crawler công cụ tìm kiếm khác.

Tối thiểu là, nó sẽ giúp những crawler này sẽ tìm và xếp hạng các trang này. Có một vài yếu tố quan trọng như sau để bạn cần nhắc khi xem xét một sơ đồ trang web:

  • Sơ đồ trang web nên được định dạng trong tài liệu XML.
  • Nên theo protocol sơ đồ trang web XML.
  • Chỉ bao gồm phiên bản canonical của các link URL.
  • Không bao gồm “không lập chỉ mục (noindex)” URL.
  • Bao gồm tất cả các trang web mới khi bạn cập nhật hoặc tạo ra chúng.

Nếu bạn dùng Yoast SEO plugin, nó có thể tạo ra sơ đồ trang web XML cho bạn. Nếu bạn đang dùng Screaming Frog, phân tích sơ đồ web của họ rất chi tiết. Bạn có thể thấy những URL trong sơ đồ web của mình, những URL bị bỏ lỡ (missing URL) hay những orphaned URL.

sitemap example

Hãy chắc chắn sơ đồ trang web của mình bao gồm những trang quan trọng nhất của bạn, không bao gồm các trang bạn không muốn Google lập chỉ mục, và được cấu thành đúng cách. Khi bạn hoàn thành những điều này, bạn nên cập nhật lại lại sơ đồ trang web của bạn cho Google Search Console.

TRẢ LỜI

Please enter your comment!
Please enter your name here