Tiếp tục series "Những thuật ngữ thường dùng trong SEO được hiểu như thế nào?"
Search Algorithm
Thuật toán tìm kiếm của Google được sử dụng để tìm các trang web có liên quan nhất cho bất kỳ truy vấn tìm kiếm. Thuật toán xem xét hơn 200 yếu tố, bao gồm cả giá trị PageRank
Thẻ tiêu đề, thẻ meta nội dung của các trang web, tuổi của tên miền, ...
SERP (Search Engine Results Page)
SERP là những trang kết quả được bộ máy tìm kiếm (Google, Yahoo, Bing, ...) trả về khi một ai đó thực hiện một truy vấn tới các bộ máy tìm kiếm này. Số lượng truy cập tìm kiếm trang web của bạn phụ thuộc và bảng xếp hạng sẽ có bên trong các SERPs.
Sandbox
Về cơ bản nó là chỉ số riêng biệt. Cách Sandbox hoạt động: Bởi Google nghĩ rằng không có site mới nào có thể có được thứ hạng cao cho đến khi chúng chứng minh được giá trọ của mình. Do vậy Google cho các site mới vào Sanbox và trì hoãn việc đánh giá và xếp hạng các site này.
Keyword Density
Mật độ từ khoá chính là tỉ lệ phần trăm giữa số lần xuất hiện từ hay cum từ khoá so với tổng số từ hiển thị trong trang web của bạn.
Dựa vào mật độ từ khoá xuất hiện trong trang web của bạn, các "spider" sẽ căn cứ vào số liệu này để đánh giá trang web của bạn đang cung cấp nội dung liên quan đến nội dung hay chủ đề gì.
Đây được xem là yếu tố quan trọng khi bạn muốn các spider xác định đúng từ khoá cho trang landing-page của mình.
Keyword Stuffing (Từ khoá nhồi)
Là thủ thuật liên quan đến các phần trong trang web lặp lại nhiều lần một từ khoá nhất định để gây ảnh hưởng lớn lên kết quả công cụ tìm kiếm. Nhiều năm trước các công cụ tìm kiếm đã vô hiệu thủ thuật này nhưng vì vài lý do thủ thuật này hiện nay vẫn đang được sử dụng rộng rãi và tinh vi hơn rất nhiều.
Cloaking
Trong kỹ thuật SEO thì cloaking ám chỉ hành động của webmaster che dấu bot của search engine như Google crawl các nội dung mà người dùng nhìn thấy, đồng thời đề xuất cho các Bot nhìn thấy các nội dung được Onpage optimize tốt nhằm mục đích đạt được các vị trí cao trên SERP.
VD:Trong một số trường hợp, bạn sẽ ngạc nhiên khi nhìn thấy những web hay webpage không có liên quan đến nội dung từ khóa search nhưng lại đứng vị trí rất cao trên SERP.
Web Crawler
Web crawler, web spider hay web robots là một chương trình tự động tìm kiếm trên internet được thiết kết để thu thập tài nguyên internet web crawler, web spider hay web robot còn gọi là bọ tìm kiếm là một chương trình tự động tìm kiếm trên internet. Nó được thiết kết để thu thập tài nguyên internet (trang web, hình ảnh, video, tài liệu word, pdf hay postscrips), cho phép máy tìm kiếm đánh chỉ số sau đó.
Duplicate Content
Nội dung (content) là nội dung của bài viết trên website, là phần quan trọng và ưu tiên nhất của một trang web muốn làm SEO.
Để có một website tốt và làm tốt SEO, cần phải chú ý rất kỹ đến nội dung bài viết tránh lỗi trùng lặp nội dung (Duplicate Content). “Duplicate Content” hưởng lớn đến thứ hạng của website bạn và là một trong những lỗi mà nhiều Webmaster mắc phải khi tiến hành SEO (Search Engine Optimize) cho website của mình.
Canonical URL
Là URL mà các webmasters muốn search engine coi như là địa chỉ chính thức của 1 webpage. Hay nói cách khác, một canonical URL là URL mà webmaster muốn visitors nhìn thấy. Canonical URL dùng để ngăn chặn trùng lặp nội dung trong website.
Ví dụ: Với cùng 1 trang web có thể có nhiều url cùng trỏ đến có hoặc không chứa www, url có index.html hay home.aspx ở cuối, url có hoặc không chứa dấu (/) ở cuối … Các bộ máy tìm kiếm sẽ nhận diện các url này khác nhau nhưng lại trỏ tới cùng 1 nội dung dẫn đến tình trạng trùng lặp.
Chúng ta quy định tất cả các url đó đều là bản sao (canonical) của 1 url gốc, như vậy các bộ máy tìm kiếm sẽ chỉ index 1 url gốc duy nhất và bỏ qua các bản sao khác.
Để đặt canonical URL trong website, cách chung là đặt thẻ <link> như sau vào trong thẻ <head></head> đối với các url bản sao:
<link rel=’canonical‘ href=’url gốc’/>
Robots.txt
Là một tập tin đơn giản không chứa mã HTML được đặt trong thư mục gốc của website, được sử dụng để thông báo cho các chương trình tìm kiếm về cấu trúc của trang web.
