Thứ Bảy, 30 tháng 11, 2013

Hiểu và sử dụng ” meta robot tags ” cho chiến lược SEO

meta robot tags
Thường thì tệp tin robots.txt đặt tại thư mục gốc của tên miền là công cụ lý tưởng để giao tiếp với các máy tìm kiếm (Robots với Google, Yahoo và Microsofts)  trong việc đánh chỉ số trang web. Tuy nhiên trong một số trường hợp, tệp tin /robots.txt trở nên hạn chế và việc sử dụng nó rất rườm rà, nặng nề.
Thẻ META “robots” lúc này, lại rất hữu ích ngay cả khi cách sử dụng của nó khá khác so với tệp tin robots.txt
Khái niệm chung
Trước khi đi vào tìm hiểu cách hoạt động của Robots META Tag thì chúng ta hãy xem xét một vài khái niệm liên quan tới việc đánh chỉ số và theo đường dẫn.
Đánh chỉ số (index page)
“Đánh chỉ số” hay “Chỉ số hóa” trang Web rất tiếc không được định nghĩa trong Robots Exclusion Standard.
Một số người cho rằng việc ngăn không cho đánh chỉ số tương ứng với việc trang đó, trong bất kể trường hợp nào đều không thể xuất hiện trong các kết quả tìm kiếm và nội dung của nó, đặt biệt là các đường liên kết URL, không được khai thác bởi các bọ tìm kiếm đến từ các máy tìm kiếm.
Tuy nhiên cũng có một số cách dịch khác bớt nghiêm khắc hơn. Họ cho rằng việc cấm đánh chỉ số trang Web là việc mà các máy tìm kiếm không sử dụng nội dung của trang để xác định thứ hạng trong kết quả tìm kiếm trong khi đường dẫn URL của trang vẫn xuất hiện bởi các yếu tố khác thu thập được độc lập với việc cấm trên trang này.
Truy vấn liên kết (follow link URL)
Khái niệm “truy vấn liên kết” thì dễ hiểu hơn. Theo đường dẫn được hiểu là các máy tìm kiếm phải bỏ qua đường dẫn mà chúng tìm thấy trong trang. Nó phải xử sự như chưa thấy đường dẫn đó trong trang. Và những đường dẫn này không góp phần nào vào mức độ “phổ biến” của các trang mà liên kết của nó trỏ đến (link URL).
Tuy nhiên rõ ràng là các đường dẫn này có thể được phát hiện trên các trang web khác và bọ tìm kiếm sẽ truy vấn.
Giới thiệu thẻ Metadata Robots
Thẻ META Tag này luôn nằm tại ví trí đầu tiên của mã nguồn HTML tương ứng của trang. Có nghĩa là giữa thẻ HEAD và /HEADE.
Qui ước chuẩn của META “robots” liên quan tới việc đánh chỉ số của trang và truy vấn liên kết mà chúng ta sẽ xem xét kỹ phần tiếp theo.
Với thẻ META robots bạn có thể chỉ định cách bọ tìm kiếm quét trang web của bạn. Thẻ META này gồm một số giá trị sau :
all
Googlebot đánh chỉ số tất cả (ngầm định).
none
Googlebot  không đánh chỉ số gì hết.
index
Đánh chỉ số trang Web.
noindex
Không đánh chỉ số trang, nhưng vẫn truy vấn đường dẫn URL.
follow
Googlebot sẽ đọc liên kết siêu văn bản trong trang và truy vấn, xử lý sau đó.
nofollow
Googlebot  không phân tích liên kết trong trang.
noarchive
Không cho máy tìm kiếm lưu vào bộ nhớ bản sao trang Web.
nocache
Chức năng như thẻ noarchive nhưng chỉ áp dụng cho MSN/Live.
nosnippet
Không cho bọ tìm kiếm hiển thị miêu tả sinppet của trang trong kết quả tìm kiếm và không cho phép chúng hiển thị trong bộ nhớ (cache hay caching).
noodp
Ngăn máy tìm kiếm khỏi việc tạo các miêu tả description từ các thư mục danh bạ Web DMOZ như là một phần của snippet trong trang kết quả tìm kiếm.
noydir
Ngăn Yahoo khỏi việc trích miêu tả trong danh bạ Web Yahoo! diectory để tạo các phần miêu tả trong kết quả tìm kiếm. Giá trị noydir chỉ áp dụng với Yahoo và không có công cụ tìm kiếm nào khác sử dụng danh bạn Web của Yahoo bởi thế giá trị này không được hỗ trợ cho máy tìm kiếm khác..
Ví dụ :

Trong ví dụ này như các bạn thấy trên hình; máy tìm kiếm sẽ đánh chỉ số trang và tất cả các trang khác nó tìm thấy đường dẫn trong trang chỉ định.
metadata-robots-tags
Hình 1 : Ví dụ sử dụng thẻ Meta robots cho phép đánh chỉ số tất cả.
Máy tìm kiếm sử dụng Robots Meta Tags như thế nào ?
Như chúng ta vừa nghiên cứu các giá trị của thẻ Meta Tag Robots, sau đây là bảng tóm tắt các giá trị được hỗ trợ và sử dụng bởi các máy tìm kiếm phổ biến nhất :
Giá trị thẻ RobotsGoogleYahoo!MSN / LiveAsk
indexKhông
noindex
noneCó thểCó thể
followCó thểCó thể
nofollow
noarchive
nosnippetKhôngKhôngKhông
noodpKhông
noydirKhông dùngKhông dùngKhông dùng
Với các thông tin trong bảng tóm tắt trên thì các bạn có thể điều chỉnh quyền và giới hạn cho bọ tìm kiếm đến từ các máy tìm kiếm với chú ý tên của các bọ tìm kiếm phổ biến tương ứng như sau :
Google
GOOGLEBOT
Yahoo!
SLURP
MSN / Live
MSNBOT
Ask
TEOMA
Qui ước chuẩn sử dụng META Robots
Qui ước chung
Cú pháp :
   Ký tự tối đa : Không qui định
Tương thích : Với tất cả máy tìm kiếm
Phiên bản : HTML 2.0
Vị trí : Nằm giữa thẻ và
Chức năng : Cho phép chỉ định cách thức máy tìm kiếm đánh chỉ số của trang hoặc cấm một số máy tìm kiếm nếu được chỉ định.
Lỗi cần tránh : Không có, thẻ Meta này không nhất thiết bắt buộc.
Giải thích
Phần content=”value” được ngăn cách bởi một dấu phẩy nếu thẻ Robots META Tag gồm nhiều hơn một giá trị bất kể là : none, noindex, nofollow, all, index hay follow.
-   none : Bọ tìm kiếm (Robots) bỏ qua trang này. Tương đương với noindex, nofollow.
-   noindex : Trang này không được đánh chỉ số.
-    nofollow : Robots sẽ không truy vấn đường dẫn tìm thấy trong trang.
-  all : Không hạn chế việc đánh chỉ số trang hay truy vấn đường dẫn tìm thấy trong trang nhằm xác định ra các trang cần đánh chỉ số tiếp.
-  index : Robots có thể thêm trang này vào trong các kết quả tìm kiếm.
-  follow : Robots có thể truy vấn địa chỉ đường dẫn URL để tìm ra các trang khác.
Ghi chú :
Qui ước index, follow hay all không cần phải chỉ định bởi nó được qui định ngầm định.

Nếu như không có thể meta tag, hoặc phần nội dung content của thể này trống hoặc robots không được chỉ định thì robots terms sẽ được hiểu ngầm định là index, follow (tương đương với all). Nếu từ khóa all được tìm thấy trong phần khai báo thì nó sẽ bỏ qua tất cả các giá trị khác. Bởi thế tất cả các giá trị “nofollow, all, noindex, nofollow” sẽ trở thành “all”.
Còn trong trường hợp các giá trị đối ngược (ví dụ “follow, nofollow, follow”) thì bọ tìm kiếm sẽ được tự ý quyết định việc quét trang của mình.
Một số cách dùng thông dụng Robots METATag
Thẻ Robots META Tag được dùng để loại trừ nội dung. Chúng ta hãy cùng xem xét 3 ví dụ sau sử dụng Robots META Tag chính xác để loại trừ thông tin khỏi việc đánh chỉ số và các dịch vụ của máy tìm kiếm.
1  Sử dụng giá trị noindex để cho phép liên kết được truy vấn dù cho trang không được đánh chỉ số.
 
2  Sử dụng nofollow cho phép trang được đánh chỉ số nhưng đường dẫn trong trang không được truy vấn.
   
3 Sử dụng none tương đương với noindex, nofollow để cấm cả việc đánh chỉ số và truy vấn đường dẫn.
Nếu các bạn muốn các thông tin chỉ tiết hơn về Robots META Tag có hãy tham khảo trên trang chính thức robotstxt.org .
Cuối cùng, như đã nói ở trên, các bạn kết hợp cách sử dụng tệp tin robots.txt và các sử dụng NOFOLLOW với rel=”nofollow” (do Google khởi xướng và được chấp nhận bởi các máy tìm kiếm khác). Ngoài ra, các bạn cũng nên lưu ý việc sử dụng Robots.txt cho Google cũng có nhiều lựa chọn và điểm riêng biệt hơn so với các máy tìm kiếm khác.
Theo Thủ Thuật Web

Tạo Robots.txt cho nhiều tên miền

Như các bạn đã biết, các Doanh nghiệp thường hay mua nhiều tên miền cho website của họ. Ở đây tôi không thảo luận về lý do tại sao họ lại làm như vậy, nhưng thực tế rõ ràng là có rất nhiều tên miền trỏ về cùng 1 hosting (1 website có nhiều tên miền khác nhau).
Thủ thuật SEO : Robots.txt cho nhiều tên miền
Thế thì xét theo nguyên tắc của SEO, chúng ta sẽ có nhiều website và những website này trùng lặp nội dung.

Tôi được 1 số bạn đặt vấn đề cụ thể như sau:
- Họ có 3 domain: abc.com | def.com | xyz.com
- 3 domain này cùng 1 hosting
- Họ chọn abc.com là tên miền chính, họ không muốn spider index các URL xuất phát từ 2 tên miền còn lại
Oh, quá dễ, dùng robots.txt chặn (disallow) là xong
Nhưng khổ nỗi, robots.txt không phân biệt được tên miền, nên chúng ta không thể
- Disallow: /def.com
- Disallow: /zyz.com
Làm sao ?
Và đây là giải pháp. Chúng ta chuẩn bị 3 file robots.txt tương ứng cho từng tên miền và kiểm tra nếu request của user xuất phát từ tên miền nào thì “gọi” file robots.txt cho tên miền đó.
robots_abc.txt <– file robots.txt cho tên miền abc.com
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
robots_def.txt <– file robots.txt cho tên miền def.com
User-agent: *
Disallow: /
robots_xyz.txt <– file robots.txt cho tên miền xyz.com
Nhiệm vụ còn lại của chúng ta là viết lại đường dẫn file robots.txt tương ứng cho từng tên miền tại file.htaccess
RewriteCond %{HTTP_HOST} ^abc.com$ [NC]
RewriteRule ^robots\.txt$ robots_abc.txt [L]
RewriteCond %{HTTP_HOST} ^def.com$ [NC]
RewriteRule ^robots\.txt$ robots_def.txt [L]
RewriteCond %{HTTP_HOST} ^xyz.com$ [NC]
RewriteRule ^robots\.txt$ robots_xyz.txt [L]
Đến đây thì các bạn an tâm, spider chỉ có thể index như chỉ dẫn trong file robots_abc.txt, còn với những URL xuất phát từ tên miền def.com và xyz.com sẽ không bao giờ được index nên việc trùng lặp nội dung không thể xảy ra.
Trùng lập nội dung là một vấn đề rất thường xảy ra trong khi làm SEO. Hãy tận dụng tốt những thủ thuật này để chiến dịch SEO của bạn hiệu quả tốt nhất
Theo seo4b

Thứ Sáu, 29 tháng 11, 2013

11 KPI cần đo để xác định thành công của tiếp thị nội dung

Cộng đồng tìm kiếm luôn luôn có sự say mê với nội dung dưới hình thức này hoặc khác, và câu nói “Nội dung là quan trọng nhất” không hoàn toàn mới mẻ. Tuy nhiên, một thực tế với tiếp thị nội dung mà hầu hết mọi người đang bắt đầu nhận thấy rõ là nội dung có giá trị vượt xa tối ưu hoá công cụ tìm kiếm đơn giản. Tiếp thị nội dung, khi được thực hiện đúng, đạt chỉ số ROI riêng như một kênh tiếp thị, và vì thế phải được đo lường dựa theo một nhóm các chỉ số đánh giá thực hiện công việc riêng (KPI).

Vấn đề là xác định giá trị của các KPI mà hầu hết mọi người có ý định sử dụng. Chia sẻ xã hội, liên kết và những thang đo khác chúng ta sẽ thảo luận không mới, nhưng làm thế nào bạn đánh giá được giá trị toàn diện theo cách chung cho các kênh tiếp thị là điều quan trọng.


Nguồn chuyển đổi

11 KPI cần đo để xác định thành công của tiếp thị nội dung ​

Nguồn chuyển đổi là một thước đo quan trọng bạn cần hiểu. Nó cho biết mức độ nội dung của bạn được lựa chọn bởi những người tiên phong và cho bạn hiểu biết trực tiếp/thực tế về người đang liên kết với bạn.

1. Thang đo phụ cần xác định
- Lượt truy cập trong từng nguồn chuyển đổi.
- Thứ hạng Moz/Trust Flow của nguồn chuyển đổi.
- Thời gian trên trang từ nguồn chuyển đổi.
- Tỉ lệ chuyển đổi từ nguồn chuyển đổi.

2. Cách đo lường
Bạn đang tìm kiếm các công thức và công thức quan trọng nhất là cách sự chuyển đến trang đích dựa theo nội dung hoạt động so với các trang đích khác. Điều này mang đến cho bạn một hiểu biết tốt về giá trị của từng nguồn chuyển đến. Một số có thể chỉ hữu ích với SEO và có vai trò riêng, nhưng những nguồn cạnh tranh với chỉ số đánh giá thực hiện công việc cho trang đích vì mục tiêu thương mại có thể là một điểm tốt để tạo lập một mối quan hệ lâu dài.

Thang đo mức độ tương tác

Tương tác với nội dung là một điều các nhà tiếp thị thường bỏ qua. Họ trích dẫn những khái niệm như số lượt chia sẻ xã hội và tổng lượt truy cập, nhưng hiếm khi trích dẫn những số liệu về tương tác quan trọng để thể hiện giá trị của nội dung trên trang. Những con số này là trọng tâm thể hiện mức độ hiệu quả của nội dung. Đưa mọi người đến trang và thậm chí chia sẻ cần nhiều hơn là trình bày tiêu đề và khả năng truyền thông xã hội.

1. Thang đo phụ cần xác định
- Số trang mỗi lần truy cập
- Thời gian trên trang
- Tỉ lệ phần trăm lượt truy cập trang đơn (Bounce rate)

2. Cách đo lường
Bạn muốn đo những thang này dựa trên cơ sở đã đưa ra để biết phần thực hiện công việc tốt hơn của trang. Nội dung không nghi ngờ gì sẽ kém hiệu quả hơn trang đích của bạn, tuy nhiên mức độ là điều quan trọng. Một lần nữa bạn muốn có chỉ số ROI tương quan và giá trị từ những gì bạn đang tạo ra và bạn đã có một công cụ đo dựa trên các trang khác và lượt truy cập.

Chia sẻ xã hội
Theo ý kiến của tôi, những thước đo này hiện được sử dụng rất nhiều, nhưng thường không được dùng đúng cách.

Ví dụ: Chúng tôi trích dẫn rất thường xuyên những chia sẻ xã hội, nhưng trong bối cảnh không đúng. Vâng, bài viết của bạn có thể có X lượt Like Facebook, nhưng đó có phải là con số trung bình cho trang, hoặc đã tăng lên theo một cách nào đó?

11 KPI cần đo để xác định thành công của tiếp thị nội dung ​

Bối cảnh rất quan trọng để xác định giá trị của chương trình chia sẻ xã hội nếu một phần nội dung không được lan truyền và làm thế nào để tái tạo lại thành công đó.

1. Thước đo phụ cần xác định:
- Chia sẻ xã hôi
- Cơ sở lan truyền

2. Cách đo lường
Bạn muốn đo những thước đo này trong bối cảnh của nó.

Bao nhiêu lượt chia sẻ tương đương với một lần truy cập và người truy cập đó hoạt động như thế nào? Đây là một câu hỏi đặc biệt quan trọng cần trả lời và hầu hết các nhà tiếp thị không tạo được mối liên kết đó. Ví dụ, chúng ta thường thấy số đếm lần “Like” trên Facebook vượt qua số lượt truy cập nội dung đó, cho rằng người dùng nhấp chuột like trên nội dung họ chưa bao giờ đọc.

Cách những cơ sở lan truyền khác nhau có hoạt động với nội dung cũng không kém phần quan trọng. Hầu hết các cơ sở có công cụ quảng cáo nên việc lan truyền trong cộng đồng thật sự chỉ là về cái bạn sẵn sàng trả ra. Xác định ROI cho từng cơ sở khi nó phù hợp với trang của bạn và loại nội dung có thể giúp bạn có quyết định khôn ngoan hơn với ngân sách của mình.

Lượt chuyển đổi

Lượt chuyển đổi chuẩn luôn luôn được xem như là điểm yếu của kênh tiếp thị nội dung. Tuy nhiên, đó là vì nội dung vẫn chưa được tối ưu hoá cho lượt chuyển đổi. Chìa khoá ở đây là định hướng nội dung để tạo ra lượt chuyển đổi trực tiếp và gián tiếp.

Lượt chuyển đổi trực tiếp rất rõ ràng, đó là những gì cho bạn lợi nhuận: mua bán, tương tác, v.v.
Lượt chuyển đổi gián tiếp là những thứ như danh sách đăng ký nhận email, khoảng cách giữa các lần đánh dấu người dùng và lượt tải hướng dẫn người mua. Những mục này mang đến cho bạn một cơ hội thứ hai để chuyển đổi một người dùng không hoạt động và chỉ đang tìm kiếm giải trí đơn thuần. Điều này thúc đẩy tiếp thị nội dung dựa trên lượt truy cập tiến xa hơn nữa trong chu kỳ mua, trong đó có nhiều thứ có khả năng chuyển đổi.

1. Thước đo phụ cần xác định
- Tỉ lệ chuyển đổi trực tiếp cho mỗi loại nội dung
- Tỉ lệ chuyển đổi gián tiếp cho mỗi loại nội dung

2. Cách đo lường:
Các công cụ chuyển đổi trong Google Analytics và các gói có trả tiền như KISSmetrics làm cho việc đo lượt chuyển đổi dễ dàng hơn, nó xuất phát từ đâu và tỉ lệ chuyển đổi tăng như thế nào. Dữ liệu này sau đó có thể được sử dụng để xác định cách thức tiếp cận của bạn và cải thiện hoạt động.

Kết luận
Chúng tôi biết rất rõ lượng lớn dữ liệu, nên lý do duy nhất để tiếp thị nội dung hoạt động như một kênh trở thành một hố đen là đơn giản bạn biết cách cấu trúc dữ liệu đó một cách chính xác hay không.



Backlinks sitewide tốt hay xấu?

Kể từ khi Chim cánh cụt được cập nhật thì nó đã thay đổi hoàn toàn cách chúng ta nhận được backlinks. Trước kia, số lượng backlinks là quan trọng nhất nhưng ngày nay, chất lượng và sự liên quan của backlink lại là vấn đề quan trọng nhất. Tôi nhớ cách đây hai năm tôi nhận được nhiều cơ hội thanh toán backlinks sidewide từ nhiều webmaster. Nhưng sau khi Chim cánh cụt phạt các loại spam backlinks thì một trong những câu hỏi phổ biến nhất mà SEO thường hỏi đó là: Liệu backlinks sidewide sử dụng có giá trị hoặc nó có thể tác động tiêu cực?

Chúng tôi thấy nhiều trang web chất lượng như Wpmu và quickonlinetips đã bị phạt vì nhận được backlinks sidewide sử dụng themes WordPress và mọi người đã nghĩ rằng một liên kết sitewide đã tác động tiêu cực đến SEO. Mặc dù điều này là không hoàn toàn đúng như Matt Cutts đã đề cập gần đây. Trong bài viết này, tôi sẽ đưa ra một đánh giá của tôi về liên kết sidewide theo cách hiểu đúng đắn.

Làm thế nào để Sitewide Backlinks tác động đến SEO?

Bạn đang sử dụng chiến lược gì để có được các liên kết đến blog của bạn điều đó là không quan trọng nhưng vấn đề là làm thế nào để nó liên quan đến những backlinks. Ví dụ, tại ShoutMeLoud tôi đang nói về blogging, SEO và WordPress là tất cả và nếu tôi liên kết đến các trang web như ProBlogger, SearchEngineland trong bài viết hoặc thậm chí duy trì một danh sách blog trong sidebar và mang lại cho họ liên kết sitewide thì nó hoàn toàn là tự nhiên và có liên quan. Liên kết không tự nhiên và spam vào hình ảnh đó là khi tôi đưa ra một backlinks kết hợp với bất cứ tên miền không liên quan như "kinh doanh ngoại hối", "các trang web bảo hiểm"…

Trước khi tôi đưa ra cho bạn cái nhìn sâu sắc hơn nữa về điều này thì bạn hãy xem một đoạn video của Matt Cutts nói về liên kết Sitwide và làm thế nào Google đếm chúng (1 liên kết hoặc nhiều backlinks).


Matt Cutts đã nói rõ trong đoạn video trên: Sitewide backlinks không phải là xấu khi chúng tự nhiên và có liên quan. Đồng thời, việc liên kết từ Blog footer “trang web được phát triển bởi công ty XYZ" hoặc " theme WordPress miễn phí của XYZ" hiện nay không phải là rất hữu ích khi bạn không thể kiểm soát được những liên kết này đến từ đâu.

Trước đó, việc phát hành theme WordPress miễn phí hoặc plugin là một trong những cách dễ dàng để có được một liên kết thường xuyên từ tất cả các trang của một tên miền nhưng bây giờ phương pháp liên kết này được coi là spam và bạn có thể bị phạt bằng cập nhật thuật toán Penguin. Một lý do đơn giản là bạn không thể kiểm soát được việc sử dụng theme miễn phí hoặc plugin và tạo ra hàng nghìn backlinks không liên quan đến tên miền với anchor text chính xác.

Ngay cả khi bạn sử dụng công cụ chối bỏ liên kết Google Disavow, tôi sẽ không khuyên bạn nên có các liên kết trên sitewide bằng cách sử dụng phương pháp này, đó là ngoài tầm kiểm soát của bạn. Mặc dù cách tốt nhất để có được một liên kết domain wide bằng cách yêu cầu các webmaster liên kết đến tên miền của bạn trong Danh sách blog chỉ khi nó có liên quan hoặc bạn có thể nhận được liên kết tài trợ (một lần nữa sự liên quan là trọng tâm chính). 3 liên kết pyramid (cách cũ và cổ điển) vẫn còn hữu ích nhưng một lần nữa hãy nhớ rằng bạn có thể giữ cho blog của bạn để không nhận hình phạt của Google.

Cách tốt nhất để nhận được liên kết sitewide là gì?

Liên kết sitewide trên BackLinks SiteWide: Là tốt hay xấu cho SEO? Có rất nhiều cách mà bạn có thể nhận được liên kết sitewide tự nhiên từ footer của một trang web hoặc từ danh sách blog.


- Đối với thiết kế và phát triển Website
Đó là một ý tưởng tốt được đề cập đến trong một bài đăng blog hơn một sitewide footer để thiết kế và phát triển trang web của bạn. Nếu bạn đang phát triển một trang web thích hợp có liên quan (thiết kế, phát triển Web) thì hãy xem xét để nhận được một liên kết sidewide footer. Bạn nên nhớ rằng: nhận liên kết tới thương hiệu của bạn thay vì SEO tối ưu Anchor text.

- Liên kết BlogRoll
Trước đó tôi đã nói về lợi ích của việc liên kết outbound cho SEO và hãy nhớ rằng, một liên kết Blogroll thích hợp có liên quan không phải là một ý tưởng tồi. Trong thực tế, khi bạn đang liên kết ra ngoài miền authoritive với một liên kết sitewide Blogroll, nó sẽ không có tác động tiêu cực. Tôi đã thấy nhiều khách hàng của tôi duy trì và thích cung cấp các liên kết sitewide hữu ích cho trang web và cho đến nay tôi chưa thấy bất kỳ ảnh hưởng nào từ bản cập nhật Penguin. Kiểm tra các hình ảnh trên được lấy từ Smashingapps mà duy trì liên kết trên toàn site blog để có chất lượng và thẩm quyền tên miền.

Bạn cần phải tránh sử dụng hai cách trao đổi liên kết khi Google xem nó là thư spam và bạn có thể bị phạt giống nhau. Cách lý tưởng để có được liên kết Blogroll là sử dụng 3 liên kết Pyramid. Ngay cả khi bạn đang trả tiền cho các danh sách blog đề nghị liên kết, chắc chắn rằng nó có vẻ tự nhiên và bạn không liên kết với trang spam hoặc trang web không phù hợp.

Bạn đã bao giờ bị phạt vì nhận được Backlinks sidewide? Những phương pháp khác mà bạn đang sử dụng để có được các liên kết domain wide là gì và làm thế nào để bạn chắc chắn rằng liên kết đó không tác động tiêu cực trên trang web của bạn?



Thứ Năm, 28 tháng 11, 2013

Các công cụ và dịch vụ SEO - Phần 2

Hiện nay có rất nhiều công cụ hỗ trợ các SEOer trong việc làm SEO. Trong số đó, công cụ hữu ích nhất được cung cấp bởi chính các SE. SE cung cấp tới các webmaster số lượng đa dạng công cụ, phân tích và chỉ dẫn với mong muốn họ sẽ tạo ra các trang web và nội dung có thể tiếp cận được bằng nhiều cách khác nhau. Các nguồn tài nguyên miễn phí này đem đến các điểm dữ liệu và cơ hội trao đổi thông tin với máy tìm kiếm mà chẳng nguồn nào có.
Trong Chương 8 - Các công cụ và dịch vụ SEO (Phần đầu) chúng ta đã đi tìm hiểu các chỉ lệnh SE phổ biến, sau đây chúng ta tiếp tục đề cập tới các công cụ SEO.

Các công cụ tìm kiếm:

Các tính năng phổ biến của Google Webmaster Tool (các công cụ quản trị Google)
1. Setting (Cài đặt)

GeographicTarget:

Nếu một trang web hướng tới đối tượng cụ thể về mặt địa lý, các quản trị web có thể cung cấp cho Google các thông tin giúp phân biệt trang đó xuất hiện trong các kết quả tìm kiếm của một quốc gia cụ thể trên Google, và đồng thời cải thiện các kết quả tìm kiếm Google cho các truy vấn địa lý.

Preferred Domain (Tên miền ưa thích)

Preferred Domain là một thể loại mà quản trị web muốn sử dụng để index các trang trên web của họ. Nếu một webmaster chỉ rõ preferred Domain là _http://www.example.com và Google tìm thấy một liên kết tới trang web đó được định dạng là _http://example.com, Google sẽ xử lý liên kết đó khi nó được trỏ tại _http://www.example.com

URL Parameters (Các thông số URL):

Bạn có thể chỉ cho Google thông tin về mỗi thông số trên trang web của bạn, chẳng hạn như "sort=price" và "sessionid=2". Điều này giúp cho Google crawl trang web của bạn một cách hiệu quả hơn, ngăn chặn những thông số đó tạo ra nội dung trùng lặp và tăng số lượng những trang web độc nhất mà Google có thể thu thập trên trang web của bạn.

Crawl Rate (Tỷ lệ thu thập):

Crawl Rate ảnh hưởng đến tốc độ truy vấn của robot google trong suốt quá trình thu thập. Nó không ảnh hưởng đến tần suất Google thu thập dữ liệu một trang web nhất định. Google xác định tỷ lệ được yêu cầu dựa vào số trang trên một trang web.

Diagnostics (Chuẩn đoán):

Malware - có thể hiểu là một phần mềm hoặc một đoạn mã lập trình nào đó gây hại cho máy tính người dùng được tìm thấy trên website bạn Google sẽ thông báo cho bạn nếu nó tìm thấy bất kỳ Malware nào đó trên trang web của bạn. Malware không chỉ gây hại cho người sử dụng, mà ảnh hướng của nó có thể làm website của bạn mất vị trí trên công cụ tìm kiếm.
Crawl Error (Các lỗi thu thập) - Nếu Robot Google bắt gặp những lỗi quan trọng trong khi thu thập dữ liệu trang web của bạn, chẳng hạn như 404s, nó sẽ mô tả chi tiết về lỗi và xác định nơi Bộ tìm kiếm tìm thấy liên kết tới URL không thể truy cập.
HTML Suggestions (Gợi ý HTML) - Phân tích này nhận dạng SE các yếu tố HTML không thân thiện. Đặc biệt, nó liệt kê ra các vấn đề về thẻ meta description (thẻ meta mô tả), thẻ title, và những trang nào Spider không thể thu thập được nội dung trang.

Your site on the Web:

Đặc biệt, Những số liệu này cung cấp cái nhìn sâu sắc về SEO, bởi chúng thông báo hiển thị từ khóa, tỷ lệ nhấp chuột, những trang web top đầu trong kết quả tìm kiếm, và các dữ liệu thống kê liên kết. Khá nhiều SEOer phàn nàn rằng các dữ liệu trong các công cụ quản trị web thường không đầy đủ và chỉ cung cấp những ước tính sơ qua.

Site Configuration (Cấu hình trang web):

Phần này khá quan trọng, cho phép bạn trình các sitemap, kiểm tra tập tin robot.txt, điều chỉnh liên kết trang web, và gửi thay đổi các yêu cầu địa chỉ khi bạn di chuyển trang web từ một domain khác. Khu vực này cũng bao gồm "Setting" và "URL Parameters" được thảo luận trong phần trước.

+1 Metrics (Số liệu +1):

Khi người dùng chia sẻ nội dung của bạn trên Google+ với nút +1, hoạt động này thường xuyên được chú thích trong các kết quả tìm kiếm. Xem video minh họa này trên Google + để hiểu rõ tầm quan trọng của nó. Trong phần này, Google Webmaster Tool thông báo ảnh hưởng của +1 chia sẻ trên hiệu suất trang web của bạn xuất hiện trong các kết quả tìm kiếm.

Labs (Tính năng thử nghiệm)

Phần Labs của Webmaster Tools bao gồm các thông tin mà Google vẫn coi nó nằm trong quá trình thực nghiệm, dù sao cũng rất quan trọng đối với các webmaster. Một cách quan trọng nhất của các báo cáo trên đó là hiệu suất, cho biết mức độ load nhanh hay chậm .
2. Bing Webmaster Center

Các tính năng từ khóa:

Site Overview (Tổng quan về các trang web): Giao diện này cung cấp một cái nhìn tổng thể về hiệu suất của tất cả các trang trên web của bạn trong Bing nắm giữ các kết quả tìm kiếm. Các số liệu lướt qua bao gồm lượt click, các hiển thị, các trang đã index, và số lượng các trang được thu thập cho 1 trang web.
Crawl Stat: Thu thập dữ liệu thống kê số liệu
Ở đây bạn có thể xem các báo cáo con số trang trong trang web của bạn mà Bing đã crawl và phát hiện ra một số lỗi gặp phải. Giống như Google Webmaster, bạn có thể trình các sitemap giúp cho Bing phát hiện ra và ưu tiện nội dung của bạn.
Index - Phần này cho phép webmaster xem xét và hỗ trợ kiểm soát cách Bing thu thập trang web của họ. Một lần nữa, giống với các Setting trong Google Webmaster Tool, tại đây bạn có thể khám phá nội dung của bạn được tổ chức sắp xếp thế nào trong Bing, trình các URL, loại bỏ Các URL từ những kết quả tìm kiếm, khám phá liên kết inbound và điều chỉnh các thiết lập tham số.
Traffic - Tóm tắt lượng traffic trong Bing webmaster thông báo các hiển thị và dữ liệu nhấp chuột thông qua kết hợp dữ liệu từ các kết quả tìm kiếm của cả Bing và Yahoo. Các báo cáo ở đây chỉ ra vị trí trung bình cũng như những ước tính giá cả nếu bạn muốn mua từ khóa mục tiêu ads.

SEOmoz Open Site Explorer

Không hoạt động nhờ vào các SE, Open Site Explore của SEOmoz cung cấp dữ liệu như nhau.
Các tính năng:
Nhận dạng các liên kết mạnh mẽ- Open Site Explore phân loại tất cả các inbound link thông qua các số liệu giúp cho bạn dễ dàng phân biệt được những liên kết nào là quan trọng nhất.
Tìm các domain liên kết mạnh mẽ nhất: Công cụ này thông báo cho bạn biết những domain mạnh mẽ nhất liên kết tới domain của bạn.
Phân tích phân bổ liên kết Anchor Text- Open Site Explore chỉ cho bạn thấy sự phân bổ của văn bản mà người truy cập dùng khi liên kết tới bạn.
Đánh giá so sánh mức độ cạnh tranh (Head to head comparision view): Tính năng này cho phép bạn so sánh hai trang web để nhận biết cái nào thứ hạng cao hơn.
Các số liệu chia sẻ xã hội - Đo lường Facebook share, like, tweet, hay +1 cho bất cứ URL nào.
Các SE gần đây mới bắt đầu cung cấp các công cụ tốt hơn để giúp cho các webmaster cải thiện kết quả tìm kiếm của họ. Đây là một bước lớn trong SEO và mối quan hệ giữa webmaster và SE. Điều đó nói lên rằng, trong tương lai máy tìm kiếm có thể hỗ trợ các webmaster nhiều hơn thế nữa. SEO có phát triển mạnh mẽ hơn nữa tất cả còn nhờ vào các marketer và webmaster.
Bởi vậy, hãy luôn nhớ tự trau dồi và học tập SEO là cực kỳ quan trọng và cần thiết.
Nguồn: Idichvuseo

Các công cụ và dịch vụ SEO

Hiện nay có rất nhiều công cụ hỗ trợ các SEOer trong việc làm SEO. Trong số đó, các công cụ seo hữu ích nhất được cung cấp bởi chính các SE. SE cung cấp tới các webmaster số lượng đa dạng công cụ, phân tích và chỉ dẫn với mong muốn họ sẽ tạo ra các trang web và nội dung có thể tiếp cận được bằng nhiều cách khác nhau. Các nguồn tài nguyên miễn phí này đem đến các điểm dữ liệu và cơ hội trao đổi thông tin với máy tìm kiếm mà chẳng nguồn nào có.
Dưới đây là các yếu tố phổ biến mà SE hỗ trợ cùng những ưu điểm của chúng:
Các chỉ lệnh SE phổ biến:
1. Sơ đồ trang web (Sitemap)
Hãy tưởng tượng sitemap giống như một list các file được thiết kế dành cho trình thu thập dữ liệu trang web của các SE. Các sitemap hỗ trợ các SE tìm kiếm và phân loại nội dung trên trang web của bạn, (những nội dung mà có thể SE không tự tìm thấy). Sitemap cũng xuất hiện trong nhiều định dạng khác nhau và có thể làm nổi bật nhiều thể loại nội dung khác nhau, bao gồm video, image, thông tin, và di động.
Ban có thể đọc thêm chi tiết đầy đủ các chỉ lệnh trên Sitemaps.org. Theo đó, bạn có thể xây dựng sitemap của riêng bạn tại Sitemap Generator
Sitemap có ba loại:
XML
XML: Extensible Markup Language (Định dạng yêu cầu)
  • Ưu: Đây là định dạng được chấp nhận rộng rãi cho các sitemap. Các Sitemap Generator có thể tạo ra một XML. Nhờ nó, các SE có thể dễ dàng phân tích, ngoài ra nó còn cho phép kiểm soát các thông số
  • Nhược: Kích thước tập tin tương đối lớn. Kể từ khi XML yêu cầu thẻ mở và một thẻ đóng quanh mỗi yếu tố, kích thước tập tin có thể nhận được rất lớn.
RSS:
RSS : Really Simple Syndication hay Rich Site Summary
  • Ưu: Dễ dàng duy trì, bảo vệ. RSS sitemap có thể được mã hóa để cập nhập tự động khi có thêm nội dung mới.
  • Nhược: Khó khăn trong việc quản lý. RSS vốn là một dạng của ngôn ngữ XML, cho nên việc quản lý các thuật tính mới cập nhật trở nên khó khăn hơn nhiều.
Txt
Tập tin văn bản:
  • Ưu: Cực kỳ dễ dàng. Định dạng text sitemap là một URL trên mỗi dòng, trong tổng số 50,000 dòng.
  • Nhược: Không cung cấp tính năng thêm vào dữ liệu meta cho các trang.

2. Robots.txt

Tập tin robots.txt, một sản phẩm của Robots Exclusion Protocol, là một tập tin được lưu trữ trong thư mục gốc của một trang web (ví dụ www.google.com/robots.txt). Tập tin robots.txt đưa ra chỉ dẫn trình thu thập web tự động truy cập vào trang web của bạn, bao gồm cả các spider tìm kiếm.
Bằng cách sử dụng robots.txt, các webmaster có thể thông báo cho SE các khu vực giới hạn, từ chối thu thập của các Bộ tìm kiếm cũng như cho biết các vị trí của các tập tin sitemap và các thông số crawl-delay. Bạn có thể tham khảo thêm tại robots.txt.
Các lệnh sau đây có sẵn:
Disallow
Ngăn chặn các robot tuân thủ mệnh lệnh truy cập vào các thư mục hay các trang web cụ thể.
Sitemap
Cho biết vị trí của một sitemap của một trang web hay các sitemap
Crawl-delay:
Cho biết tốc độ (tính bằng mili giây) mà các robot có thể thu thập một server
Một ví dụ về robot.txt
#Robots.txt www.example.com/robots.txt
User-agent: *
Disallow:
# Don’t allow spambot to crawl any pages
User-agent: spambot
disallow: /
sitemap:www.example.com/sitemap.xml
Cảnh báoKhông phải tất cả các robot web đều đi theo robot.txt. Những người có ý định xấu (vd email address scraper- chương trình thu thập các địa chỉ mail) xây dựng các chương trình không làm theo phương thức này và sử dụng nó trong những trường hợp đặc biệt để xác định vị trí của thông tin cá nhân. Ví lý do này, vị trí của các bộ phận quản trị và các bộ phận riêng của các trang web truy cập công khai không được chứa trong robots.com. Thay vào đó, những trang web này có thể tận dụng các thẻ meta robots để giữ cho các công cụ tìm kiếm chính có thể lập chỉ mục nội dung có nguy cơ cao.

3. Meta robots

Thẻ meta robot tạo ra chỉ dẫn trong đến trang web cho các Robot tìm kiếm.
Thẻ meta robot phải được đặt trong thẻ "head" của tài liệu HTML.
Một ví dụ về Robot meta

Hello World

Trong ví dụ trên, "noindex, nofollow" hướng dẫn các Robot không đánh chỉ mục một trang web bất kỳ, và cũng không đi theo mất kỳ liên kết nào trên trang.

4. Rel= "Nofollow"

Nên nhớ cách các liên kết hoạt động như bỏ phiếu. Các thuộc tính rel= nofollow cho phép bạn liên kết tới một nguồn, trong khi loại bỏ vote của bạn cho mục đích tìm kiếm. Thật vậy, "nofollow" gợi ý các SE không đi theo liên kết, nhưng một vài máy tìm kiếm vẫn đi theo chúng để phát hiện ra các trang mới. Những liên kết này chắc chắn đạt được ít giá trị hơn (và không để lại hậu quả trong hầu hết các trường hợp) so với những những liên kết theo sau, nhưng có thể đem lại hiệu quả trong những trường hợp bạn chẳng may liên kết đến nguồn không tin cậy.
Một ví dụ về nofollow:
rel=”nofollow”>Example Link
Trong ví dụ trên, giá trị của liên kết sẽ không được thông qua example.com vì thuộc tính rel=nofollow đã được thêm vào.

5. Rel="canonical"

Thông thường, hai hay nhiều bản sao của cùng một nội dung chính xác suất hiện trên trang web của bạn dưới các URL khác nhau. Ví dụ, các URL dưới đây có thể tham khảo cho một trang chủ:
_http://www.example.com/
_http://www.example.com/default.asp
_http://www.example.com
_http://example.com/default.asp
_http://Example.com/default.asp
Ví dụ về rel="canonical" cho _http://example.com/default.asp URL
Trong ví dụ trên rel="canonical" gợi ý cho các Robot trang này là bản sao của _http://www.example.com, và nên xem xét các URL là trùng lặp.
Đối với các SE, những URL trên xuất hiện như 5 trang riêng biệt. Bởi vì nội dung trên mỗi trang web thì đồng nhất. Điều này rất có thể là nguyên nhân tụt giảm giá trị nội dung và thứ hạng tiềm năng của trang web đó.
Thẻ canonical giải quyết vấn đề này bằng cách gợi ý cho các robot tìm kiếm trang nào là phiên bản "uy tín" nổi bật nên được tính trong kết quả tìm kiếm.
Theo Idichvuseo