(Odc. 7) Porady dla webmasterów, właścicieli witryn i pozycjonerów

(Odc. 7) Porady dla webmasterów, właścicieli witryn i pozycjonerówDawno na blogu nie było artykułu z poradami od Matta Cuttsa, a tych sukcesywnie przybywa. W tym odcinku zajęliśmy się powielaniem i maskowaniem treści, walidacją kodu HTML, wykorzystaniem atrybutu nofollow oraz aktualizacjami PageRank.

Polecamy także tematy z poprzedniego odcinka: komunikacja Google z webmasterami, witryny automatycznie generujące bezwartościowe strony, wpływ linków nofollow na pozycję strony, dotknięcie serwisu przez aktualizację Panda oraz dostępność witryny na IPv4 i IPv6 a powielanie treści.

 

1. Identyczna lista składników produktu a powielanie treści

Odtwórz wideo

Co mogą zrobić witryny zajmujące się sprzedażą w Internecie, sprzedające produkty z dokładnie taką samą listą składników jak na innych witrynach typu e-commerce, sprzedających ten sam produkt, aby Google nie potraktował ich jako zawierające zdublowaną treść?

Bardzo ciekawe pytanie. Wyobraźmy sobie listę składników, powiedzmy dla żywności, i powiedzmy, że jest to produkt, dla którego wielu partnerów może otrzymywać treści, i właśnie to prezentujesz. Jeśli coś jest kluczowe, na przykład składniki produktu żywnościowego lub coś w tym rodzaju, nie taki wykaz na 18 stron, tylko raczej coś krótkiego – to prawdopodobnie nie powinno stanowić zbyt wielkiego problemu.

Jeśli jednak posiadasz kanał partnerski i posiadasz dokładnie te same dwa lub trzy akapity tekstu, które posiadają też wszyscy inni w Internecie, to raczej byłoby bardziej problematyczne. Na czym więc polega różnica między nimi? Cóż, miejmy nadzieję, że lista składników, o której wspominasz, zawiera stosunkowo niewielką ilość składników, że strona, którą posiadasz różni się od stron wszystkich innych partnerów na świecie, i że posiadasz jakieś oryginalne treści, coś co odróżnia Cię od niepewnych stron, które po prostu wrzucają produkt i dwa akapity treści z programu partnerskiego, które można znaleźć na wszystkich innych stronach.

Jeśli to jest jedyna wartość, którą prezentujesz, to zapytaj siebie, dlaczego Twoja strona ma się pojawiać wyżej niż setki innych stron, skoro również zawierają dokładnie takie same treści. Jeśli mała część składowa Twoich stron zawiera jakieś kluczowe informacje, które pojawiają się w wielu miejscach, to nie jest to takie złe w porównaniu do sytuacji, w której ogromna większość lub wszystkie Twoje treści są dostępne wszędzie indziej i nie ma tak naprawdę nic, co odróżniałoby ją lub dodawało wartości. To jest coś, czego starałbym się w miarę możliwości unikać.

Tak naprawdę nie jest ważne, to czy na danej stronie występuje fragment tekstu powielony w innych serwisach internetowych, ale to czy i w jakim stopniu odróżnia się ona od podobnych stron ze skopiowanym tekstem. Ważna jest unikalna zawartość strony i jej wartość dodana w stosunku do powszechnie dostępnych treści.

2. Wpływ walidacji kodu HTML na SEO

Odtwórz wideo

Czy robot wyszukiwarki zwraca uwagę na zgodność kodu HTML ze standardami? Walidacja google.com pokazuje 23 błędy i 4 ostrzeżenia.

Jest wiele powodów, dla których warto pisać kod HTML zgodny ze standardami, zwracać na to uwagę, by mieć pewność, że bez problemu przechodzi walidację. To sprawia, że jest łatwiejszy do utrzymania, łatwiej się go aktualizuje, łatwiej jest go komuś przekazać. Jest wiele dobrych powodów, żeby to robić.

Niemniej jednak Google musi pracować z Internetem takim jaki jest, a nie takim jaki chcielibyśmy, żeby był. A Internet, który mamy to dużo błędów syntaktycznych, dużo kodu HTML niezgodnego ze standardami i musieliśmy stworzyć roboty, które radzą sobie z tymi błędami i całą tą dziwną składnią, którą ludzie czasem tworzą w Internecie przez przypadek, w nieprawidłowy sposób.

Tak więc Google nie ukarze cię, jeśli masz niezgodny HTML, bo istnieje wiele takich stron. Niektórzy znają zasady i decydują się zrobić rzeczy nieco szybciej lub pozmieniać coś tu i ówdzie, a potem ich strony nie przechodzą walidacji. I tych stron jest na tyle dużo, że uznaliśmy „OK, to rzeczywiście zaszkodzi jakości wyników wyszukiwania, jeśli będziemy rankować wyżej tylko strony zgodne ze standardami”.

Przede wszystkim zwracamy uwagę na jakość informacji i czy użytkownicy dostają najbardziej trafne informacje, a mniej na to, czy ktoś odwalił kawał dobrej roboty i zrobił bardzo czystą stronę. Nie zdziwiłbym się gdyby istniała tu pewna korelacja, może jest to sygnał, na który będziemy zwracać uwagę w przyszłości, ale przynajmniej na razie róbcie to dlatego, że jest to dobre dla utrzymania strony, będzie ci łatwiej zmienić stronę w przyszłości. Nie róbcie tego dlatego, że chcecie osiągnąć lepsze pozycje w wynikach wyszukiwania.

Tworzenie kodu HTML zgodnego ze standardami jest korzystne, ale z powodów innych niż optymalizacja dla wyszukiwarek internetowych.

3. Wykorzystywanie rel=”nofollow” dla linków wewnętrznych

Odtwórz wideo

Czy ma sens wykorzystywanie rel=”nofollow” dla linków wewnętrznych, na przykład dla linku do strony logowania. Czy naprawdę robi to wielką różnicę?

Przedstawię pewne ogólne zasady. Wspominałem o tym już kiedyś, ale warto omówić ten temat jeszcze raz. Rel=”nofollow” oznacza, że PageRank nie będzie przekazywany przez ten link, jeśli chodzi o jego znalezienie, wyliczanie wartości PageRank, i tego typu rzeczy.

Tak więc dla linków wewnętrznych, linków w obrębie danej witryny, starałbym się raczej nie stosować rel=”nofollow”. Jeśli jest to link z jednej strony danej witryny do innej strony tej samej witryny, to warto, żeby PageRank był przekazywany. Warto też, aby Googlebot był w stanie znaleźć tę stronę. Czyli dla prawie każdego linku witryny – linku z jednej strony danej witryny prowadzącego do innej strony tej samej witryny – upewniłbym się, że PageRank jest przekazywany, co oznacza pozbycie się wartości nofollow.

To pytanie jest odrobinę bardziej szczegółowe i odnosi się do pewnych niuansów, konkretnie do stron logowania. Nie zaszkodzi, jeśli chcesz zamieścić link nofollow do strony logowania, lub strony, którą uważasz za kompletnie bezużyteczną, jak na przykład strona zawierająca warunki korzystania z witryny, czy coś w tym rodzaju. Jednak na ogół nie jest problemem dla Googlebota zaindeksowanie tej strony, bo przecież nie mamy zamiaru podać danych karty kredytowej, aby złożyć zamówienie, ani nie będziemy się próbować zalogować, czy coś w tym rodzaju. Jeśli więc jest to link w obrębie Twojej witryny do innej strony tej samej witryny, to z reguły nie umieszczałbym tam nofollow.

Jeśli z kolei chodzi o link nofollow prowadzący do innych witryn, jeśli ktoś ma możliwość zamieszczenia komentarza, to często jest to wykorzystywane przez spamerów. W takiej sytuacji należy wziąć pod uwagę czy jest to zaufany użytkownik, czy pojawia się od dawna, czy został on zatwierdzony. W tych przypadkach możesz pozwolić na przepływ PageRank. Jeśli z kolei każdy, kto zarejestruje się na Twoim forum może zamieścić w profilu link, to może to prowadzić do nadużyć. Ludzie próbują nawet omijać techniki CAPTCHA, i to właśnie w tego typu sytuacjach należy raczej unikać przepływu wartości PageRank. Tak więc do tych dodałbym nofollow, ale dla dowolnego linku witryny prowadzącego do innej strony tej samej witryny co do zasady należy pozwolić na przepływ PageRank.

Niech Googlebot dotrze do wszystkich stron witryny. Jeśli ktoś jest bardzo drobiazgowy i naprawdę nie chce, aby dana strona się pojawiała, to też nie stanowi to żadnego problemu, ale nawet w tym przypadku może lepiej rozważyć zastosowanie noindex, czy coś w tym rodzaju. I nawet pojawianie się strony logowania może być przydatne dla niektórych wyszukujących, tak więc jeśli nie istnieje naprawdę dobry powód, to warto w miarę możliwości zezwolić Googlebotowi na odwiedzenie wszystkich stron witryny.

Atrybut rel=”nofollow” z zasady ma zastosowanie do linków wychodzących poza serwis, co do których nie mamy zaufania, i nie powinien być stosowany w stosunku do linków wewnętrznych. Są nieliczne sytuacje, kiedy jest to dopuszczalne, ale nie jakoś specjalnie rekomendowane. Co ciekawe, w zaleceniach Google dotyczących nawigacji fasetowej pojawiło się zastosowanie atrybutu nofollow dla wybranych linków wewnętrznych.

4. Dlaczego PageRank witryny się nie zmienia?

Odtwórz wideo

Nasza witryna nie zyskuje wartości Google PageRank, mimo regularnych aktualizacji i konkretnych treści autoryzowanych przez doświadczonych redaktorów. Jaka może być tego przyczyna?

Ok, tak więc jest to ciekawe pytanie. Po pierwsze, należy pamiętać, że narzędzie Google Toolbar PageRank jest aktualizowane okresowo, tak więc przez pewien czas aktualizowaliśmy je stosunkowo często, a ostatnio aktualizujemy je kilka razy na rok. Z czasem Toolbar PageRank wytraca użytkowników, chociażby ze względu na fakt, że najnowsze wersje przeglądarki Internet Explorer nie pozwalają tak łatwo na instalowanie pasków narzędzi, a Chrome nie ma paska narzędzi.

Z czasem wskaźnik PageRank prawdopodobnie zacznie odchodzić w zapomnienie. Chodzi jednak także o to, że możemy aktualizować te informacje wyłącznie co kilka miesięcy, tak więc chwilę zajmuje, zanim się on zmieni.

Drugą rzeczą, którą należy wziąć pod uwagę, jest to, że wspomniałeś o regularnych aktualizacjach, posiadaniu doświadczonych redaktorów z oryginalnymi treściami, a w przypadku wskaźnika PageRank nie do końca o to chodzi. PageRank jest związany z ilością linków prowadzących do witryny.

Tak więc należy sprawdzić i upewnić się, że architektura jest właściwa, że strona główna zawiera dobre statyczne linki prowadzące do poszczególnych stron witryny. Coś na kształt struktury drzewa, która prowadzi do poszczególnych stron może być dobrym rozwiązaniem. Trzeba się upewnić, że do najważniejszych stron prowadzi na przykład jeden, może dwa linki ze strony głównej, tak, żeby PageRank był stosunkowo wysoki.

Poza tym trzeba się upewnić, że dużo ludzi wie o tych treściach i o tym, że są to treści wysokiej jakości, bo jeśli wiele osób będzie linkować do witryny i będą one miały wysoki PageRank, to rośnie też szansa na wyższy PageRank. Nie chodzi więc tylko o jakość treści. Jakość treści określa do pewnego stopnia jak wiele osób będzie chciało linkować do witryny, i to z kolei określi PageRank, ale sam PageRank nie bierze pod uwagę jakości tekstu na stronie, tylko liczbę linków, ich jakość, oraz w jaki sposób prowadzą do witryny. Mam nadzieję, że udało mi się to wyjaśnić.

W skrócie: nie warto zbytnio przejmować się wartością PageRank.

5. Czy geolokalizacja narusza wytyczne Google?

Odtwórz wideo

Wykorzystywanie technik wykrywania geolokalizacji jest wbrew zaleceniom Google, a ja oferuję pożyteczne informacje (cena, usługi pocztowe) użytkownikom na podstawie ich geolokalizacji. Czy Google uzna to za spam? Chodzi o pokazywanie treści X wyszukiwarkom i treści Y użytkownikom.

Mówiłem już o tym wcześniej, ale postaram się to ująć inaczej. Geolokalizacja to nie spam. O ile ktoś, kto trafia na witrynę z francuskiego adresu IP, jest przekierowywany na francuską wersję swojej strony, lub francuską domenę swojej firmy, to nie ma z tym żadnego problemu. Jeśli pojawia się ktoś z niemieckim adresem IP, i jest przekierowywany na niemiecką wersję swojej strony, to też jest to zupełnie w porządku. Upewniłbym się tylko, że roboty wyszukiwarek nie są traktowane inaczej niż zwykli użytkownicy.

Jeśli wiec Googlebot trafia na witrynę, i sprawdzany jest adres IP, załóżmy że jesteśmy z USA, to po prostu trzeba przekierować Googlebota na amerykańską wersję serwisu, lub odpowiednią witrynę, cokolwiek jest najbardziej odpowiednie dla zwykłego użytkownika ze Stanów Zjednoczonych. Tak więc geolokalizacja to nie spam. Google robi to za każdym razem, gdy użytkownik trafia na witrynę. Wysyłamy go na stronę, którą uznajemy za najbardziej odpowiednią na podstawie wielu różnych sygnałów, ale zazwyczaj jest to adres IP użytkownika.

Ostatnia część pytania dotyczyła pokazywania treści X wyszukiwarkom i treści Y użytkownikom. To już jest maskowanie treści (ang. cloaking), czyli pokazywanie innych treści wyszukiwarce Google niż użytkownikom, a z tym już byłbym bardzo ostrożny. O ile jednak Googlebot jest traktowany jak każdy inny użytkownik, niezależnie od adresu IP, z którego trafia na stronę według geolokalizacji, o ile nie stosujesz specjalnego kodu, który sprawdza klienta użytkownika (ang. user agent), czy też specjalnego kodu, który szuka adresu IP Googlebota i traktujesz Googlebota dokładnie tak, jak traktowałbyś odwiedzającego z tego samego kraju, to będzie to w porządku, bo nie będzie to maskowanie treści. Jeśli nie zmieniasz niczego specjalnie dla wyszukiwarki Google. Robisz dla niej dokładnie to samo, co zrobiłbyś dla innych odwiedzających z danym adresem IP.

Jeśli więc rozegrasz to w ten sposób, to wszystko będzie w porządku. Nie będziesz maskować treści i będziesz w stanie zwracać dobrze zgeolokalizowane strony dla Google i innych wyszukiwarek bez żadnego ryzyka.

Stosując w serwisie internetowym geolokalizację należy traktować Googlebota jak każdego innego użytkownika.

 

» Zobacz następny odcinek porad dla webmasterów, właścicieli witryn i pozycjonerów

Skomentuj artykuł:

Komentarze

  1. Rafał pisze:

    Dzięki Przemku! Bardzo fajnie opracowujesz informacje i tłumaczysz, jak zawodowy tłumacz :-). Dla wielu osób samodzielnie dbających o SEO swoich serwisów te, w gruncie rzeczy proste informacje, są dużą pomocą w pozbyciu się rozterek typu można – nie można, warto – nie warto, trzeba – nie trzeba. Pozdrawiam z uśmiechem – Rafał.

  2. @Rafał: Dzięki za miłe słowa, ale muszę się do czegoś przyznać – w przygotowywaniu tej serii wpisów pomaga mi kolega Maciek, który tłumaczy dla nas wypowiedzi Matta Cuttsa, i nie tylko ;-)

  3. Rafał pisze:

    @Przemek Sztal: W takim razie słowa uznania również dla Maćka. Tłumaczenia na najwyższym poziomie, które czyta się z prawdziwą przyjemnością.

  4. Tomasz pisze:

    Tłumaczenia tłumaczeniami ale liczy się merytoryczna treść a tej tu nie brakuje. Dużo przydatnych informacji dla mniej zaawansowanych w SEO.

  5. Martin pisze:

    Dzieki, za informacje od Matta.
    W sumie to nic nowego Matt nie powiedzial – potwierdzil tylko przypuszczenia wiekszosci.

    Pozdrawiam

Loading Disqus Comments ...
Loading Facebook Comments ...