(Odc. 9) Porady dla webmasterów, właścicieli witryn i pozycjonerów

(Odc. 9) Porady dla webmasterów, właścicieli witryn i pozycjonerówKolejny odcinek z cyklu porad SEO mówi o optymalizacji witryn dla urządzeń mobilnych, linkach z komentarzy, zaleceniach dla opisów stron, prewencyjnym wykluczaniu linków oraz limicie linków umieszczanych na stronie.

Warto także zapoznać się z poprzednimi wypowiedziami Matta Cuttsa na temat różnicowania źródeł ruchu, wpisów gościnnych zgodnych z wytycznymi, różnic między znacznikami wyróżniającymi, wpływu liczby podstron na pozycje oraz oznaczania metadanymi filmów z YouTube.

1. Co jest lepsze dla SEO – RWD czy wersja mobilna witryny?

Odtwórz wideo

Czy witryna wykorzystująca RWD „traci” korzyści z punktu widzenia SEO w porównaniu do bardziej tradycyjnej strony mobilnej („m.”)?

Ok, wyjaśnijmy dokładnie, o co tutaj chodzi. Jeśli masz witrynę, która może działać dobrze dla zwykłych przeglądarek na komputerach stacjonarnych, jak również dla telefonów komórkowych, to jest parę prawidłowych sposobów.

Jeden z nich to technika Responsive Web Design, czyli projektowanie responsywne, które oznacza, że strona działa bardzo dobrze niezależnie od tego, czy adres URL zostanie odwiedzony za pośrednictwem przeglądarki na komputerze stacjonarnym, czy też przy pomocy przeglądarki mobilnej. Obiekty są przeskalowywane, rozmiar strony jest brany pod uwagę, i wszystko współgra.

Innym sposobem jest przekierowanie na podstawie klienta użytkownika (ang. user agent), tak żeby na przykład telefony komórkowe i smartfony zostały przekierowane na wersję mobilną strony, i z tym też nie ma żadnego problemu.

Posiadamy wskazówki i najlepsze praktyki, które zamieścimy w opisie tego filmu, a które wyjaśniają jak to zrobić i dobrze to rozegrać, takie jak zamieszczenie rel="canonical" z wersji mobilnej do strony dla komputerów stacjonarnych, i inne tego rodzaju informacje.

Na ogół nie martwiłbym się o to, że witryna, która wykorzystuje projektowanie responsywne utraci korzyści z punktu widzenia SEO, bo jest to ten sam adres URL. Tak więc teoretycznie, jeśli tworzysz mobilną wersję swojej witryny, jeśli nie rozegrasz tego za dobrze i nie zastosujesz rel=canonical, czy coś w tym rodzaju, to możesz podzielić PageRank pomiędzy te dwie strony. Jeśli jednak stosujesz projektowanie responsywne, to wszystko jest obsługiwane pod jednym adresem URL, tak więc PageRank nie jest dzielony, czyli nie trzeba się w ogóle martwić o negatywne aspekty techniki Responsive Web Design z punktu widzenia optymalizacji dla wyszukiwarek internetowych.

Należy zadbać o to, żeby strona działa dobrze dla użytkowników, żeby działa szybko i o inne tego rodzaju ważne elementy, ale nie martwiłbym się w ogóle o technikę RWD i to, czy będzie miała ona negatywny wpływ z punktu widzenia SEO.

Projektowanie responsywne stron internetowych (ang. Responsive Web Design) pozwala na zagregowanie czynników rankingowych pod jednym adresem URL. Zalety i wady tego rozwiązania zaprezentowaliśmy na infografice o projektowaniu responsywnym.

2. Czy linki w komentarzach naruszają wytyczne Google?

Odtwórz wideo

Wskazówki Google dla webmasterów przestrzegają przed linkami w sygnaturach na forach, ale co z linkami w komentarzach? Czy budowanie linków poprzez zamieszczanie komentarzy jest wbrew wskazówkom Google dla webmasterów? A co jeśli jest to strona mająca związek z tematem i komentarz ma sens?

Cóż, cały czas zamieszczam komentarze związane z tematem na witrynach związanych z tematem, więc jeśli na przykład ktoś publikuje konspiracyjną teorię SEO, z którą się nie zgadzam, to pojawiam się i zamieszczam komentarz, w którym wskazuję coś, co dowodzi, że nie jest to zgodne z prawdą, albo wersję oficjalną, czy coś w tym rodzaju. Publikuję komentarz opatrzony moim imieniem i nazwiskiem, często nawet odsyłam do mojego bloga, a nie do bloga Google dla webmasterów, czy czegoś w tym rodzaju, ponieważ wypowiadam się w swoim imieniu. Tak więc wiele osób właśnie tak robi i nie ma z tym żadnego problemu.

Zazwyczaj lepiej podpisać się imieniem i nazwiskiem, żeby odbiorca wiedział z kim ma do czynienia, niż „tanie pomoce naukowe”, czy „fałszywe prawo jazdy”, niezależnie od tego jaką nazwę nosi Twoja firma. Zwykle spotka się to z bardziej sceptyczną reakcją, niż jeśli podpiszesz się imieniem i nazwiskiem.

Kolejną rzeczą, na którą zwróciłbym uwagę, jest to, że jeśli Twoją główną strategią budowania linków jest zamieszczanie komentarzy gdzie popadnie, przez co olbrzymią część Twojego portfolio linków będą stanowić komentarze, a nie naturalne linki osób prowadzące do Twojej witryny, to w pewnym momencie można to uznać za manipulowanie linkami. W przypadku działań na szeroką skalę zastrzegamy sobie prawo do podejmowania działań dla wszelkiego rodzaju manipulacji linkami, które mogą zaburzać nasze rankingi.

Jeśli jednak tworzysz zwykłe naturalne komentarze, i nie robisz tego na zasadzie „muszę dzień w dzień opublikować tyle a tyle komentarzy, bo robię właśnie po to, żeby budować linki do mojej witryny”, to nie powinno być żadnego problemu. W żadnym wypadku nie jest to coś, o co bym się martwił. Mam nadzieję, że udało mi się pomóc.

Linki z komentarzy nie są problemem dopóki są – słowo klucz – naturalne. Oczywiście jest to pojęcie względne, ale wyznacznikami naturalności będą: podpisywanie się imieniem, a nie słowem kluczowym, zamieszczanie linków do stron powiązanych z tematyką komentowanej zawartości, rzeczowe wypowiedzi i brak masowości tych działań.

3. Czy każda podstrona powinna posiadać unikalny opis meta?

Odtwórz wideo

Czy konieczne jest posiadanie dla każdej strony unikalnego opisu w metatagach?

Świetne pytanie. Ok, podszedłbym do tego w następujący sposób: możesz albo mieć unikalne opisy w metatagach, albo zdecydować się ich nie stosować, ale nie stosowałbym opisów powtórzonych.

Jeśli zarejestrujesz się i zweryfikujesz swoją witrynę, to w konsoli Narzędzi dla webmasterów Google zwracamy uwagę na powielone opisy w metatagach, także jest to coś, czego bym unikał. Na ogół chyba nie warto poświęcać czasu na tworzenie zróżnicowanych opisów w metatagach dla każdej poszczególnej strony danej witryny. Na przykład dla mojego bloga, nie zajmuję się tym. Nie mówcie nikomu… Ups, właśnie wszystkim powiedziałem.

Jeśli jednak są strony, które są naprawdę ważne, jak na przykład strona główna, lub strony, które przynoszą naprawdę spore zyski, albo na przykład najbardziej promowane produkty, czy coś w tym rodzaju, albo też może w wynikach wyszukiwania kilka stron danej witryny ma naprawdę paskudne automatycznie wygenerowane opisy. Staramy się, jak możemy, ale nie twierdzimy, że opisy te są za każdym razem idealne.

W tego rodzaju sytuacjach może mieć rację bytu interwencja, aby upewnić się, że posiadasz unikalne, zindywidualizowane, dopieszczone opisy. Ale na ogół zamiast mieć jeden opis powtarzany w metatagach raz po raz dla każdej strony danej witryny, albo upewniłbym się, że jest unikalny dla stron, które są naprawdę ważne, albo się go po prostu pozbył, a Google wygeneruje go sam. Zdublowanych opisów bym się jednak pozbył, jeżeli jest taka możliwość.

Opisy stron w znaczniku meta nie są wykorzystywane w procesie tworzenia rankingu stron, ale mogą być wyświetlane w wynikach wyszukiwaniach. Dlatego należy optymalizować opisy z punktu widzenia pełnionej przez nie funkcji marketingowego przekazu, który ma zachęcić do kliknięcia strony w wynikach wyszukiwania. Dodatkowo słowa kluczowe w opisie są pogrubiane w opisach wyników wyszukiwania, jeśli zostały wymienione w zapytaniu, co dodatkowo może przyciągać uwagę.

4. Czy dezawuować linki, nawet jeśli nie podjęto wobec witryny działań ręcznych?

Odtwórz wideo

Czy webmasterzy powinni korzystać z narzędzia do dezawuowania linków, nawet jeśli zakłada się, że nie została nałożona kara? Na przykład jeśli uważamy, że zastosowano „negatywne SEO” lub też witryny spamerskie nie usunęły linków.

Głównym celem narzędzia do dezawuowania linków jest sytuacja, w której zastosowałeś niewłaściwe techniki SEO, opłaciłeś niewłaściwe SEO i musisz „posprzątać”. Zrobiłeś co się dało, żeby pousuwać te linki z sieci, ale niektórzy ludzie nie odpowiedzieli, lub jest jakiś inny powód, dla którego nie możesz usunąć każdego linka w sieci. Jest to idealna sytuacja na zastosowanie narzędzia do dezawuowania i określenie, że to są linki, które próbowałeś zdjąć i to się nie udało.

Jeśli jednak martwisz się o to, że ktoś zastosuje negatywne SEO lub wygląda na to, że jest jakiś dziwny bot, który tworzy masę linków do Twojej witryny, a Ty nie masz pojęcia skąd się wziął, to też jest to idealny moment na zastosowanie narzędzia do dezawuowania linków. Nie obawiałbym się dezawuowania linków, nawet jeśli nie pojawia się wiadomość w konsoli dla webmasterów.

Jeśli więc aktywnie pracowałeś nad śledzeniem linków prowadzących do witryny i widzisz, że dzieje się coś dziwnego, to nie musisz czekać. Po prostu się nie krępuj i zapobiegawczo zadeklaruj, że jest to dziwna domena i nie masz z nią nic wspólnego, albo że nie wiesz co ten konkretny bot wyprawia w zakresie tworzenia linków. Także równie dobrze możesz dezawuować linki nawet na poziomie domeny.

Powtórzę więc, głównym celem dezawuowania jest usuwanie niewłaściwych linków, jeśli sam jesteś ich autorem i musisz „posprzątać”. Jeśli jednak się stresujesz, jeśli martwisz się i nie możesz spać po nocach, bo myślisz, że Google może coś zauważyć, albo że możemy otrzymać raport dotyczący spamu na Twój temat, albo że może zajść jakieś nieporozumienie, lub że algorytm może umieścić Twoją stronę niżej w rankingu, to też po prostu zdezawuuj te linki.

Narzędzie do dezawuowania linków może być stosowane niezależnie od podjęcia wobec witryny działań ręcznych przez Google. Wykluczony może być każdy link, którego nie możemy usunąć, a który uważamy za mogący zaszkodzić naszemu serwisowi internetowemu.

5. Czy istnieje limit liczby linków na stronie?

Odtwórz wideo

Ile powinniśmy mieć linków na stronie? Czy jest jakieś ograniczenie?

Ok, zacznijmy od przedstawienia kontekstu. Było kiedyś tak, że Googlebot i nasz system indeksowania przyjmowały tylko 100 lub 101 kilobajtów, i nic ponadto nie było w ogóle indeksowane. Stwierdziliśmy więc, że skoro strona ma 101 czy też 100 kilobajtów, to można się spodziewać około jednego linka na kilobajt, czyli w przybliżeniu 100 linków na stronie. Zamieściliśmy to w naszych wskazówkach technicznych w ramach naszych zaleceń i sporo ludzi założyło, że jeśli mają 102 linki, lub coś w tym rodzaju, to uznamy to za spam i podejmiemy działania. Były to jednak pewne ogólne wskazówki.

Niemniej jednak Internet się zmienia, ewoluuje, a przede wszystkim strony internetowe zrobiły się dużo większe. Pojawiło się więcej multimediów i nie są wcale rzadkością agregatory, czy też inne strony z dużo większą ilością linków, w związku z czym usunęliśmy te wskazówki, i teraz w zasadzie doradzamy, aby ich liczba mieściła się w granicach rozsądku, co uważam za całkiem dobrą wskazówkę. Być może mamy teraz limit rozmiaru pliku, ale jest on dużo większy. Liczba linków, którą jesteśmy w stanie przetworzyć na stronie również jest dużo większa.

Parę czynników, które trzeba wziąć pod uwagę to to, że jeśli chodzi o PageRank, to jego ilość, która jest przekazywana przez linki na zewnątrz, jest dzielona przez całkowitą liczbę linków wychodzących. Jeśli więc masz 100 linków, to podzielisz swój PageRank przez 100, jeśli masz 1000 linków, to podzielisz ten PageRank przez 1000. Jeśli masz ogromną liczbę linków, to ilość PageRank, która jest przekazywana przez każdy poszczególny link może być bardzo znikoma.

Drugą rzeczą jest to, że dla użytkowników może to być denerwujące, albo może zacząć przypominać spam, jeśli będzie to ogromna ilość linków, jesteśmy gotowi podjąć działania względem spamu, jeśli wykryjemy tak dużą liczbę linków, że będzie to mocno wyglądać na spam, ale jeśli porównać nasze dawne wytyczne mówiące o 100 linkach z tym, jak teraz wygląda Internet, to często zdarza się 200, 300 czy też 400 linków na stronie, o ile strona ta jest długa, wartościowa, zawiera znaczącą ilość treści i naturalnych elementów.

Tak więc krótko można odpowiedzieć, że nie należy się o to martwić, i że nie trzeba się już ograniczać do 100 linków. Dobrze jest też jednak ściągnąć zwykłego użytkownika i zrobić pewien prosty test z jego punktu widzenia, upewnić się, że nie uzna tego za dziwne lub spamerskie, lub też za upychanie ogromnej ilości linków na stronie. Jeśli spełniasz tego rodzaju kryteria, to nie jest to coś, czym bym się bardzo przejmował.

Liczba linków publikowanych na stronie powinna uwzględniać użyteczność oraz przepływ wartości PageRank.

» Zobacz następny odcinek porad dla webmasterów, właścicieli witryn i pozycjonerów

Skomentuj artykuł:

Komentarze

  1. Bartek pisze:

    Kolejny świetny wpis!
    Mam takie pytanie.
    Czy należy dezawuować linki, które mają niski Trust/Citation Flow a jednak pochodzą z zaufanego żródła?

  2. @Bartek: Niski Trust/Citation Flow sam w sobie nie powinien być powodem usuwania/wykluczania linków. Dopiero w połączeniu z innymi czynnikami może to być wyznacznik jego słabej jakości (np. nietematyczna strona źródłowa, tekst odnośnika w postaci komercyjnego słowa kluczowego, itp.).

  3. Seowordpres pisze:

    Bardzo lubię ten cykl. Fajnie się to czyta :)

  4. @Seowordpres: Dzięki, staramy się ;-)

Loading Disqus Comments ...
Loading Facebook Comments ...