(Odc. 6) Porady dla webmasterów, właścicieli witryn i pozycjonerów

(Odc. 6) Porady dla webmasterów, właścicieli witryn i pozycjonerówW szóstym odcinku zebraliśmy wypowiedzi na temat komunikacji między Google a webmasterami, indeksowania stron z wynikami wyszukiwania, negatywnego wpływu linków nofollow na pozycje strony, aktualizacji Panda i tworzenia wartościowych treści oraz problemów związanych z wprowadzeniem adresów IPv6.

Piąty odcinek wskazówek poruszał następujące tematy: linki z witryn o złej reputacji, ukryty tekst oraz upychanie słów kluczowych, spam generowany przez użytkowników, linki dofollow z widżetów, znaczenie czasu wczytywania strony dla rankingu witryn mobilnych.

 

1. Sposoby komunikowania się Google z webmasterami

Odtwórz wideo

Kiedy pojawi się oficjalna pomoc dla pytań webmasterów? Zawsze otrzymuję tylko automatyczne odpowiedzi po złożeniu prośby o ponowne rozpatrzenie, mimo że opisuję szczegółowo moje kłopoty i to, co do tej pory zrobiłem.

Problemem jest przede wszystkim kwestia skali. Istnieje 250 milionów nazw domen, a według naszych najnowszych danych, podjęliśmy działania w przypadku 400 tysięcy witryn w tym sensie, że wysłaliśmy im ręczne powiadomienia w styczniu 2013. Dostajemy tygodniowo 5 tysięcy próśb o ponowne rozpatrzenie, czyli ok. 20 tysięcy miesięcznie.

Sęk w tym, że naszym głównym celem musi być dostarczanie jak najlepszych wyników wyszukiwania. Właśnie na tym się skupiamy, a naszym drugorzędnym celem jest kontaktowanie się z webmasterami na temat działań, które podjęliśmy w przypadku ich stron. Problemem jest przede wszystkim to, że jest tak wielu webmasterów w internecie, a nasz indeks jest naprawdę duży, i obsługujemy ok. 2 miliardy wyszukań, i nie mamy możliwości porozmawiania „twarzą w twarz” z poszczególnymi webmasterami.

Staramy się stosować skalowalne rozwiązania, jak na przykład filmy dla webmasterów takie jak ten, które mogą mieć kilka tysięcy odsłon, ale naprawdę trudno jest prowadzić normalną rozmowę, zwłaszcza długą i szczegółową, o jednej witrynie. Będziemy poszukiwać nowych sposobów na ulepszenie komunikacji, będziemy szukać sposobów, by komunikować się w sposób skalowalny, ale to jest główna trudność, to jest problem, z którym się mierzymy.

Dlatego proces rozpatrywania prośby o ponowne rozpatrzenie ogranicza się do odpowiedzi „tak, teraz jest dobrze” lub „nie, nadal czeka cię trochę pracy”, lub w niektórych przypadkach, że zajęliśmy się twoją prośbą i na przykład „hej, masz kilka problemów, jeden jest rozwiązany, ale może istnieją inne problemy, które muszą być rozwiązane”. Lecz standardowa odpowiedź na prośbę o ponowne rozpatrzenie nie przewiduje miejsca, w którym można wpisać dodatkową radę lub coś w tym stylu.

Eksperymentowaliśmy z bardziej rozbudowaną komunikacją z osobami składającymi prośbę o ponowne rozpatrzenie, ale jest to problematyczne, ponieważ poświęcając temu więcej czasu, mamy mniej czasu na walkę ze spamem. Więc staramy się znaleźć równowagę i staramy się znaleźć sposoby, które będą skalowalne. Staramy się opracować sposoby na dostarczanie większej ilości informacji, np. w powiadomieniach, które wysyłamy i myślę, że nadal będziemy nad tym pracować, ale zasadniczo jest to bardzo trudny problem.

Można oczekiwać, że Google będzie stale rozwijało swoją komunikację z webmasterami za pomocą Narzędzi dla webmasterów, poradników, czy filmów, ale nie należy spodziewać się indywidualnego kontaktu dotyczącego konkretnej witryny ze strony pracowników zespołu Google ds. walki ze spamem.

2. Działania Google przeciwko witrynom automatycznie generującym bezwartościowe strony

Odtwórz wideo

Jakie działania podejmuje Google przeciwko witrynom, które posiadają skrypt, który automatycznie wyłapuje wyszukiwane frazy i tworzy na ich temat strony? Np. podczas wyszukiwania w Google [zagrożenia związane z piciem kofeiny], trafia się na stronę „nie mamy żadnych artykułów dla PICIA KOFEINY” z dużą ilością reklam.

Chodzi więc o złe wrażenia ze strony użytkownika i odpowiadając pokrótce na Twoje pytanie: jesteśmy w pełni zdecydowani podjąć działania przeciwko tego typu witrynom, mamy więc zasady w naszych wytycznych dotyczące automatycznie generowanych stron, które posiadają bardzo niską wartość, a ja sam w przeszłości zwracałem się do witryn, na których na przykład szukasz produktu takiego jak kamera, laptop, czy też jeszcze jakiegoś innego i myślisz, że trafisz na recenzję na pierwszej stronie, na którą trafisz, a pierwszą rzeczą, którą widzisz, jest tekst „znaleziono 0 wyników dla…”.

Teoretycznie więc wyszukiwarka powinna zdyskwalifikować wszelkie wyniki wyszukiwania z wyświetlania, ponieważ i tak jest to automatycznie generowana treść. Użytkownicy naprawdę nie lubią sytuacji, w której szukają czegoś i zostają przekierowani gdzieś, gdzie prezentowane im są kolejne wyniki wyszukiwania. Jest to powodem irytacji i zdenerwowania, więc wysyłają do nas zgłoszenia dotyczące spamu. Jeśli więc zobaczycie coś takiego, nie wahajcie się zgłaszać tego jako spam.

W przypadku webmasterów witryn, które prezentują wyniki wyszukiwania, zwykle wyciąłbym wszystkie wyniki wyszukiwania, chyba że znajduje się wśród nich coś naprawdę nietypowego, coś co mówi, że są to zupełnie inne materiały, czy też wyniki wyszukiwania w Internecie, lub też dane, których nie posiada nikt inny na świecie, coś w tym rodzaju. W każdym razie upewnijcie się, że w przypadku stron z zerowymi wynikami wyszukiwania po prostu zablokujecie te strony, bo naprawdę nie pomaga to nikomu, kto próbuje coś znaleźć.

Tak więc jesteśmy zdecydowani podejmować działania w stosunku do tego typu stron, jak najbardziej, ponieważ uważamy, że naruszają one nasze wytyczne. Z mojej strony mogę tylko powiedzieć, że jeśli traficie na tego typu strony, to zgłaszajcie to na forum dla webmasterów lub też zgłaszając spam, albo wyślijcie mi wiadomość na Twitterze, bo nie przyczynia się to do wywierania dobrego wrażenia u użytkowników, a my również bardzo nie lubimy tego typu rzeczy, z prostej przyczyny, że zwalnia to tempo pracy i pogarsza to wrażenia użytkowników. Dziękuję za zadanie pytania na ten temat.

Strony z wynikami wyszukiwania w witrynie powinny być zablokowane przed indeksowaniem, a w szczególności te, które zwracają 0 wyników. Strony z wynikami wyszukiwania wewnątrz witryny nie posiadają zwykle żadnej wartości dodanej, dlatego nie powinny być indeksowane przez wyszukiwarki.

3. Negatywny wpływ linków nofollow na pozycję strony w wynikach wyszukiwania

Odtwórz wideo

Pozyskuję linki nie dla celów SEO, lecz by pozyskać ruch bezpośredni. Jeśli są to linki no-follow, czy istnieje ryzyko dostania kary od Google? Innymi słowy, czy linki no-follow mogą zaszkodzić mojej witrynie?

W normalnej sytuacji linki nofollow nie mogą zaszkodzić twojej witrynie, więc to jest od razu taka szybka odpowiedź na pytanie.

Ale chciałbym też powiedzieć o jednym szczególnym i dziwnym przypadku: jeśli na przykład zostawiasz komentarze na każdym blogu na świecie, nawet jeśli są to linki nofollow, jeśli zostawiasz ich tyle, że ludzie cię rozpoznają i grasz im na nerwach, i wysyłają zgłoszenie oskarżając cię o spamowanie, możemy podjąć ręczne działania przeciwko spamowi.

Pamiętam, że przez długi czas na TechCrunch za każdym razem, gdy ktoś się pojawiał, był taki gość, Anon.TC, który zostawiał jakieś bezsensowne komentarze i było jasne, że chce po prostu pozyskać w ten sposób ruch osób czytających artykuły do witryny tego, co akurat promował. Więc nawet jeśli te linki były rzeczywiście nofollow, jeśli zaobserwujemy masowe działania, które uznamy za oszustwo bądź manipulację, zastrzegamy sobie prawo do podjęcia działań i robimy wyjątek dla bardzo dużych nadużyć.

Lecz w większości przypadków, linki nofollow są eliminowane z naszego grafu linków, gdy przeszukujemy sieć, więc linki nofollow nie powinny wpływać na ciebie z punktu widzenia algorytmu. Zawsze zostawiam sobie malutką furtkę na wypadek kogoś, kto dokonuje bardzo nietypowego ataku albo masowych nadużyć, albo czegoś w tym rodzaju. Lecz jeśli pozyskujesz ruch w normalny sposób i nie grasz na nerwach całemu internetowi lub coś w tym stylu, nie masz powodu do zmartwień.

Domyślnie linki nofollow są eliminowane z grafu linków i nie wpływają na witrynę z punktu widzenia algorytmu wyszukiwarki. Jednak może zdarzyć się niestandardowa sytuacja, kiedy linki nofollow są masowo wykorzystywane do spamerskiego pozyskiwania ruchu lub popularności. Wtedy Google zastrzega sobie prawo do podjęcia ręcznych działań wobec witryny promowanej w taki sposób. Pisaliśmy o tym w artykule Linki nofollow mogą zaszkodzić Twojej witrynie.

4. Postępowanie w przypadku podejrzenia dotknięcia serwisu przez aktualizację Panda

Odtwórz wideo

Ostatnio Google zintegrował aktualizację Panda z normalnym procesem indeksowania. Skąd webmasterzy mają teraz wiedzieć, czy ich witryna ucierpiała ze względu na aktualizację Panda? Myślę, że to pytanie ma sens, bo jeśli witryna ucierpiała, to skąd webmaster ma wiedzieć, że witrynie udało się wyjść z Pandy?

Panda to zmiana, którą wdrożyliśmy parę lat temu z myślą o treściach niskiej jakości. Było tak, że co mniej więcej miesiąc wprowadzaliśmy nową aktualizację i informowaliśmy, że pojawiło się coś nowego, że coś uruchamiamy, mamy nowe dane, w związku z czym odświeżamy dane.

Doszliśmy do punktu, w którym związane z aktualizacją Panda zmiany stawały się coraz mniejsze, bardziej przyrostowe, mieliśmy całkiem dobre sygnały, w zasadzie rozwiązaliśmy wszelkie łatwo osiągalne kwestie, tak więc nie następowały żadne duże zmiany wraz z kolejnymi aktualizacjami Panda. W związku z tym stwierdziliśmy, że lepiej żeby to była dyskretna zmiana danych, która ma miejsce co około miesiąc, kiedy odświeżamy dane – żeby po prostu zintegrować ją z indeksowaniem.

Aktualnie uważamy, że aktualizacja Panda dotyczy małej ilości webmasterów balansujących na krawędzi, w związku z czym stwierdziliśmy, że zintegrujemy ją z naszym głównym procesem indeksowania. Opublikowaliśmy na ten temat artykuł na blogu, który polecam, który napisał Amit Singhal. Mówi on o rodzajach sygnałów, na które zwracamy uwagę, kiedy staramy się ocenić jakość w ramach aktualizacji Panda.

Wydaje mi się, że nakręciliśmy już wcześniej jakieś filmy na ten temat, więc nie będę tego powtarzał, ale w zasadzie można powiedzieć, że szukamy wysokiej jakości treści. Jeśli więc myślisz, że Twoje problemy mogą być związane z aktualizacją Panda, to nadrzędnym celem będzie upewnienie się, że posiadasz wysokiej jakości treści, takie, które ludziom naprawdę się podobają, które wciągają, które będą chcieli przeczytać. Takie, które można znaleźć w gazecie albo w książce, które ludzie będą wymieniać jako źródło, albo polecać swoim znajomym, tego typu rzeczy. To byłby cel nadrzędny, a ponieważ aktualizacja Panda została zintegrowana z indeksowaniem, to stanowi cel całego naszego systemu indeksowania.

Jeśli nie pojawiasz się w wynikach wyszukiwania tak wysoko, jak dawniej, to na ogół zawsze dobrym pomysłem jest skupienie się na jakości treści na danej stronie. Czy są tam treści, które są pochodnymi, zostały skopiowane, zdublowane, lub po prostu nie są zbyt przydatne, a także: czy mogę wymyślić coś oryginalnego, coś, co ludziom będzie się naprawdę podobać? Tego typu rzeczy zwykle pojawiają się wyżej w naszych wynikach wyszukiwania.

Google wycofało się z informowania o kolejnych aktualizacjach Panda ze względu na co raz mniejszą skalę zmian w wynikach wyszukiwania po uruchomieniu update’u. Jeśli podejrzewasz, że na spadek pozycji Twojej witryny mogła mieć Panda, to przede wszystkim sprawdź jakość treści jakie publikujesz w serwisie. Więcej w artykule Ochroń się przed aktualizacją Pandą.

5. Witryna dostępna na adresach IPv4 i IPv6 a duplicate content

Odtwórz wideo

Jako że jesteśmy na progu przejścia na protokół IPv6, to czy mógłbyś udzielić informacji na temat sposobu, w jaki Google będzie oceniać witryny? Jeśli jedna witryna będzie w IPv4 i dokładnie taka sama w IPv6, to czy będą traktowane jako zdublowane treści?

Nie, nie będą traktowane jako zdublowane treści. IPv4 to adres IP, który określany jest z wykorzystaniem czterech oktetów. IPv6 jest określany przy pomocy sześciu tego typu identyfikatorów. W zasadzie prezentując takie same treści pod IPv4 i pod IPv6, nie przejmuj się możliwością potraktowania ich jako zdublowanych treści.

To pytanie jest podobne do pytania o posiadanie treści w domenach [nazwa_domeny.pl] i [nazwa_domeny.com]. Spamerzy rzadko kiedy kupują wiele domen na różnych poziomach domen krajowych i próbują tego typu działań. Tak więc zazwyczaj, jeśli posiadasz witrynę w domenach wielu krajów, to nie traktujemy ich jako zdublowanych treści, i nigdy lub bardzo rzadko ma to miejsce w odniesieniu do naszych wyników wyszukiwania. Posiadanie tego samego pod adresem IPv4 i IPv6 również nie powinno stanowić żadnego problemu.

Z wypowiedzi wynika, że problem duplicate content w praktyce nie dotyczy publikowania tej samej witryny jednocześnie pod adresem IPv4 i IPv6. Co ciekawe zazwyczaj problem nie obejmuje również umieszczenia kopii witryny w różnych domenach nadrzędnych (np. com i .pl). Inną kwestią pozostaje prawidłowa geolokalizacja, kiedy na przykład posiadamy witrynę w wersji angielskiej skierowanej do użytkowników w Wielkiej Brytanii w domenie .co.uk oraz dla innych użytkowników anglojęzycznych w domenie .com. W takich przypadkach z pomocą przychodzą adnotacje rel=”alternate” hreflang=”x”.

 

» Zobacz następny odcinek porad dla webmasterów, właścicieli witryn i pozycjonerów

Skomentuj artykuł:

Komentarze

  1. […] Czytaj całość na: http://blog.performancemedia.pl/seo/odc-6-porady-dla-webmasterow-wlascicieli-witryn-i-pozycjonerow […]

  2. Maciej pisze:

    Akurat prowadzę wiele stron, nie w całości się zgadzam. Ale poprzednie porady były naprawdę ok. Co do nofollow to trochę mam odmienne zdanie, bo muszą być dla zróżnicowania

  3. @Maciej: Wypowiedź nt. szkodliwości linków nofollow dotyczy jedynie naprawdę skrajnych przypadków spamerskiego pozyskiwania linków nofollow. W pozostałych przypadkach są one neutralne lub przynoszą pewne korzyści.

  4. sieci pisze:

    A propos zmian algorytmów Google, to mam nadzieję, że najgorsze may już za sobą i na tak wielką skalę już tych zmian nie będzie.

Loading Disqus Comments ...
Loading Facebook Comments ...