Webspam Google Update – co się odwlecze…

Update przeciwko spamowi internetowemuWczoraj napisaliśmy o zmianach pozycji stron w wynikach wyszukiwania, które okazały się błędem popełnionym przez Google, a dzisiaj kolejna aktualizacja algorytmu wyszukiwarki jest już oficjalnym faktem.

Spam na celowniku Google

Google ogłosiło, że w ciągu kolejnych kilku dni będzie wprowadzana ważna aktualizacja algorytmu wyszukiwarki, której celem jest walka ze spamem internetowym. Update wszystkich wersji językowych ma obniżyć pozycje witryn naruszających wskazówki jakościowe dla webmasterów. Oczywiście Google nie podaje konkretnych czynników, które zostaną wzięte pod uwagę przy wykrywaniu spamu, ale jako przykład podaje upychanie słów kluczowych (ang. keyword stuffing):

Upychanie słów kluczowych

Upychanie słów kluczowych

Kolejny mniej drastyczny przypadek, to strona stosująca nietypowy sposób linkowania:

Spamerskie linki

Spamerskie linki

Przykład pokazuje stronę wpisu z tekstem dotyczącym aktywności fizycznej, do którego wstawiono linki „pożyczka”, „szybkie pożyczki gotówkowe”, itp. Po za tym, że linki prowadzą do stron zupełnie niepowiązanych z tematyką strony linkującej, to tekst wpisu stał się niezrozumiały. Rozwiązanie to nasuwa na myśl tzw. precle (ang. presell pages – strony umożliwiające innym wstawianie artykułów z linkami zewnętrznymi). Przykład na blogu Google Polska jest jeszcze bardziej jaskrawy i prezentuje linki umieszczone w tekście wygenerowanym przez automat:

Linki w tekście z generatora

Linki w tekście z generatora

Google podkreśla, że witryny dotknięte aktualizacją nie muszą wyglądać na pierwszy rzut oka na spamerskie. Dopiero dokładniejsza analiza pokazuje, że stosują one techniki dalekie od „white hat” SEO w celu manipulowania rankingiem wyników wyszukiwania. Aktualizacja ta ma zapewne związek z zapowiadanymi przez Matta Cuttsa karami dla witryn nadużywających optymalizacji SEO. Jako nadużycia zostało wymienione upychanie słów kluczowych i nienaturalne linkowanie, tak jak w przykładach cytowanych powyżej.

Jak to wpłynie na wyniki wyszukiwania

Zmiany w wynikach wyszukiwania mają być zauważalne przez zwykłych użytkowników dla następującego odsetka zapytań:

  • ok. 3.1% dla zapytań w języku angielskim
  • ok. 3% dla zapytań w językach takich jak niemiecki, chiński, arabski
  • 5% dla zapytań w języku polskim.

 
Google zaznaczyło, że wpływ aktualizacji będzie bardziej widoczny dla zapytań w językach bardziej zaspamowanych i, co ciekawe, jako przykład podało polskie zapytania. Czy jesteśmy aż tak niechlubnym przykładem?

Aktualizacja Google na żywo

Z obserwacji wątków na forach branżowych wynika, że aktualizacja już zbiera plony w polskich wynikach wyszukiwania. Jakie problemy są zgłaszane? Zacytujmy kilka wypowiedzi użytkowników forum PiO:

Spadki z TOP1 -3 okolo 500 fraz na jakies 5-10 i dalej

Jakies 1000 fraz out z top5 – takie co w top3 byly czasami nawet ponad 2 lata

Z tego co mozna wywnioskowac, po tylkach dostana domeny robione linkami z niezwiazanej tematycznie tresci / zaplecz na wp

Od ponad miesiaca Google jest na sciezce wojennej ze sztucznym linkowaniem z blogow – mysle, ze te zmiany to kolejny krok w ta strone

Z tego co widzę to spadły trochę stronki, które miały dużo stałych linków w sidbarach blogów, ale to raczej nie kara tylko osłabienie linków? (…) Strony linkowane ze śmieciowych precli stoją w miejscu, z tym że treść zawsze ściśle odpowiadała temu do czego był link, czyli nie było tak jak na przykładach z bloga google.

U mnie spadki z top 1-5 do 30 pozycji w dół dla domeny rocznej. Dla starej domeny ponad 6 – letniej pozycje w górę.

U mnie spadki na domenach, które od lat były w topie. Niszowe frazy linkowane głównie katalogami i preclami z publikera.

Bardzo dziwnie to wygląda – u mnie domeny w top1 od kilku miesięcy spadek na przykładowo 11 pozycję i to zarówno domeny nielinkowane, jak i linkowane delikatnie katalogami, żadnych swli, więc o walce ze spamem chyba nie ma tutaj mowy. Coś mi się wydaje że to nowy algorytm który wszedł razem z powiadomieniami o nienaturalnych linkach i filtrami ze przeoptymalizowanie serwisów.

Spadek średnio o 20 pozycji na kilku stronach. (…) Linki pozyskiwane głównie z katalogów, nie spamowane, z długim stażem w sieci.

Główne zmiany przy frazach lokalnych, optymalizowanych „nienaturalnie” (wszelkie „dentysta pcim dolny”)

U mnie niezłe spadki, frazy z top2 na poleciały poza top10, niektóre z top5 nie ma nawet w top50. Domena główna linkowana mocnymi site wide’ami z site barów, na mocnych dobrych blogach, chociaż nietematycznych. Pozatym linkowane seokatalogami, preclami, omnim, sb Brakowało tylko xrumera i swli.

Chyba oberwało się linkom z sekcji „blogroll” na WP przede wszystkim – obserwowałem konkurencję, jej linkowanie – większość linków site-wide, łapali zgrabnie top. Dzisiaj nie ma ich w 10tce

Jedna mocno w dół – linkowana głównie preclami, z tym, że porządnymi preclami (dziennikarstwo obywatelskie, artykuły do przedruku, itd.), ręcznie, teksty w pełni unikalne, 1800+ znaków.

Poleciało mi około 20 stron z czego wszystkie linkowane były dobrymi preclami z oryginalnymmi tekstami.

Jest jeszcze za wcześnie, żeby wyciągnąć ogólne wnioski, ale w większości wypowiedzi pojawia się temat precli. To kolejny krok Google, który ma na celu obniżyć skuteczność sztucznych metod linkowania.

Dobre SEO nie jest złe

Google już po raz kolejny podkreśliło, że nie ma nic przeciwko optymalizacji pod kątem wyszukiwarek internetowych, o ile jest to tzw. „white hat” SEO. Google wylicza też korzyści takiej optymalizacji, która czyni witryny łatwiej dostępnymi dla robotów, zwiększa ich użyteczność i szybkość działania oraz umożliwia wyróżnienie się na tle konkurencji. Trzeba po prostu zakasać rękawy, unikać najczęstszych błędów SEO i uważać, żeby nie „przeoptymalizować” witryny. Wydaje się, że metody z pogranicza „black hat” SEO stają się co raz bardziej ryzykowne i promowanie przez Google tworzenia witryn z myślą o dobrych wrażeniach użytkowników przestaje być tylko pustym frazesem.

Skomentuj artykuł:

Loading Disqus Comments ...
Loading Facebook Comments ...