Użyteczność serwisu i analiza SEO – Jak tworzyć dobre serwisy wg CPI

Metody i narzędzia prowadzenia analizy SEOZ ramienia ministerstwa administracji i cyfryzacji Centrum Projektów Informatycznych w ramach prac nad poprawą serwisu ePUAP opracowało i udostępniło materiały na temat budowania witryn przyjaznych dla użytkowników (usability) i wyszukiwarek (SEO).

Warto się z nimi zapoznać, tym bardziej, że jako podatnicy zapłaciliśmy za oba dokumenty.

 

Metody i narzędzia prowadzenia analizy SEO

Metody i narzędzia prowadzenia analizy SEO – optymalizacja witryn dla wyszukiwarek internetowych to opracowanie, w którym zostały przedstawione podstawowe metody optymalizacji serwisu pod kątem wyszukiwarek internetowych. Dokument zawiera zagadnienia związane z optymalizacją struktury adresów URL, nawigacji wewnętrznej, treści, metatagów, grafik, kodu strony i indeksacji serwisu.

Dokument wydaję się dobrym zestawieniem najważniejszych aspektów optymalizacji SEO serwisów internetowych, jednak zdecydowanie nie wyczerpuje tematyki optymalizacji SEO on-site.

Łyżka dziegciu

W dokumencie można niestety znaleźć błędy i nieścisłości. Oto część z nich:

  1. Dziwi ocena wpływu metatagów na ranking strony w wyszukiwarce (10/10). Owszem, tytuły są bardzo ważne, ale czy metatagi description i keywords również mają taki wpływ na pozycję strony?
  2. Miejscami razi wydumane słownictwo (np. ekspercka analiza struktury adresów URL, optymalnym cross-linking-u wewnętrznym), błędy stylistyczne (stworzenie rozsądnej struktury), składniowe (Nie należy stosować nieistotnych parametrów w adresach URL, określające na przykład), pod strona, css, javascript) i inne (Google Webmastertools). Błędów jest naprawdę dużo.
  3. W przykładzie adresu URL przed i po optymalizacji zwróciłem uwagę na fakt, że pierwszy z nich spełnia wymogi usługi Google News, a zoptymalizowany już nie (brak trzycyfrowego numeru wyróżniającego).
  4. (…) warto jest tworzyć adresy url nieprzekraczające długości 120 znaków. Do takiej długości, bowiem adres url wyświetlany jest w wynikach wyszukiwania w pełnej formie – radzę nie sugerować się stwierdzeniem, że adres URL długości 120 znaków zostanie wyświetlony w pełnej formie w SERPach.
  5. Jedynym rodzajem przekierowania przenoszącym pełną wartość ze starego adresu na nowy jest przekierowanie o kodzie 301 – przenoszona wartość nie jest znowu taka pełna, ale to już szczegół.
  6. W optymalizacji odnośników atrybut title jest określany drugim ważnym czynnikiem. Jego znaczenie dla optymalizacji SEO jest jednak mocno wątpliwe.
  7. Wiele wątpliwości budzą zalecenia dotyczące nasycenia tekstów frazami kluczowymi. Niby jest wzmianka na temat naturalności tekstów, ale obawiam się, że zaprezentowane dobre praktyki wykorzystane przez laika zaowocują upychaniem słów kluczowych. Kilka cytatów: Zoptymalizowany artykuł pod frazę kluczową to artykuł, który zawiera kilkukrotne powtórzenie słowa kluczowego w treści, W dalszej części tekstu można używać synonimów i odmian słów kluczowych pod warunkiem, że tekst jest już nasycony słowami w mianowniku, Przyjmuje się, że wystarczającym nasyceniem słów kluczowych będzie wykorzystanie słowa raz na kilka zdań.
  8. W optymalizacji grafik atrybut alt ma dużo większe znaczenie niż nazwa pliku, wbrew temu, co sugeruje ocena składowych optymalizacji grafik w dokumencie.
  9. Opis dotyczący tworzenia map witryn XML sugeruje, że powinny się w niej znaleźć najważniejsze adresy URL. Nieprawda, powinny się tam znaleźć wszystkie kanoniczne adresy URL, które mają być indeksowane. Poza tym parametry takie jak data ostatniej modyfikacji, częstotliwość zmian oraz priorytet są opcjonalne.
  10. Za pomocą pliku robots.txt możemy także obronić się przed indeksacją treści, która nie powinna być dostępna dla wszystkich użytkowników wyszukiwarek – plik robots.txt nie jest idealną metodą zapobiegania indeksowania podstron. Nie pojawiła się wzmianka na temat metatagu robots o wartości noindex.

Was też zapraszamy od merytorycznej analizy dokumentu.

Materiały szkoleniowe z zakresu użyteczności serwisów internetowych

Materiały szkoleniowe z zakresu użyteczności serwisów internetowych to opracowanie dotyczące ergonomii serwisów internetowych, definiowania i analizy wymagań użytkowników, architektury informacji, projektowania rozwiązań webowych i mobilnych, a także technik i metod badania użyteczności.

Analiza dobrych praktyk w obszarze e-administracji

Wart również wspomnieć o trzecim dokumencie opracowanym dla ePUAP: Analiza dobrych praktyk w obszarze e-administracji (prezentacja).

Pytania do publiczności

A jak Wy oceniacie te dokumenty? Według Was takie wydawanie środków publicznych jest zasadne? A może znaleźliście jakieś błędy merytoryczne w opublikowanych materiałach?

Skomentuj artykuł:

Komentarze

  1. Mariusz pisze:

    Też mam mieszane uczucia, ale nie jest źle.

    ad5. Coś chyba za stare informacje masz. Na jednym z filmików Matt mówił, że już od pewnego czasu całość mocy przechodzi.

  2. @Mariusz: Czy masz na myśli ten filmik? http://blog.performancemedia.pl/seo/15-porad-dla-webmasterow-matt-cutts-radzi#q-24 Jeśli nie, to podaj źródło do wspólnego przeanalizowania. W filmie, którym się podpieram Matt Cutts mówi, że w przekierowaniu tracona jest taka sama część wartości PageRank jak w przypadku linków.

  3. Piotr pisze:

    Też widziałem ten filmik, rzeczywiście Matt tak mówił. Jednak wziąłem to za niedomówienie lub przejęzyczenie. Nigdzie indziej, nikt tego nie potwierdza – przynajmniej nie spotkałem takiego potwierdzenia.

  4. Wojtek pisze:

    Błędy błędami, ale ja się nie spodziewałem SEO superstars w ministerstwie administracji i cyfryzacji ;)

Loading Disqus Comments ...
Loading Facebook Comments ...