Istnieje kilkaset czynników rankingowych, które mają wpływ na widoczność i pozycje witryny w organicznych wynikach wyszukiwania. Zidentyfikowanie błędów oraz prawidłowo wprowadzona optymalizacja są kluczowymi działaniami w każdym projekcie SEO. Można powiedzieć, że audyt SEO jest pierwszym, priorytetowym krokiem, bez którego powodzenie projektu jest praktycznie niemożliwe. Poniżej lista najczęściej popełnianych błędów – nie tylko tych typowo technicznych, ale także wynikających z błędnych przekonań lub braku dostatecznej wiedzy o efektywności optymalizacji SEO. Sprawdź, czy Ty również popełniasz takie błędy?

 

Najcięższe przewinienie – brak zalecanych wdrożeń

Bazując na naszym wieloletnim doświadczeniu w prowadzeniu projektów SEO, możemy stwierdzić, że najczęściej spotykanym błędem w optymalizacji witryn jest po prostu niewprowadzanie przygotowanych zaleceń dla witryny. Powodów takich sytuacji zwykle jest kilka.

  1. Ograniczony dostęp do kodu witryny
    W przypadku sklepów utrzymywanych na platformach SaaS, spotykamy się z pewnymi ograniczeniami w możliwościach edycji kodu serwisu. Dostępny panel administracyjny umożliwia wprowadzenie tylko niektórych zmian, a zaimplementowanie modyfikacji przez programistów spotyka się najczęściej z długim oczekiwaniem. Z drugiej strony możemy otrzymać informację, że nie da się wprowadzić zalecanych modyfikacji lub będzie to dodatkowym kosztem, na który klient nie zawsze wyraża zgodę.
  2. Brak programistów
    Kolejnym problemem jest brak programistów dostępnych od ręki i na bieżąco wprowadzających kolejne zalecenia, będących w stałym kontakcie z agencją SEO. W przypadku bardzo dużych e-commerce’ów, standardem jest etat dla programisty. Te mniejsze powinny zapewnić sobie przynajmniej pulę godzin zewnętrznego specjalisty, który szybko wprowadzi przede wszystkim pierwsze, najważniejsze zalecenia audytu SEO.
  3. Brak odpowiedniego priorytetu dla działań SEO
    Znaczne opóźnienia w implementowaniu zaleceń powoduje przyznanie priorytetu innym pracom nad stroną – na przykład związanym z działaniem serwisu, marketingiem – a które zabierają czas programistów (patrz punkt 2).
  4. Niedostateczna wiedza na temat efektywności optymalizacji
    Odkładanie wdrożenia zaleceń SEO może wynikać również z faktu, że klientom zależy na efekcie tu i teraz, zaś wprowadzone zmiany optymalizacyjne nie przynoszą natychmiastowego rezultatu. A to duży błąd, który bardzo opóźnia osiągnięcie wyników i wyprzedzenie konkurencji.

Sprawnie i na bieżąco wprowadzaj zalecenia przygotowane przez agencję SEO. Im szybciej to zrobisz, tym szybciej Twój sklep zacznie pojawiać się coraz wyżej w wynikach wyszukiwania. Nie ma na co czekać! A już tym bardziej nie czekaj na działania konkurencji! Zobacz, jakie efekty daje bieżąca współpraca SEO:


 

Najczęstsze błędy optymalizacyjne, które być może też popełniasz

Przeanalizowałam 33 sklepy internetowe pod względem ich optymalizacji. Serwisy zostały wybrane z 11 kategorii: budowa i ogród, dom i wnętrze, dla dziecka, moda i dodatki, multimedia, zdrowie i uroda, motoryzacja, hobby i zwierzęta, sprzęt RTV i AGD, styl życia oraz technologie.

Jakie sklepy były brane pod uwagę podczas analizy?

Były to dobrze prosperujące serwisy, które funkcjonują w sieci oraz generują zyski – jednak przez błędy i zaniedbania optymalizacyjne, marnują swoją szansę na zwiększenie ruchu i ilości konwersji.

Ponadto:

  • liczba wizyt miesięcznie według SimilarWeb zawierała się między 40 a 60 tysięcy
  • nie znałam wcześniej analizowanego sklepu – nie był przeze mnie wcześniej audytowany ani nie robiłam w nim zakupów
  • sklep musiał posiadać widoczność w TOP3, TOP10 oraz TOP50 według bazy Senuto
  • celowo nie wybrałam do analizy sklepów, które generują milionowy ruch miesięczny – takie platformy e-commerce najczęściej mają swój wewnętrzny dział SEO, który bacznie i całodobowo monitoruje zmiany na stronie
  • nie wybrałam również małych witryn, które mogą nie mieć wystarczających budżetów na odpowiednie działania SEO, dopiero się rozwijają lub jeszcze nie zdecydowały się na ten kanał promocji

Na podstawie przeprowadzonej analizy łatwo jest zauważyć kilkanaście powtarzających się błędów. Wyeliminowanie ich może znacznie wpłynąć na poprawę widoczności serwisu w organicznych wynikach wyszukiwania.

Tytuły stron

Tytuł strony jest jednym z najważniejszych elementów optymalizacji strony, który ma bardzo duży wpływ na pozycję serwisu w organicznych wynikach wyszukiwania. Na podstawie title strony wyszukiwarki określają tematykę witryny. Jest to również jeden z pierwszych elementów, które widzi użytkownik w wynikach wyszukiwania, dlatego traktowany jest jako wizytówka strony.

Screen 1 Widok title w organicznych wynikach wyszukiwania

 

Widok title po wejściu na stronę

Screen 2 Widok title po wejściu na stronę

 

Title w kodzie strony

Screen 3 Title w kodzie strony

 

Podczas analizy zaobserwowałam 5 głównych problemów z tytułami stron:

  • brak tytułów stron
  • za długie tytuły stron
  • za krótkie tytuły stron
  • tytuły takie same jak nagłówek H1

Wśród badanych sklepów – 4 na 33 (około 12%) posiada w indeksie strony, które nie miały opisu title.

Każda zaindeksowana podstrona w serwisie, powinna mieć unikalny opis <title>. W przeciwnym razie mają mniejsze szanse na osiągnięcie wysokich pozycji w wynikach wyszukiwania.

Przykład podstrony nieposiadającej zdefiniowanego opisu title:

 

Brak title - widok w kodzie strony

Screen 4 Widok w kodzie strony

 

Jak wyświetlany jest tytuł dla strony, która nie ma ustawionego title w kodzie

Screen 5 Przykład jak wyświetlany jest tytuł dla strony, która nie ma ustawionego title w kodzie

 

Ta sama podstrona w wynikach wyszukiwania:

Widok strony bez opisu title w wynikach wyszukiwania

Screen 6 Widok strony bez opisu title w wynikach wyszukiwania

 

Nasuwa się pytanie – dlaczego w SERPach widoczny jest tytuł strony, skoro nie ma go w kodzie? Dzieje się tak ponieważ Google sam dobiera opis title na podstawie zawartości strony. Jak widać na powyższym przykładzie – opis nie jest odpowiednio zoptymalizowany, a samo słowo „weekendy” niewiele mówi użytkownikowi.

30 sklepów (około 91%) posiada za długie tytuły, 25 (76%) ma za krótkie title, 18 (54%) takie same jak nagłówek H1, a w przypadku 28 sklepów (85%) tytuły stron są zduplikowane w obrębie witryny.

 

Przykład zbyt długiego opisu title:

Przykład zbyt długiego opisu title na stronie produktu

Screen 7 Przykład zbyt długiego opisu title na stronie produktu

 

Widok zbyt długiego tytułu w kodzie strony

Screen 8 Widok zbyt długiego tytułu w kodzie strony

 Widok zbyt długiego opisu w wynikach wyszukiwania

Screen 9 Widok zbyt długiego opisu w wynikach wyszukiwania

Zbyt długi opis title jest ucinany w organicznych wynikach wyszukiwania. Dodatkowo używanie wyłącznie dużych liter w tytule zmniejsza ilość cennego miejsca, które mamy do wykorzystania.

Porównanie tego samego title w SERPach – pierwszy jest napisany wyłącznie dużymi literami, a drugi małymi:


Wskazówka:

Treść title nie powinna przekraczać 600 pikseli, czyli około 65-70 znaków ze spacjami. Opisy title, które mają więcej niż około 71 znaków, wyglądają nieatrakcyjnie dla użytkownika, ponieważ są ucinane przez wyszukiwarkę. Może mieć to negatywny wpływ na CTR (współczynnik klikalności), ponieważ użytkownicy nie będą widzieli całego tytułu, a tym samym nie dowiedzą się, o czym jest strona lub zostaną wprowadzeni w błąd.


 

Opisy meta description

Opisy meta description nie mają bezpośredniego wpływu na pozycję strony w wyszukiwarce. Są jednak bardzo istotnym elementem optymalizacji, ponieważ mają znaczący wpływ na CTR. Description jest opisem strony, który powinien utwierdzić użytkownika, że po kliknięciu w dany link, odnajdzie dokładnie to czego szuka.

Widok description w organicznych wynikach wyszukiwania

Screen 10 Widok description w organicznych wynikach wyszukiwania

Widok w kodzie strony

Screen 11 Widok w kodzie strony

W przypadku opisów description najczęściej występujące błędy to:

  • brak opisów description
  • za długie lub za krótkie opisy
  • duplikacja description w obrębie witryny

Aż w 23 sklepach (około 70%) występują strony, które nie posiadają zaimplementowanych opisów description.

Przykład strony, która nie posiada opisu description:

 Widok w kodzie strony

Screen 12 Widok w kodzie strony

Ta sama podstrona w wynikach wyszukiwania:

 Widok tej samej strony w wynikach wyszukiwania

Screen 13 Widok tej samej strony w wynikach wyszukiwania

W tej sytuacji, analogicznie jak w przypadki title, Google sam dobiera opis i wyświetla go w SERPach.

Nie jest to aż tak duży błąd jak duplikacja opisów, z którą problem ma 26 sklepów (około 79%).

Jeśli meta description jest pusty, wyszukiwarka sama zdecyduje, co ma wyrywkowo uwzględnić. Najczęściej będzie to pierwsze zdanie na stronie. W rezultacie, takie fragmenty mogą być nieatrakcyjne i nieistotne.

Przykład duplikacji opisów description:

przykład duplikacji description

przykład duplikacji description

W przypadku 30 (około 91%) przeanalizowanych sklepów zaimplementowane zostały zbyt krótkie opisy description, zaś za długie opisy widoczne były w 12 sklepach (około 36%).

Warto pamiętać, że długość opisu descrption nie powinna przekraczać 155 znaków ze spacjami.

Przykład zbyt długich opisów description:

Przykład zbyt długiego opisu description w wynikach orgniacznych

Screen 14 Widok zbyt długiego opisu description w wynikach organicznych

Widok w kodzie strony

Screen 15 Widok w kodzie strony

Przykład zbyt krótkich opisów description:

Widok zbyt krótkiego opisu description w wynikach wyszukiwania

Screen 16 Widok zbyt krótkiego opisu description w wynikach wyszukiwania

Widok w kodzie strony

Screen 17 Widok w kodzie strony

 


Skoro możesz mieć wpływ na to, co widzi Google i, co najważniejsze, potencjalny klient, to pamiętaj o title i description!


Nagłówki H1

Nagłówki są silnym sygnałem rankingowym, który nie tylko oddziela sekcje treści, ale i przekazuje semantyczne sygnały, które mówią algorytmowi czego dotyczy treść znajdująca się pod nimi.

Prawidłowo zaimplementowany nagłówek H1 na stronie kategorii

Screen 18 Prawidłowo zaimplementowany nagłówek H1 na stronie kategorii

W przypadku nagłówków H1 najczęściej pojawiające się błędy to:

  • brak nagłówka H1
  • duplikacja nagłówka H1 w obrębie witryny

Wśród analizowanych stron, w przypadku 27 (około 82%) sklepów brakuje nagłówków H1, a 31 (94%) witryn ma problem z duplikacją.

Przykład strony kategorii, na której brakuje nagłówka H1

Screen 19 Przykład strony kategorii, na której brakuje nagłówka H1

W przypadku 3 przeanalizowanych domen (9%) nagłówek H1, który został dodany na stronie głównej, użyty jest również na wszystkich innych stronach w serwisie.

Przykład błędnej implementacji nagłówków – duplikacja nagłówka H1 ze strony głównej

Screen 20 Przykład błędnej implementacji nagłówków – duplikacja nagłówka H1 ze strony głównej

Paginacja/stronicowanie

Paginacja w sklepach internetowych nie jest niczym nadzwyczajnym. Trudno pokazać całą ofertę na jednej stronie, a co więcej może okazać się to bardzo niewygodne dla użytkowników. Dlatego w e-commerce bardzo często sięga się po to właśnie rozwiązanie.

Najczęstszym błędem popełnianym przy wdrożeniu paginacji jest:

  • niezastosowanie znaczników next i prev
  • niepoprawne zaimplementowanie tagów kanonicznych

„Next” i „prev” to atrybuty, które zostały stworzone, aby informować algorytm Google, że podzielona część stanowi spójną całość.

W przypadku analizowanych witryn tylko 18 z nich posiada prawidłowo zaimplementowane atrybuty „next” i „prev” – 13 sklepów (39%) nie ma prawidłowo wdrożonych atrybutów.

Przykład prawidłowo wdrożonych atrybutów „next” i „prev”:

 Widok w kodzie strony

Screen 21 Widok w kodzie strony

W jednym z badanych serwisów było zbyt mało produktów, aby wprowadzić stronicowanie, zaś w dwóch zastosowano infinity scroll (mechanizm nieskończonego przewijania). Jeden ze sklepów, w którym zastosowano infinity scroll dzielił wyniki na części – osobne podstrony, nie stosując atrybutów “next” i “prev”, zaś drugi wyświetlał wyniki w całości na jednej stronie – bez podziału na kolejne części.

Sprawdziłam również czy zostały wprowadzone tagi kanoniczne – self – canonical. Z analizy wynika, że jedynie 9 sklepów (27%) zaimplementowało self – canonical, z czego tylko 5 (15%) z nich ma wdrożone atrybuty „next” i „prev”.

Przykład prawidłowo wdrożonego self – canonical i atrybutów „next” i „prev”:

 Widok w kodzie strony

Screen 22 Widok w kodzie strony

Duplikacja

Duplikacja jest jednym z czynników, który negatywnie wpływa na widoczność witryny w organicznych wynikach wyszukiwania. Google docenia unikalne treści, przez co promuje serwisy, które nie borykają się z problemem duplikacji wewnętrznej lub zewnętrznej.

Wśród analizowanych sklepów online wyodrębniłam dwa rodzaje duplikacji:

  • duplikacja treści
  • duplikacja strony głównej

Treść

Duplikacja treści jest bardzo często powtarzanym błędem optymalizacji. W przypadku sklepów internetowych dotyczy głównie opisów produktów. Sklepy internetowe kopiują opisy produktów ze stron producentów, umieszczają te same opisy w porównywarkach online i nie wprowadzają przy tym unikalnego contentu w sklepie.

Innym problemem, który spotyka strony produktowe jest występowanie tego samego opisu produktu pod różnymi adresami URL, które generują się na podstawie różnych parametrów produktu np. kolor lub rozmiar.

Wśród badanych stron najczęściej występującymi błędami były:

  • wewnętrzne duplikacje treści
  • zewnętrzne duplikacje treści
  • brak opisów kategorii

Duplikacja treści to nic innego, jak występowanie tej samej treści w wielu miejscach w sieci. Duplikacje możemy podzielić na zewnętrzna i wewnętrzną. Zewnętrzna duplikacja występuje, gdy treść na badanej stronie jest taka sama jak w innej, odrębnej witrynie. Duplikacja wewnętrzna dotyczy stron posiadających w obrębie witryn taką samą treść na różnych stronach.

W przypadku 28 sklepów (85%) występuje duplikacja opisów produktów, jeden z analizowanych sklepów nie posiadał w ogóle treści w serwisie.

Bardzo często można było zauważyć, że sklepy, które posiłkują się sprzedażą na Allegro, lub innych serwisach umożliwiających sprzedaż, nie zmieniają opisów, które implementują w sklepie.

Przykład duplikacji opisów produktów:


Dobrą praktyką jest utworzenie dwóch wersji opisów – jeden umieść w sklepie internetowym, zaś drugi w innych kanałach sprzedaży.


 

W przypadku aptek internetowych duplikacja opisów produktów jest zrozumiała z prawnego punktu widzenia – właściciele nie mogą zmienić informacji, które są dostępne na ulotce. Jednak istnieją sposoby na dodanie unikalnego contentu nawet w tak restrykcyjnych branżach. Chcesz wiedzieć jakie? Napisz do nas!

W 25 analizowanych sklepach (76%) istnieją miejsca, w których nie została wdrożona treść (treści nie zostały wdrożone w kategoriach lub podkategoriach) w serwisie.

Przykład strony, na której nie została zaimplementowana treść:

Tylko 1 analizowany serwis (3%) nie posiada duplikacji contentu oraz wdrożył opisy we wszystkich częściach sklepu: na stronach kategorii, podkategorii i stronach produktowych.

Duplikacja strony głównej

Innym rodzajem duplikacji, który wystąpił w badanych stronach jest duplikacja strony głównej. Oznacza to, że strona główna indeksuje się pod różnymi adresami URL. Najczęstszy błąd dotyczy:

  • Domena.pl
  • Domena.pl/index.html
  • Domena.pl/index.php

oraz tworzenia się wirtualnych subdomen wildcard.

Trzy przeanalizowane strony (9%) posiadają jednocześnie duplikacje domena.pl/index.html i domena.pl/index.php. Dodatkowo 11 sklepów online (33%) posiada zduplikowaną stronę główną dostępną pod adresem domena.pl/index.html lub domena.pl/index.php.

Przykład duplikacji strony głównej:

Wśród analizowanych sklepów – jeden (3%) posiadał możliwość tworzenia subdomen (wildcard).

Funkcja wildcard pozwala w szybki sposób tworzyć nowe subdomeny. W praktyce jednak, posiadając stronę domena.pl, po wpisaniu w pasku adresu URL jakiegokolwiek słowa przed domena.pl powoduje powstanie subdomeny, która wyświetli w pełni indeksującą się stronę główną. Czyli w skrócie możemy utworzyć nieskończoną ilość duplikacji strony głównej pod różnymi adresami URL np.

  • przyklad1.domena.pl
  • przyklad2.domena.pl
  • przyklad3.domena.pl

itd., itd…

Przykład błędy wildcard:

Przyjazne adresy URL

Wszystkie adresy URL w serwisie powinny być przyjazne dla użytkowników oraz robotów wyszukiwarek. Przyjazne adresy URL to takie, które zbudowane są z logicznie powiązanych ciągów znaków, charakteryzują się przede wszystkim tym, że można je łatwo zapisać, zapamiętać i przeczytać.

Przyjazne adresy URL:

przyjazny adres URL

przyjazny adres URL

Nieprzyjazne adresy URL:

nieprzyjazny adres URL

nieprzyjazny adres URL

Przyjazne adresy URL ułatwiają indeksację witryny, ponieważ boty nie mają problemu z docieraniem do poszczególnych kategorii serwisu.

Wśród badanych stron aż 61% witryn (20 sklepów na 33) nie posiada przyjaznych adresów URL. Jest to zdecydowanie niepokojący wynik.

Atrybut ALT

Atrybut ALT to znacznik w języku HTML. Służy do opisania zawartości obrazu – innymi słowy atrybut ten opisuje, co zawiera grafika.

Każdy obraz na stronie powinien zawierać unikalny atrybut ALT. Stosowanie wskazanego znacznika ma bardzo duże znaczenie, ponieważ dostarcza robotom indeksującym informacji o tematyce obrazu. Jest niezbędny dla osób niewidzących – programy czytają zawartość znacznika ALT, a w sytuacji, gdy z jakiegoś powodu obraz nie wyświetli się na stronie, użytkownikowi wyświetli się opis obrazu.

Przykłady prawidłowo wdrożonego atrybutu ALT

Screen 25 Przykład prawidłowo wdrożonego atrybutu ALT

Wśród analizowanych serwisów 13 (39%) nie posiada w pełni wprowadzonych atrybutów ALT w sklepie.

Przykład niewdrożonego artybutu ALT

Screen 26 Przykład niewdrożonego atrybutu ALT

Filtrowanie produktów generujące błędy

Stosowanie filtrów w sklepie internetowym jest niezbędną funkcją ze względu na UX strony. Zapewniają funkcjonalność, pozwalają użytkownikom zawęzić liczbę produktów i znaleźć pożądane artykuły, bez konieczności przeglądania całej zawartości sklepu.

przykład filtrowania produktów

Z punktu widzenia SEO, źle wdrożone filtrowanie produktów może narobić więcej krzywdy niż korzyści. Najczęstszym błędem, który pojawia się w sklepach internetowych są filtry generujące duplikaty stron, które można liczyć w tysiącach, a nawet w milionach!

Istnieje wiele sposobów, które pozwolą zapanować nad stronami, które tworzą się w wyniku filtrowania – m.in. używanie tagów kanonicznych lub blokowanie indeksacji przez noindex.

Przykład strony, w której zaimplementowane zostały tagi kanoniczne

Screen 27 Przykład strony, w której zaimplementowane zostały tagi kanoniczne

 

Wśród badanych sklepów 6 (18%) nie posiada żadnej blokady wyników filtrowania. Co ciekawe w przypadku 4 sklepów (12%) stosowany jest tag kanoniczny i tag noindex.

Jest to błąd, nie powinno łączyć się tych dwóch elementów. Ponieważ z jednej strony robot Google otrzymuje informacje, że strona powinna być zaindeksowana, zaś z drugiej, że jednak nie powinno jej być w indeksie. Należy wybrać jeden sposób blokowania stron powstających w wyniku filtrowania.

Dwa sklepy (6%) blokują indeksację w pliku robots.txt, zaś w przypadku jednego z nich blokowane są tylko niektóre wyniki filtrowania.

Jeden z badanych sklepów posiada na stronach filtrowania miks wszystkich możliwości – noindex, index i canonical.

Które rozwiązanie będzie respektować bot? Prawdopodobnie żadne, skoro ma indeksować i nieindeksować, a do tego podana jest strona kanoniczna.

Przykład strony, która posiada w kodzie tag kanoniczny i noindex

Screen 28 Przykład strony, która posiada w kodzie tag kanoniczny i noindex

Reasumując, na 33 analizowane sklepy 21 (64%) ma prawidłowo wdrożone rozwiązanie dla wyników filtrowania.

Wersja mobilna strony i PageSpeed

O tym, czy użytkownik zostanie na stronie decydują milisekundy. To jak szybko załaduje się witryna ma ogromny wpływ na współczynnik odrzuceń i UX strony. Problem mogą powodować m.in. zbyt duże pliki graficzne, serwer lub kod strony.

W 2018 roku Google ogłosiło start Mobile First Index – rankingi stron w organicznych wynikach wyszukiwania budowane będą na podstawie wersji mobilnej strony. Jeżeli sklep internetowy nie jest przystosowany do urządzeń mobilnych, to traci ruch, a tym samym także zyski.

Wśród badanych stron dwie (6%) nie posiadają wersji mobilnej strony.

Może wydawać się, że to niewiele. Jednak biorąc pod uwagę, że wyniki w SERPach budowane są właśnie na podstawie mobilnej wersji strony, to mimo wszystko zły wynik. Nie powinno być już witryn, które nie posiadają wersji responsywnej lub witryny mobilnej.

Z drugiej strony, analizując wyniki PageSpeed, można zauważyć, że dużo szybkość działania strony jest lepsza na urządzeniach mobilnych niż desktopowych.

Aż 27 stron (82%) ma lepsze parametry na komórki niż na desktopy.

Nie oznacza to oczywiście, że wersja na komputery powinna być zaniedbana – najlepszym rozwiązaniem jest optymalizacja obu wersji serwisu. W końcu są użytkownicy, którzy korzystają z witryn na komputerach i zaniedbanie optymalizacji w tej wersji sklepu jest niedopuszczalne, ponieważ, analogicznie jak w wersji mobilnej, może prowadzić to do zwiększenia współczynnika odrzuceń.

Chcemy otrzymywać informacje, które nas interesują – tu i teraz, nie mamy czasu na długie ładowanie stron niezależnie od środowiska, w którym aktualnie funkcjonujemy.

Sitemap.xml oraz mapa HTML

Mapa XML powinna być umieszczona w strukturze katalogu głównego oraz zawierać wszystkie strony, które chcemy indeksować. Głównym zadaniem sitemapy jest wspomaganie procesu indeksowania. Co za tym idzie – nie powinna ona zawierać w swojej strukturze stron, które są zablokowane przed indeksacją oraz tych, które zostały usunięte. Dlatego konieczna jest ciągła aktualizacja sitemapy.

Wśród analizowanych sklepów aż 9 serwisów (27%) nie posiada mapy witryny XML.

Mapa HTML analogicznie jak Sitemap.xml wpływa pozytywnie na indeksowanie strony. Jest to jeden ze sposobów na poprawienie linkowania wewnętrznego. Z drugiej strony mapa HTML to duże ułatwienie dla użytkowników, którzy w jednym miejscu mogą znaleźć wszystkie strony dostępne w obrębie witryny.

Niestety w porównaniu do sitemap.xml wśród badanych witryn aż 29 sklepów (88%) nie posiada mapy HTML w widocznym miejscu np. w stopce strony.

Robots.txt

Robots.txt to plik, który zawiera polecenia dotyczące tego, które strony powinny, a które nie być dostępne dla botów wyszukiwarek. Należy jednak pamiętać, że polecenia są jedynie dyrektywami, a nie bezwzględnymi regułami. Co oznacza, że nie zawsze na przykład strony, które chcemy zablokować poprzez plik robots.txt faktycznie nie będą indeksowane. Google może indeksować strony, które są zablokowane w pliku robots.txt na przykład w sytuacji, jeśli znajdzie go w innym miejscu w sieci np. jeżeli inne strony będą do niego linkować.

Plik robots.txt jest indeksowany przez roboty Google automatycznie, dlatego musi być odpowiednio sformatowany, aby boty mogły go przeczytać.

Wśród analizowanych sklepów tylko 4 (12%) z nich nie miało dostępnego pliku robots.txt bądź był on źle zaimplementowany.

HTTPS

Bezpieczeństwo w Internecie to podstawa. Sklepy internetowe są narażone na ataki hakerów, którzy będą usiłowali przejąć dane, informacje o kartach płatniczych lub inne wrażliwe informacje, które są podawane przy realizacji zamówienia.

Protokół SSL szyfruje przesyłane dane, zapewniając bezpieczeństwo użytkownikowi.

W 2018 roku oznaczenie HTTPS nie jest już opcją – to konieczność. Tym bardziej, jeżeli mówimy od sklepach online. Google oznacza strony, które mają protokół HTTP jako niebezpieczne, skutecznie odstraszając potencjalnych klientów przez zakupem na niezabezpieczonej platformie.

Informacja o bezpiecznym połączeniu

Screen 29 Informacja o bezpiecznym połączeniu

Wdrożenie protokołu SSL nie spowoduje nagłego wzrostu pozycji i widoczności w sieci. HTTPS budzi zaufanie użytkowników, ponieważ daje gwarancje, że dane nie dostaną się w niepowołane ręce.

Wdrożenie SSL to jedno, a prawidłowe wdrożenie do drugie. Niestety, ale przejście z HTTP na HTTPS sprawia wielu sklepom online problem. A błędna implementacja może mieć odwrotny skutek od zamierzonego – może powodować spadki wynikające np. z duplikacji serwisu na obu wersjach (http i https).

Przykład braku przekierowania wersji HTTP na wersję HTTPS - w skutek czego istnieją dwie wersje sklepu

Screen 30 Przykład braku przekierowania wersji HTTP na wersję HTTPS – w skutek czego istnieją dwie wersje sklepu

Wśród analizowanych stron tylko 3 (9%) nie posiadają wersji HTTPS. Ale aż 10 z 30 (30%) ma błędnie wdrożony HTTPS na stronie.

Najczęstszymi błędami jest nieprzekierowanie wersji HTTP na wersję HTTPS, przekierowanie za pomocą przekierowania tymczasowego oraz łańcuchy przekierowań, które mają znaczący wpływ na szybkość wyświetlania się strony.

 Przykład łańcucha przekierowań

Screen 31 Przykład łańcucha przekierowań

Pozwól znaleźć się klientom

Błędy w optymalizacji e-commerce zdarzają się najlepszym. Przedstawione powyżej przykłady to kropla w morzu. Dlatego pierwszym, fundamentalnym elementem w każdym projekcie SEO jest wdrożenie zmian optymalizacyjnych.

Skorygowanie technicznych błędów optymalizacyjnych jest kluczowe w kwestii poprawiania wyników oraz ograniczeniu nakładów finansowych na organiczną promocję serwisu. Jednak na tym praca się nie kończy – równie istotne jest stałe monitorowanie, a także ukierunkowywanie optymalizacji zgodnie z trendami i potrzebami użytkowników. Każdy serwis jest inny, posiada odrębną ofertę, grupę docelową i odpowiada na inne zapytania, dlatego też zalecenia winny zostać poprzedzone szeregiem analiz i dopasowane do każdego serwisu indywidualnie. Dane są tylko danymi, a dobre praktyki tylko praktykami – dlatego kluczem do sukcesu zawsze będzie ich prawidłowa interpretacja w określonych warunkach, która znacząco wykracza poza wyniki dostarczone przez narzędzia do automatycznych analiz seo.
Łukasz Trześniewski, SEO Manager w Content Solutions

 


Jeśli dopiero planujesz budowę lub dużą przebudowę swojego sklepu, zadbaj o wsparcie agencji SEO dla e-commerce już na początku. Pozwoli to zmniejszyć koszty, a przede wszystkim wystartować ze zoptymalizowanym już serwisem, który szybciej będzie pojawiać się coraz wyżej w wynikach wyszukiwania.


 

Bez prawidłowo zoptymalizowanej strony sukces może okazać się niemożliwy do osiągnięcia. Niestety mylne jest myślenie, że raz wprowadzone zmiany wystarczą. Pozycjonowanie, a co za tym idzie optymalizacja witryny, jest procesem ciągłym. Śmiało można powiedzieć, że strona nigdy nie dojdzie do takiego momentu, w którym będzie zoptymalizowana w 100%. Zawsze znajdzie się element, który warto poprawić. To, że dziś jesteśmy na szczycie, nie oznacza, że jutro też tam będziemy. Dlatego niezbędna jest ciągła analiza strony oraz natychmiastowe reagowanie na błędy.

Niezależnie od tego na jakim etapie jesteś – czy dopiero budujesz stronę czy może masz już dobrze prosperujący sklep – pomyśl o optymalizacji. Bądź elastyczny, pozwól się znaleźć w sieci, a co najważniejsze zapewnij swoim klientom jak najlepszy komfort korzystania z witryny. Chętnie Ci w tym pomożemy!

 

Informacja ogólna

Ta strona korzysta z plików cookie, abyśmy mogli zapewnić Ci najlepszą możliwą obsługę. Informacje o plikach cookies są przechowywane w przeglądarce użytkownika i służą do wykonywania funkcji, takich jak rozpoznawanie użytkownika po powrocie do naszej witryny i pomaganie naszemu zespołowi w zrozumieniu, które sekcje witryny są dla niego najbardziej interesujące i użyteczne.

Google analytics

Zgadzam się na korzystanie przez serwis contentsolutions.pl narzędzia Google Analytics.

Facebook pixel

Zgadzam się na korzystanie przez serwis contentsolutions.pl narzędzia Facebook tracking pixel.

Zmień ustawienia cookies