SEO to nie pozycjonowanie – Wrocław o tym wie!

06.03.2018

Prowadzisz biznes online? To super! Obecność Twojej firmy w sieci jest bardzo ważna, jeżeli chcesz osiągnąć sukces. Musisz jednak wiedzieć, że bez wsparcia SEO ciężko będzie Ci zaistnieć w Internecie. Liczba internautów w Polsce cały czas rośnie. W grudniu 2018 roku z samej wyszukiwarki Google skorzystało ponad 26 mln. To chyba wystarczający argument, żeby przyjrzeć się bliżej działaniom marketingu internetowego.

Z TEGO ARTYKUŁU DOWIESZ SIĘ:

  • Co to jest SEO?
  • Czym jest pozycjonowanie?
  • Jak działają wyszukiwarki internetowe?
  • Jak zbudowane są wyniki wyszukiwania w Google
  • Jak zbudowany jest pojedynczy wynik w SERPach
  • Dlaczego warto pozycjonować strony
  • Jak wpływ pozycji w Google przekłada się na ruch na stronie?
  • Jak wygląda pozycjonowanie stron w Google
  • Jak wygląda optymalizacja witryny pod SEO
  • Na czym polega analiza słów kluczowych
  • Jaka jest różnica między White Hat SEO a Black Hat SEO
  • Jakie są kary i filtry od Google
  • W jaki sposób Google może nałożyć karę?
  • Co dokładnie może spowodować nałożenie kary przez Google?
  • Jak odwrócić skutki kary od Google?
  • Jak poradzić sobie z innymi przyczynami kar od Google?
  • Algorytm Panda – najważniejsze informacje
  • Algorytm Pingwin – najważniejsze informacje
  • Algorytm Koliber – najważniejsze informacje
  • Algorytm Pirat – najważniejsze informacje
  • Mobilegeddon – najważniejsze informacje
  • RankBrain – najważniejsze informacje
  • Aktualizacja Fred – najważniejsze informacje
  • Algorytm Gołąb – najważniejsze informacje
  • Algorytm Payday Loan – najważniejsze informacje
  • PageRank – najważniejsze informacje
  • Exact Match Domain – najważniejsze informacje
  • Algorytm Page Layout – najważniejsze informacje

Co to jest SEO?

SEO to skrót od Search Engine Optimization. Najprościej mówiąc, oznacza optymalizację witryny pod kątem wytycznych wyszukiwarki, w celu osiągnięcia wysokich pozycji w organicznych wynikach wyszukiwania.
Napisałam, że jest to najprostsze wyjaśnienie tego słowa, no właśnie. Wynika to z faktu, że nie ma jednej, prawdziwej i niepodważalnej definicji SEO. Wystarczy zapytać kilku specjalistów SEO o definicję tego słowa i możecie mi uwierzyć lub nie – każdy przedstawi ten proces inaczej.

co to jest seo

Więc czym tak naprawdę jest SEO? Postaram się przedstawić Wam ten proces w trochę szerszy sposób. Jak napisałam wcześniej, definicja SEO opiera się na optymalizacji witryny. Nie uda się to jednak bez zrozumienia, jak działają wyszukiwarki, ale również dlaczego oraz jak szukają użytkownicy. Możemy z tego wywnioskować, że na SEO składają co najmniej dwa elementy: wiedza techniczna i marketing.

 Czy to jednak wszystko? Czy już wyczerpaliśmy definicję SEO? Nie, ponieważ:

…SEO to proces, który pozwala wyszukiwarkom znaleźć najlepszą odpowiedź na zadane przez użytkownika pytanie,

…SEO wpływa na zaangażowanie i doświadczenie użytkownika,

…SEO tworzy standardy – odpowiednia architektura informacji i zoptymalizowana treść to wierzchołek góry lodowej lub SEO-wej,

…SEO pomaga klientom zarabiać pieniądze,

…SEO to zrozumienie intencji użytkownika,

…SEO to testowanie nowych rozwiązań mających wpływ na ocenę w rankingu Google,

…SEO ciągle się rozwija,

…SEO polega na zwiększaniu ilości i jakości ruchu w witrynie,

…SEO to strategia rozwoju strony,

SEO to nie magia!

Jak widzisz ograniczanie się do definiowania SEO jako tylko i wyłącznie optymalizacji strony pod wytyczne jest zbyt ogólne i niewystarczające. Należy spojrzeć na ten proces szerzej. Główną zasadą, która nigdy się nie zmieni i należy o niej pamiętać to fakt, że wszystkie działania SEO powinny być wykonywane z myślą o użytkowniku, a nie o botach, które odwiedzają stronę.

Jeżeli nasuwa Ci się pytanie: Dlaczego, skoro to roboty oceniają strony? Odpowiedź jest prosta – zalecenia, które stawia przed nami Google skupiają się wokół użytkownika. Wszystkie techniczne aspekty, nad którymi należy pracować ulepszając witrynę, opierają się właśnie na doświadczeniu użytkownika oraz na tym, jak łatwo uzyska on odpowiedź na pytanie, które zadał i czy ostatecznie zostanie na stronie, w którą kliknął. SEO to również działania, które mają na celu ułatwienie użytkownikom znalezienie odpowiedzi na zadane pytanie w jak najszybszym czasie. Czas znalezienia odpowiedzi jest ważny, o czym będziecie mogli przeczytać w dalszej części artykułu.

Domyślam się, że możesz mieć swoją definicję tego słowa. Jeśli tak, napisz nam o niej w komentarzu.

Co to jest pozycjonowanie?

Chwila, chwila… Czyli SEO nie jest tym samym co pozycjonowanie? Odpowiedź brzmi: nie. Oczywiście możemy spotkać się z opinią, że te słowa to synonimy, a rozdzielanie tych dwóch pojęć nie ma sensu, ale prawda jest taka, że SEO jest częścią pozycjonowania – jest to jeden z najważniejszych elementów, które należy wdrożyć żeby zaistnieć w Internecie. Śmiało można powiedzieć, że pozycjonowanie stron bez SEO nie istnieje. A jeśli taki proces „działa”, to nie jest to 100% wynik jaki można osiągnąć.

Nawet jeżeli bez innych dodatkowych działań np. linkbuildingu osiągniesz np. TOP3 na frazę „pozycjonowanie Wrocław”, czyli (w dużym uproszczeniu) samą optymalizacją serwisu wskoczysz na pierwszą, drugą lub trzecią pozycję, to moim zdaniem dalej nie jest to pozycjonowanie, a sukces działań SEO.

Jeżeli jednak oprócz optymalizacji serwisu wykonujesz inne działania, które mają wpłynąć na pozycję fraz kluczowych (czyli manipulujesz wynikami w wyszukiwarce), to tak naprawdę pozycjonujesz stronę.

Manipulowanie wynikami w wyszukiwarce brzmi groźnie, prawda? Musisz mieć jednak świadomość, że pozycjonowanie ma na celu zwiększenie widoczności i pozycji na określone frazy w wynikach wyszukiwania, za pomocą nie do końca dozwolonych przez Google technik.

Zastanawiasz się czemu? W takim razie wróćmy na chwilę do użytkowników. To dla nich optymalizujesz stronę, prawda? Więc tak samo to oni powinni umieszczać odnośniki do Twojej strony. Umieszczenie linka, który prowadzi do Twojego serwisu na innej stronie to sygnał dla Google, że użytkownicy znaleźli tam ciekawy content, który warto promować w wyszukiwarkach. Co jednak w sytuacji, kiedy robisz to samodzielnie? Piszesz na forum „hej, znalazłem super agencję, która zajmuje się pozycjonowaniem we Wrocławiu. Sprawdźcie koniecznie!” lub co gorsza często spotykana praktyka „Pozycjonowanie Wrocław – możecie mi kogoś polecić?”. Udajesz zadowolonego klienta i oszukujesz innych lub udajesz, że szukasz agencji mimo, że właśnie dodałeś link do agencji, która zajmuje się pozycjonowaniem we Wrocławiu.  I to właśnie jest manipulowanie, na które Google się nie godzi.

Warto zwrócić uwagę, że proces pozycjonowania składa się z czterech głównych składowych: wspomnianego wcześniej SEO, linkbuildingu, content marketingu i analityki internetowej.

Słyszałeś może, że linkowanie w 2019 roku nie działa? Ja też.

Czy to prawda? Nie.

Linkbuilding ma wpływ na ranking bardziej niż jakikolwiek inny czynnik. Oznacza to, że cały czas jest istotny. Bez linków do Twojej witryny nie zbudujesz widoczności w sieci.

Wpływ ilości linkowanych domen do miejsca w wynikach wyszukiwania

Wpływ ilości linkowanych domen do miejsca w wynikach wyszukiwania

Pewne jest, że linkowanie w 2019 roku nie jest tak samo łatwe jak kiedyś. A cały proces linkbuildingu musi opierać się na kilku fundamentalnych zasadach:

  • Jakość domen linkujących – linki ze stron o wysokim autorytecie i zaufaniu przekazują więcej „mocy” linkowanej domenie. Co oznacza, że odnośnik pochodzący ze strony np. wp.pl będzie miał większy wpływ niż link z bloga.
  • Tematyczne powiązanie witryny – odnośniki do linkowanej witryny powinny pochodzić z tematycznie powiązanych serwisów. Jeżeli chcesz aby Twoja strona była widoczna na frazę „pozycjonowanie Wrocław” to dobrze żeby linki pochodziły ze stron np. o marketingu internetowym niż z bloga o gotowaniu 😉
  • Miejsce odnośnika na stronie – linki umieszczane wyżej (np. w treści artykułu) są ważniejsze niż te, które dodawane np. do stopki strony.
  • Unikalne miejsca – im więcej linków tym lepiej, to prawda – pod jednym warunkiem: odnośniki pochodzą z różnych domen o różnym IP. Co oznacza, że 100 linków z jednej domeny ma mniejszą wartość niż 100 linków ze 100 domen. Dlaczego? Ponieważ (w dużym uproszczeniu) wszystkie linki z jednej domeny liczone są jako 1 głos, dodatkowo istnieje większe prawdopodobieństwo, że to jedna osoba odpowiada za 100 linków na 1 domenie.

Pamiętaj! Linkbuilding to proces ciągły, który nie powinien zostać przerwany ani zakończony.

Czy pozycjonowanie działa bez linkowania? Może dla niszowych branż tak, ale jeżeli chcesz żeby Twoja agencja marketingu internetowego była widoczna na frazę „pozycjonowanie Wrocław”, lub sprzedajesz w sieci popularne produkty to niestety nie masz szans. Nawet jeśli Twoja strona będzie najlepiej zoptymalizowaną stroną na świecie.

Jak działają wyszukiwarki internetowe?

Google jest liderem na rynku wyszukiwarek. Według danych na stronie statcounter.com korzysta z niej aż 98,67% użytkowników.

google liderem na rynku wyszukiwarek

Niezależnie jednak od tego z jaką wyszukiwarką mamy do czynienia, jej głównym zadaniem jest odpowiadanie na zapytania użytkowników, czyli odnajdowanie najlepiej dopasowanych stron w sieci.

Zastanawiasz się jak działa wyszukiwarka? Jak to się dzieje, że w ciągu kilku sekund potrafi wyświetlić tak dużo wyników związanych z zapytaniem?

Działanie wyszukiwarki możemy podzielić na trzy części: pobieranie danych, indeksowanie stron i dostarczanie wyników użytkownikom.

  1. Pobieranie danych to proces, podczas którego roboty Google wykrywają nowe i zaktualizowane strony w sieci, a następnie dodają je do indeksu.

Istnieją wskazówki w jaki sposób można pomóc robotom w odnajdowaniu danych szybciej i lepiej np. dodanie mapy witryny, odpowiednia konfiguracja pliku robots.txt, prawidłowe linkowanie wewnętrzne.

  1. Indeksowanie stron polega na dodaniu przetworzonej przez roboty strony do indeksu. Dane zgromadzone przez boty zawierają informację o występujących wyrazach i innych treściach, które są niezbędne do odpowiedniego sklasyfikowania strony w trzecim kroku działania wyszukiwarki.

Na tym etapie również warto pomóc botom Google w zrozumieniu stron – wszystkie informacje powinny być przejrzyste i dokładne oraz zoptymalizowane pod odpowiednie słowa kluczowe. Należy również pamiętać, aby nie ukrywać żadnych elementów na stronie.

  1. Trzeci etap, czyli dostarczanie wyników użytkownikowi, następuje w momencie, kiedy w oknie wyszukiwarki wpisane zostanie zapytanie. Następuje wtedy automatyczne przeszukanie indeksów i dopasowanie stron, a następnie zwrócenie najtrafniejszych wyników użytkownikowi, czyli tych, które są odpowiednio zoptymalizowane pod wytyczne Google, cieszą się zaufaniem i prowadzą do nich sygnały z zewnątrz (po to właśnie potrzebujesz odpowiedniej strategii linkowania).

Zadbaj aby strona wyświetlała się poprawnie na różnych przeglądarkach, żeby jej szybkość ładowania była odpowiednio zoptymalizowana. Zadbaj również o komfort użytkowania strony dla wszystkich użytkowników! Ale co najważniejsze, dostarczaj treści wysokiej jakości.

Pewnie zastanawiasz się, po co ci wiedza o tym jak działają przeglądarki? Odpowiedź jest bardzo prosta – bez tego nie zrozumiesz działania SEO. Nie znajdziesz podstawowych błędów na stronie, które mogą spowodować, że Twoja witryna będzie niewidoczna dla Google.

Przykład nieświadomego działania, które może mieć ogromne znaczenie na przyszłość: Twoja strona jest dostępna w sieci, ale boty jej nie widzą. Okazuje się, że twój plik robots.txt zawiera kod Disallow: / co oznacza, że cała strona jest niedostępna dla robotów Google. Skoro jest niedostępna, to nie mogą zostać pobrane dane, nie zostanie ona dodana do indeksu, a w efekcie nie będzie pojawiać się w wynikach wyszukiwania. Rozwiązanie tej sytuacji jest bardzo proste – usunięcie jednej linijki kodu – takie działanie załatwia cały problem.

Jak zbudowane są wyniki wyszukiwania w Google?

Wynik wyszukiwania w Google (SERP – search engine results page) to strony, które wyświetlają się po wpisaniu przez użytkownika zapytania w oknie przeglądarki.

pozycjonowanie wrocław search box

Widok strony z SERP-ami uzależniony jest od tego, czego szuka użytkownik. Google cały czas pracuje nad tym, aby dostarczyć użytkownikowi odpowiedź na pytanie w możliwie jak najszybszy i najlepszy sposób. Dlatego w wielu przypadkach po wpisaniu frazy użytkownik nie musi nawet wchodzić na stronę, żeby otrzymać informację – Google potrafi wyciągnąć je automatycznie. Istnieje kilkanaście elementów dodatkowych w wynikach wyszukiwania, które bez konieczności wchodzenia w link strony stanowią odpowiedź na zapytanie.

Dobrym przykładem, który pokazuje w jaki sposób działają elementy dodatkowe, jest zapytanie „co to jest SEO”:

co to jest seo?

Jak widać na screenie powyżej, nie trzeba odwiedzać żadnej strony żeby dowiedzieć się, że jest to optymalizacja dla wyszukiwarek internetowych, w celu osiągnięcia jak najwyższej pozycji w wynikach organicznych.

Sprytnie, nie? Niestety, może mieć to negatywny wpływ na liczbę sesji wielu serwisów, które zawierają odpowiedź na to pytanie. Dzieje się tak ponieważ użytkownik, który otrzyma informację od razu po wpisaniu zapytania, w większości przypadków nie wejdzie na stronę w wynikach wyszukiwania.

W wyszukiwarce Google zawsze dostępne są dwa rodzaje wyników – reklamy (PPC) oraz wyniki organiczne. Wyniki płatne zawsze pojawiają się na samej górze w SERPach oraz bardzo często na dole (pod wynikami organicznymi). W zależności od zapytania mogą być 2 lub nawet 4 strony. Jedyna wizualna różnica między Google Ads a wynikami organicznymi, to napis „Reklama” przy adresie URL dla wyników płatnych.

W przypadku wyników organicznych – wyświetla się po 10 wyników na stronę. Dlatego pozycję słów kluczowych klasyfikuje się w TOP10, TOP20, TOP30 itd. Oczywiście im wyższa pozycja w wynikach wyszukiwania tym większa szansa, że użytkownicy w nią klikną i przejdą na stronę.

Budowa pojedynczego wyniku w SERPach

Każdy wynik w SERPach składa się z trzech podstawowych elementów:

  • Tytuł (opis title)
  • adres URL
  • opis (opis description)

jak zbudowany jest wynik w serpach

Istnieją jednak inne sposoby wyświetlania się wyników w organicu. Poniżej przedstawię kilka metod, na które warto zwrócić uwagę.

Dodatkowe linki

Po wpisaniu nazwy brandu w oknie wyszukiwarki, widoczne są dodatkowe linki wewnętrzne strony. Najczęściej jest ich 6, jednak zdarzają się sytuacje, kiedy może być ich na przykład 10. Ich celem jest ułatwienie użytkownikowi dotarcia do wartościowych treści.

dodatkowe linki w wynikach wyszukiwania

Sytuacja wygląda analogicznie w przypadku, kiedy wpiszemy domenę w oknie wyników wyszukiwania:

dodatkowe linki w wynikach wyszukiwania

Istnieją również strony, które mają więcej linków do strony w wynikach wyszukiwania niż 6 np. zalando.pl:

zalando dodatkowe linki w wynikach wyszukiwania

Dane strukturalne

  • Wewnętrzna wyszukiwarka

Kolejnym elementem, na który warto zwrócić uwagę jest wewnętrzna wyszukiwarka. To rozwiązanie pozwala na wyszukiwanie w serwisie bez konieczności wchodzenia na stronę i szukania na niej wyszukiwarki. Aby search box wyświetlał się w wynikach wyszukiwania, należy zaimplementować odpowiednie dane strukturalne, które pozwalają wyszukiwarce Google współpracować z wewnętrzną wyszukiwarką w serwisie.

wewnętrzna wyszukiwarka w wynikach organicznych

Więcej informacji oraz sposób implementacji wewnętrznej wyszukiwarki dostępny jest na stronie: https://developers.google.com/search/docs/data-types/sitelinks-searchbox

  • Breadcrumbs

Znaczniki rozszerzone breadcrumbs pełnią rolę nawigacyjną i upraszczają wygląd wyniku wyszukiwania, poprzez zredukowanie często bardzo długich adresów url, do formatu nazwy portalu i kategorii w której znajduje się dana podstrona.

breadcrumbs dane strukturalne

Więcej informacji oraz sposób implementacji dostępny jest na stronie: https://schema.org/breadcrumb

  • Wydarzenie

Znaczniki rozszerzone events odnoszą się nadchodzących wydarzeń takich jak: koncerty, festiwale, wydarzenia sportowe, wystaw i wiele innych.

rodzaje wydarzeń w danych strukturalnych

Więcej informacji oraz sposób implementacji dostępny jest na stronie: https://schema.org/Event

Po prawidłowym wdrożeniu danych strukturalnych, wydarzenia wyświetlają się w sposób następujący:

event w wynikach wyszukiwania

  • Produkty

Dodanie danych strukturalnych do produktu pozwala wyświetlić w wynikach wyszukiwania: ocenę produktu, ilość opinii, cenę oraz informację o dostępności produktu w sklepie.

Przykład prawidłowego wdrożenia danych strukturalnych dla produktu:

produkt w wynikach wyszukiwania

Więcej informacji oraz sposób implementacji dostępny jest na stronie:  https://schema.org/Product

Sprawdź inne dane strukturalne, które możesz wdrożyć na swojej stronie: https://developers.google.com/search/reference/overview oraz https://schema.org/

Dlaczego warto pozycjonować stronę?

Gdy firmy ograniczają swoje wydatki, marketing jest jednym z pierwszych segmentów, na których odbija się taka decyzja. Z tego powodu zachodzi pytanie, czy warto inwestować w pozycjonowanie swojej strony. Istnieje wiele powodów, dla których warto to robić.

  1. Szansa na zdobycie klientów

89% osób korzysta z wyszukiwarek do znalezienia informacji o produktach, usługach lub firmach przed dokonaniem ostatecznych zakupów.

Dane niezbicie dowodzą, że wyszukiwarki takie jak Google są preferowanym narzędziem do wyszukiwania praktycznie wszystkich informacji. Jeśli chcesz, aby Twój biznes, produkt lub usługa zostały znalezione przez potencjalnych klientów, pozycjonowanie jest najlepszym rozwiązaniem.

Jako przykład szansy na zdobycie nowych klientów weźmy agencje SEO z Wrocławia, dla których jednym z głównych celów jest osiągnięcie jak najwyższej pozycji na frazę „pozycjonowanie Wrocław”, „pozycjonowanie we Wrocławiu” itd. Dlaczego? Bo właśnie w ten sposób potencjalni klienci będą szukali lokalnie agencji, która zajmie się pozycjonowaniem ich strony. Co więcej dla wielu osób istotne jest aby wykonawca usługi był z tego samego miasta np. z Wrocławia – ułatwia to kontakt i możliwość umówienia spotkania.

  1. Przewaga nad płatnymi reklamami

Jedno z badań wykazało, że organiczne wyniki wyszukiwania mają 8,5 razy więcej szansy na zostanie wybranym przez internautę niż reklamy PPC. Oprócz tego, inwestując w pozycjonowanie strony, budujesz trwały fundament. Post na Facebooku pojawia się w feedzie na kilka godzin. Jeden tweet może zostać w ogóle niezauważony. Jednak najwyżej wypozycjonowany przez Google wpis może zajmować swoje miejsce przez wiele miesięcy, a nawet lata. Efekty takich działań będą z czasem nakładać się na siebie i przynosić coraz większe rezultaty.

Żeby potwierdzić informację o tym, że w wynikach organicznych strona może zajmować swoje miejsce przez wiele miesięcy lub lat sprawdziłam – jak długo utrzymuje się strona, która na frazę „pozycjonowanie Wrocław” w wynikach organicznych zajmuje pierwszą pozycję.
Z poniższego screenu z Senuto widać, że od 1 grudnia 2015 roku do 1 czerwca 2019 roku na słowo kluczowe “pozycjonowanie Wrocław” zajmuje 1-3 pozycję.
pozycjonowanie Wrocław

Ludzie nie ufają reklamom. Stale rosnąca liczba narzędzi do ich blokowania pokazuje nam, że większość z nas woli ich unikać.

Dokładne analizy wykazały, że jedynie 6% osób klika w reklamy na ekranie wyników wyszukiwania. Większość ludzi będzie je przewijała, aby zobaczyć wyniki organiczne, ponieważ to one generują więcej zaufania niż reklamy płatne. To zaufanie przyciąga odwiedzających na Twoją stronę internetową. Podświadomie ufają, że Twoja witryna zasłużenie zdobyła wysoką pozycję, oferując im to, czego właśnie szukają.

Oprócz tego, jeśli trafią na Twoją stronę właśnie dzięki dobremu pozycjonowaniu, istnieje większa szansa na nawiązanie z nimi długoterminowej relacji. Jeśli raz udało im się znaleźć u Ciebie wartościowe treści, zapewne będą gotowi wrócić po więcej.

  1. Wiele zapytań pojawiających się w Google jest wpisywanych po raz pierwszy

Google potwierdziło, że 15% codziennie wpisywanych zapytań jeszcze nigdy wcześniej nie było wyszukiwanych.

Można z tego wyciągnąć dwa wnioski:

  1. Coraz więcej ludzi korzysta z Google w celu wyszukiwania informacji.
  2. Ludzie używają wyszukiwarek na głębszym poziomie, używając fraz na długi ogon.

Z racji tego, że użytkownicy elastycznie korzystają z Google, masz bogate możliwości, aby do nich dotrzeć. Oczywiście wszystko to wymaga przemyślanych działań z zakresu pozycjonowania stron oraz nakierowywania się na odpowiednie słowa kluczowe (o których to będziemy jeszcze więcej mówić).

  1. Pozycjonowanie po prostu przynosi rezultaty

Jak wskazują badania, marketerzy uważają SEO za bardzo skuteczne narzędzie:

  • 82% przyznaje, że skuteczność takich działań nieustannie rośnie.
  • 42% zauważa znaczny wzrost skuteczności.

Marketing internetowy staje się coraz bardziej dojrzały, o czym na pewno wie także i Twoja konkurencja. Warto dlatego wziąć pod uwagę korzyści, jakie daje pozycjonowanie i wykorzystać je jak najlepiej.

Jak obliczyć wartość pozycjonowania?

Załóżmy, że:

  • Zyskujesz 100 PLN na każdym zrealizowanym zamówieniu.
  • Twoją stronę odwiedza codziennie 500 osób.
  • Konwersja wynosi 2%.

Jakie zyski wtedy generujesz w ciągu miesiąca?

500 odwiedzin dziennie * 30 * 0,02 konwersja * 100 PLN = 30 000 PLN miesięcznie

Jakie wyniki może przynieść Ci pozycjonowanie?

Załóżmy, że:

  • Zyskujesz 150 PLN na każdym zamówieniu – w wyniku odpowiedniej optymalizacji samej strony klienci generują większe zamówienia.
  • Twoją stronę odwiedza codziennie 750 osób – dobre treści oraz jakościowe linki znacznie polepszyły ruch na Twojej stronie.
  • Konwersja wynosi 3% – lepsza nawigacja oraz opisy usług/produktów bardziej przekonują do skorzystania z Twojej oferty.

Jakie zyski wygenerowałbyś wtedy w ciągu miesiąca?

750 odwiedzin dziennie * 30 * 0,03 konwersja * 150 PLN = 101 250 PLN miesięcznie

Oczywiście to przykład teoretyczny – tak dobre polepszenie wyników będzie wymagało odpowiedniej ilości czasu oraz inwestycji. Niemniej jednak jasne jest, że pozycjonowanie przynosi wymierne rezultaty.

Jak wpływ pozycji w Google przekłada się na ruch na stronie?

Ile ruchu zdobywają pierwsze strony w Google? Najlepiej odpowiedzieć sobie na to pytanie, analizując dostępne dane. Ciekawe źródło stanowi tutaj Advanced Web Ranking. Jedno z narzędzi analizuje, jaki procent wejść zyskują strony w zależności od ich pozycji w wynikach wyszukiwania.

jaki jest wpływ pozycji na ruch na stronie

Dane pochodzą z kwietnia 2019 roku.

Jak zatem widać, pierwsza pozycja w Google zgarnia ok. 30% całego ruchu! Pozycja 2 oraz 3 zdobywają jeszcze odpowiednio ok. 15% i 10% wejść. Strony zajmujące 8 miejsce i dalej zyskują nieco ponad 1% całego ruchu na dane zapytanie!

Nic więc dziwnego, że agencje SEO z Wrocławia chcą osiągnąć pierwszą pozycję na frazę „pozycjonowanie Wrocław” skoro może im to przynieść aż 30% ruchu.

Podobnie i inne badania wykazały, że 91,5% użytkowników nie zagląda dalej, niż poza pierwszą stronę wyników wyszukiwania.

Nie dziwi zatem popularny w branży żart:

najlepsze miejsce na ukrycie zwłok to 2 strona wyszukań Google

Inna analiza wykonana przez Ahrefs przyniosła kolejne ciekawe wnioski:

prawie 91% stron nie uzyskuje żadnego ruchu z Google

Otóż 90,88% wszystkich przeanalizowanych stron nie uzyskuje żadnego ruchu z Google! 4,5% z nich zyskuje mniej niż 10 wizyt miesięcznie.

Jakie z tego wnioski?

Odpowiednie pozycjonowanie to być albo nie być w marketingu internetowym. Niektórzy przedsiębiorcy wychodzą z założenia, że wystarczy stworzyć stronę, przedstawić ofertę i gotowe. Nic bardziej mylnego. Jak pokazują dane, bez odpowiednich działań z zakresu pozycjonowania Twoja świetna strona i doskonale przygotowana oferta nie zostaną w ogóle znalezione w sieci!

Dobra pozycja w Google (czyli pierwsza strona a najlepiej pierwsze 3 pozycje) to gwarancja zdobycia większości jakościowego ruchu.

Jak wygląda pozycjonowanie stron w Google?

Czas teraz omówić, na czym polega takie pozycjonowanie. Trzymając się omawianego przykładu, jeśli ktoś chce zdobyć pozycje na frazy „pozycjonowanie Wrocław”, to jak będzie wyglądał ten proces?

Przeanalizujemy zatem poszczególne kroki:

  1. Analiza konkurencji

Przed podjęciem jakichkolwiek działań należy przyjrzeć się konkurencji. Bez tego nie będziemy mogli ustalić, jakie są ich słabe i mocne strony. Nie chodzi tutaj koniecznie o konkurentów lokalnych czy tych, którzy mają największy udział w danej niszy. Chodzi bardziej o te serwisy, z którymi będziemy rywalizować w wynikach wyszukiwania. Taka analiza będzie obejmować przyjrzenie się, na jakie frazy pozycjonują się konkurencyjne strony, ile wejść dzięki nim generują oraz czy istnieją jakieś zapytania, których konkurencja nie wykorzystuje, a które to mogą za to stanowić dla nas łatwy cel.

Oprócz tego taki proces obejmuje analizę profilu linków. Pozwala to znaleźć nowe możliwości zdobycia linków dla Twojej strony. Bardzo ważne jest także przyjrzenie się treściom publikowanym np. na innych blogach firmowych. W ten sposób można zdobyć wiedzę na temat tego, jakich treści będą oczekiwać Twoi potencjalni klienci. Podczas realizacji tego procesu można także zastanowić się, jak Twój content może być lepszy od tego obecnie publikowanego przez konkurencję.

Warto dlatego wiedzieć, że SEO nie działa w próżni. Pozycjonowanie we Wrocławiu będzie realizowane w odmienny sposób niż w pozostałych miastach z racji innej konkurencji, specyfiki grupy docelowej itp.

  1. Analiza treści

Bill Gates już w roku 1996 przewidywał, że content zyska ogromne znaczenie. Jak pisał wtedy w swoim artykule:

Spodziewam się, że to content będzie stanowił element, który pozwoli zarobić najwięcej pieniędzy w Internecie, tak samo, jak to było w przypadku telewizji. Rewolucja telewizyjna, która rozpoczęła się pół wieku temu, zrodziła wiele branż, w tym produkcję telewizorów. Jednak długoterminowymi zwycięzcami byli ci, którzy wykorzystali to medium do dostarczania informacji i rozrywki.

Żadna firma nie jest zbyt mała, aby w tym uczestniczyć.

Jego prognozy okazały się jak najbardziej trafne i obecnie Content is King. Z tego powodu wszelkie działania związane z pozycjonowaniem wymagają odpowiedniej analizy Twoich treści.

Należy znaleźć odpowiedzi m.in. na takie pytania, jak:

  • Jak skuteczne w zdobywaniu ruchu są obecne słowa kluczowe?
  • Czy występują problemy z powielaniem treści?
  • Czy na Twojej witrynie brakuje jakichś podstron?
  • Czy Twoje dane kontaktowe są dokładne i spójne?
  • Czy content jest dostosowany pod wyszukiwanie głosowe?

Koniec końców solidne treści znacznie przyczyniają się do powodzenia Twojej strony. Wyjątkowa zawartość jest najlepszym sposobem na przyciągnięcie potencjalnych klientów, a co za tym idzie, najlepszym sposobem na przekształcenie leadów w zysk.

Zbadanie aktualnego contentu jest właśnie z tych powodów tak ważnym krokiem. Stanowi to podstawę całej strategii, na której należy później budować.

  1. Analiza off page

Wiele czynników wpływających na pozycjonowanie Twojej strony ma miejsce z dala od Twojej witryny. Ostateczne wyniki są dlatego w bardzo mocny sposób zdefiniowane przez to, w jaki sposób funkcjonujesz w sieci na dużą skalę.

  • Czy Twoje treści znajdują się na blogach branżowych?
  • Czy klienci wspominają o Tobie na popularnych forach?
  • Czy Twoja firma posiada profile na uznanych serwisach gromadzących informacje o przedsiębiorstwach z danej branży (jak np. Clutch dla IT)?
  • Jak wygląda Twoja obecność w mediach społecznościowych?

Nie ma nic lepszego niż uznanie przez klientów i reklama przez polecenie! Jeśli dobrze się o Tobie mówi, automatycznie zaczniesz lepiej pozycjonować się na określone słowa kluczowe.

Optymalizacja witryny

Lwia część sukcesu związanego z pozycjonowaniem sprowadza się do technicznej optymalizacji Twojej witryny. W końcu przeszukują ją roboty Google, więc trzeba im to jak najbardziej ułatwić.

Na poprawną optymalizację witryny wpływa wiele czynników. Omówmy sobie kilka z nich:

  • Analityka

Jak ustalić, czy Twoje wysiłki związane z pozycjonowaniem we Wrocławiu przynoszą efekty? Do tego wymagane są narzędzia analityczne. Firmy SEO świadczące tego typu usługi mogą zająć się podpięciem takich narzędzi jak choćby Google Analytics. Pomagają one uzyskać pożądane dane.

  • Robots.txt

Jest to plik, który jest używany w celu zapobiegania indeksowaniu stron witryny internetowej, które mają być ukryte. Odpowiednia edycja tego pliku da pewność, że nie znajdą się tutaj te strony, które mają być widoczne. Z kolei te, które powinny być jeszcze ukryte (np. są testowane i edytowane) nie będą przyciągały ruchu z Google.

  • Bezpieczeństwo witryny

Adres Twojej witryny powinien zawierać w sobie https – owo „s” oznacza, że Twoja strona jest bezpieczna. Potrzebujesz zabezpieczonej strony, nawet jeśli nie przetwarzasz żadnych transakcji, ponieważ Google daje im większy priorytet. Od lipca roku 2018 strony bez szyfrowania SSL są oznaczone jako niebezpieczne!

  • Błędy na stronie

Błędy są sygnałem dla Google, że Twoja strona nie jest godna zaufania. W ten sposób na pewno straci swoje pozycje. Najczęstsze błędy to błędy typu 400, 401, 403 czy 404. Oprócz tego w grę wchodzą duplikowane treści, brakujące tagi, czy złe wykorzystanie wspomnianego pliku robots.txt.  

  • Elementy meta

Duplikowanie title tagów, meta-opisów i zawartości witryny może mieć negatywny wpływ na pozycję w wyszukiwarkach oraz click through rate. Zapewnienie optymalizacji meta-elementów zwiększy Twoje szanse na znalezienie się wysoko w SERP-ach.

  • XML sitemapa

Mapa strony XML to lista wszystkich stron na Twojej witrynie internetowej, które chcesz, aby wyszukiwarka indeksowała (nie mylić z robots.txt, który mówi wyszukiwarce, które strony nie powinny się indeksować). Wgranie takiej mapy pomaga robotom Google w analizie Twojej strony.

  • Szybkość strony

User experience jest bardzo ważne dla wyszukiwarek – Google wie, że internauci są niecierpliwi. To dlatego szybkość strony jest ważnym czynnikiem decydującym o tym, jak dobrze pozycjonuje się Twoja witryna.

  • Współczynnik konwersji

Odpowiednie działania z zakresu pozycjonowania będą wymagały przeanalizowania, jak Twoja strona wypada pod kątem sprzedażowym. Jeśli mały odsetek z odwiedzających dokonuje ostatecznie transakcji, przyczyną może być słaba nawigacja na stronie, czy też złe opisy produktów/usług. Możliwe też, że pozycjonujesz się na źle dobrane słowa kluczowe, o których to powiemy teraz więcej.

Analiza słów kluczowych

Współczynnik konwersji określa, jaki procent odwiedzających Twoją stronę podjęło pożądane działanie – może to być dokonanie zakupu, zostawienie informacji kontaktowych, pobranie publikacji itp.

W SEO ważnym czynnikiem jest tzw. intencja za słowami kluczowymi. Określa ona, co motywuje użytkownika do wprowadzenia odpowiedniego zapytania. Niektórzy wyznają pogląd, że im więcej ruchu na stronie, tym zawsze lepiej. Jednak nie jest to prawdą. Przyciąganie wszelkiego ruchu bez względu na jego jakość jest dość ryzykowne. Twoje środki przeznaczone na pozycjonowanie mogą bardzo szybko się skończyć, nie przynosząc przy tym konkretnych rezultatów. Lepsze efekty da nakierowanie się na konkretną grupę docelową.

Można wymienić zatem następujące rodzaje zapytań:

Zapytania nawigacyjne – ich celem jest odwiedzenie konkretnej strony.

Przykłady:

  • LinkedIn
  • Millennium bank logowanie
  • Urząd Miasta Poznań

Zapytanie informacyjne – ich celem jest zdobycie informacji.

Przykłady:

  • Oznaki przeziębienia
  • Recenzja 12 gniewnych ludzi
  • Kraków ceny mieszkań na wynajem

Zapytania transakcyjne – ich celem jest dokonanie zakupu przez Internet.

Przykłady:

  • Play telefon na abonament
  • Świat Wiedzy prenumerata
  • Telefon Samsung kup

Zapewne domyślasz się, że najbardziej powinny interesować Cię zapytania transakcyjne. Jeśli wypozycjonujesz się na takie zapytania, przyciągniesz do siebie osoby, które już są gotowe dokonać zakupu.

Zapytania transakcyjne tworzone są zwykle według wzorca:

Słowo kluczowe +

  • promocja
  • recenzja
  • oferta
  • darmowa dostawa
  • kup

Jednak i same zapytania transakcyjne można wydzielić jeszcze na kolejne etapy w zaangażowaniu w proces sprzedaży. Możemy wymienić etap świadomości, etap analizowania wyborów oraz etap podejmowania decyzji.

Etap świadomości czym jest SEO, czy warto korzystać z SEO
Etap analizowania wyborów pozycjonowanie stron we Wrocławiu, pozycjonowanie Wrocław, pozycjonowanie stron lokalnie
Etap podejmowania decyzji pozycjonowanie cennik, content solutions content marketing

Rozważmy omawiany przykład. Na etapie świadomości potencjalny klient dopiero zapoznaje się z korzyściami pozycjonowania. Może dopiero założył firmę i nie jest do końca świadomy korzyści, jakie dają takie działania. Na tym etapie należy go dopiero edukować.

Na etapie analizowania wyborów przykładowa osoba już wie, że przydałyby jej się usługi SEO. Szuka dlatego różnych ofert, już zawężonych do pozycjonowania we Wrocławiu (prowadzi lokalną restaurację).

Z kolei, gdy już jest na etapie podejmowania decyzji, wie dokładnie, czego chce. Odzwierciedlają to także jasno sprecyzowane zapytania.

Dzięki sklasyfikowaniu określonych fraz kluczowych względem intencji szukającego oraz jego etapu na ścieżce zakupowej będziesz mógł lepiej przygotować swoje treści. Do klienta na etapie świadomości nie przemówi sprecyzowana oferta, gdyż nawet nie zrozumie jej znaczenia i wartości.

Twórz zatem treści, które będą trafiać do klientów na kolejnych etapach zaawansowania, przeprowadzając ich w ten sposób przez proces sprzedaży.

Stwórz swoją listę fraz kluczowych

Na samym początku dobrze jest przygotować swoją listę podstawowych fraz kluczowych. Możesz je podzielić wedle trzech wspomnianych wcześniej kategorii, czyli etapu świadomości, analizowania wyborów oraz podejmowania decyzji.

Następnie użyj różnych metod analizy, aby wypełnić tę listę frazami, które będą dotyczyć Twoich usług lub produktów.

Najlepiej, aby ta lista była kompletna pod względem obejmowania wszystkich rzeczy, które Twój produkt/usługa robi i problemów, które rozwiązuje. Nie musisz teraz wymyślać wszelkich potencjalnych synonimów. Ten etap będzie miał miejsce dopiero później.

Zastosuj zatem poniższe kroki:

  1.     Zbadaj swoją grupę docelową – jakich terminów używają do opisania Twoich produktów lub usług? Spójrz na ich wpisy na blogu i komentarze, fora, grupy na LinkedIn oraz otrzymywane od nich wiadomości.
  2.     Znajdź frazy, dzięki którym obecnie jesteś znajdowany – jak obecnie wygląda pozycjonowanie Twojej strony we Wrocławiu? Użyj Google Analytics, aby sprawdzić, jakich terminów używają internauci, aby do Ciebie dotrzeć.
  3.     Uzyskaj kilka sugestii Answer The Public jest narzędziem, które pozwala wprowadzić słowo kluczowe i zobaczyć, jakie inne frazy i zapytania są z nim powiązane. Na przykład po wpisaniu frazy „pozycjonowanie Wrocław”, znajdziemy ogólnie 7 powiązanych fraz oraz 9 wedle dodatkowych słów zaczynających się od kolejnych liter alfabetu.
  4.       Sprawdź konkurencję – takie narzędzia jak SEMSTORM oraz Senuto pozwalają zobaczyć, na jakie frazy pozycjonuje się konkurencja. Oczywiście nie musisz na takiej analizie spędzać niezliczonej ilości czasu, ale wyciągnięte w ten sposób wnioski mogą być dla Ciebie pewnym punktem wyjścia.

Dzięki takiemu podejściu uda Ci się uzyskać wstępną listę fraz, na które warto będzie się pozycjonować.

Pozycjonowanie Black Hat vs White Hat

Wiemy zatem, na czym polega odpowiednia optymalizacja witryn internetowych pod kątem SEO. Czy wszyscy zatem stosują się do tego, aby ulepszać swoją stronę pod względem technicznym, oraz by wyszukiwać odpowiednie frazy kluczowe? Czy każdy podejdzie w ten sam, właściwy sposób do pozycjonowania swojej strony we Wrocławiu? Okazuje się, że nie.

Jak w przypadku każdej rozbudowanej branży, tak samo w przypadku SEO napotkasz wiele różnych opinii na temat najbardziej efektywnych sposobów w podejściu do optymalizacji strony.

I choć wiele z tych taktyk może działać, a to, które są „najlepsze”, jest często trudne do rozstrzygnięcia, to warto pamiętać o pewnym podziale: Black Hat SEO kontra White Hat SEO.

W skrócie Black Hat to wykorzystywanie nieodpowiednich sztuczek do zwiększania pozycji swojej witryny, podczas gdy White Hat oznacza etyczne i zalecane przez Google metody.

Nazewnictwo to wzięło się z terminologii związanej ze światem IT. Haker Black Hat to taki, który wykorzystuje swoje umiejętności do szkodzenia innym. Z kolei haker White Hat także szuka w systemach luk, ale po to, aby ostrzec o ich istnieniu innych. Ten podział za to pochodzi z kultury amerykańskiej, gdzie dobrzy i źli kowboje byli przedstawiani odpowiednio w białych i czarnych kapeluszach.

Przejdźmy zatem do bardziej szczegółowego omówienia tych terminów.

White Hat SEO

Czy w 100% stosujesz się do wytycznych Google, grając tylko zgodnie z ich zasadami? Jeśli tak, to nosisz biały kapelusz.

Białe kapelusze robią wszystko, co zaleca im Google. W oczach niektórych osób noszących czarne kapelusze są oni niezbyt kreatywni i boją się podejmować ryzyko. Miałoby to niby skutkować tym, że nie będą w stanie uzyskać takich rezultatów jak osoby stosujące podejrzane metody.

Nie jest to jednak prawdą.

White Hat SEO polega na dostosowaniu się do algorytmów Google. Osoby stosujące takie podejście chcą w ten sposób uniknąć potencjalnej kary oraz nagłych spadków w wyniku aktualizacji. Uwielbiają za to wyzwania związane z grą w ramach wytycznych od Google i związanymi z tym trwałymi efektami.

Oczywiście, uzyskanie takich trwałych wyników zwykle trwa dłużej w porównaniu do Black Hat SEO, jednak gdy już uda się uzyskać rezultaty, to jednak nie znikną one za prędko.

Wyszczególnijmy sobie zatem cechy charakterystyczne White Hat SEO:

  1. Dostosowanie się do wytycznych od Google

White Hat SEO będzie polegać na trzymaniu się dokładnych wymagań określonych przez Google.

wskazówki SEO dla webmasterów od Google

Są to zasady, które Google określił w celu zdefiniowania właściwego sposobu optymalizacji strony.

Znajdziemy tutaj liczne szczegóły odnośnie do tego, na czym polega etyczna strategia SEO. Można je jednak zasadniczo podsumować jednym prostym stwierdzeniem: nie manipuluj wynikami.

Tak więc, jeśli dana strategia nie polega na manipulowaniu rankingami czy oszukiwaniu algorytmu Google, zapewne można ją zaliczyć do White Hat SEO.

  1. Skupienie się po pierwsze na użytkownikach

Stosowanie się do White Hat SEO automatycznie polega na wprowadzaniu takich zmian na stronie, które są korzystne dla odwiedzających. A jeśli weźmie się pod uwagę to, że priorytetem Google jest dostarczenie użytkownikom jak najlepszych odpowiedzi na ich pytania w jak najlepszej formie, ma sens fakt, iż jest to istotny element właściwego SEO.

Tak się też składa, że wiele z najbardziej skutecznych strategii SEO już obejmuje takie kroki, które poprawiają user experience. Można w to wliczyć publikowanie wysokiej jakości treści i poprawę czasu ładowania strony. Dzięki temu odwiedzający otrzymują na witrynie przydatne informacje oraz mogą się na niej łatwo poruszać.

  1. Długoterminowe spojrzenie na pozycjonowanie

Niezależnie, czy chcesz pozycjonować stronę we Wrocławiu (lokalnie), czy też na całą Polskę, konieczna jest cierpliwość i długoterminowa strategia.

Jednocześnie strategie zgodne z wytycznymi Google, które mają na oku dobro użytkowników, są często bardziej czasochłonne i kosztowne niż metody Black Hat SEO.

Oznacza to, że potrzeba czasu, aby zobaczyć pożądane wyniki.

Z drugiej strony, jak już wspomniano, takie techniki mają także trwalszy wpływ. Kiedy stosujesz strategie, które mają na celu poprawę ogólnego doświadczenia na stronie, osiągniesz stałe pozycje dla Twoich docelowych słów kluczowych.

Skuteczne pozycjonowanie to także jakościowy content, który oczywiście swoje kosztuje. Niemniej jednak dobre treści nawet przez całe lata mogą zdobywać dla Ciebie ruch na określone frazy. 

Przykłady dobrych technik White Hat SEO:

  1. Wpisy gościnne

Zamiast publikować tylko na własnej stronie, możesz pisać je na innych serwisach. Nie tylko zdobywasz w ten sposób uznanie i rozpoznanie w branży, ale możesz także zyskać linki zwrotne. Jeśli Twój artykuł zostanie opublikowany na przykładowo serwisie branżowym, czytający go będą mogli z załączonego linku przejść na Twoją stronę główną. Link do Twojej witryny na uznanej stronie jest także pozytywnym sygnałem dla Google.

  1. Świetny content

Tworzenie solidnych i użytecznych treści sprawi, że inni będą chcieli je udostępniać i do nich linkować. Lista przydatnych narzędzi, najnowsze wiadomości z branży, czy inne trendujące treści mają szansę na zyskanie takiej popularności wśród odbiorców.

  1. Wewnętrzne linkowanie

Zgodne z kontekstem tworzenie odnośników do innych wpisów na Twoim blogu czy ofert w sklepie sprawia, że użytkownicy zostaną u Ciebie na dłużej.

Black Hat SEO

Black Hat SEO to zasadniczo dokładne przeciwieństwo White Hat SEO.

Osoby korzystające z takich metod łamią wytyczne od Google, byle tylko zyskać jak najszybciej i jak najtaniej wyższe pozycje. Całe takie podejście polega na stosowaniu skrótów, które mają „wykiwać” algorytmy wyszukiwania i wykorzystać ich niedoskonałości (których na szczęście jest coraz mniej).

Black Hat jest stosowane zwykle głównie z myślą o zdobyciu po prostu najwyższych pozycji, pomijając kompletnie fakt, czy użytkownik otrzymuje to, czego szukał. 

Stosowanie takich metod może często skutkować karą od Google (o których więcej w kolejnych częściach artykułu). Techniki Black Hat „cieszyły się” popularnością zwłaszcza z początku rozwijania się Internetu oraz samego Google. Algorytmy bardzo odbiegały jakością od tego, co znamy obecnie.  Łatwe było dlatego ich oszukiwanie. Niemniej jednak z czasem Google poczyniło konkretne kroki, aby przeciwdziałać takim zagraniom.

Wyszczególnijmy sobie zatem cechy charakterystyczne Black Hat SEO:

  1. Naruszanie wytycznych Google

Taktyki Black Hat naruszają wytyczne od Google. W wielu przypadkach są bezpośrednio przywoływane w takich spisach jako praktyki, których nie należy stosować.

  1. Manipulacja

Podczas gdy White Hat SEO wymaga poszukiwania sposobów na poprawę user experience, Black Hat SEO polega na manipulowaniu algorytmem Google w celu poprawy pozycji w rankingach.

Mówiąc prościej, taktyka ta ma na celu skłonienie Google, aby wydawało mu się, że witryna zapewnia użytkownikom więcej wartości, niż jest naprawdę.

  1. Krótkoterminowe spojrzenie na pozycjonowanie

Wiele strategii spod czarnego kapelusza koncentruje się na wykorzystaniu luk w algorytmie Google, które mogą prowadzić do poprawy w rankingach bez większego nakładu pracy. Choć niektóre z tych taktyk mogą przynieść rezultaty, są one prawie zawsze krótkotrwałe.

Jest tak dlatego, że Google stale udoskonala swój algorytm. Nie chce dopuścić, aby wysokie pozycje zajmowali ci, którzy na to nie zasługują. Oznacza to, że strony używające Black Hat SEO są zagrożone utratą pozycji za każdym razem, gdy pojawi się nowa aktualizacja algorytmu. Takie aktualizacje często miały już miejsce i faktycznie skutkowały mocnym uderzeniem w tych, którzy stosowali podejrzane metody.

Nieetyczne sposoby pozycjonowania

Jaką zasadą kierować się podczas wybierania sposobów pozycjonowania swojej strony we Wrocławiu? Najlepiej, abyś nie miał problemów wyjaśnić tego, co zrobiłeś, pracownikowi Google 😊.

Black Hat SEO niestety sprowadza się do łamania zasad. Na przestrzeni lat niektóre techniki zyskały szczególną popularność. Dobrze mieć świadomość tego, na czym dokładnie one polegają. Dzięki temu będziesz w stanie je dostrzec, gdyby jakaś podejrzana agencja proponowałaby Ci ich zastosowanie w ramach pozycjonowania.

Większość wspomnianych poniżej technik działa tylko na krótką chwilę lub w ogóle nie działa. Niemniej jednak dalej można się z nimi czasem spotkać:

  1. Ukryty tekst

Wiadomo, że zawieranie odpowiednich słów w swoich treściach pomaga się na nie pozycjonować. W końcu Google musi mieć jakiś punkt odniesienia. Niektórzy jednak „przegięli” pod tym względem. Stosowali dlatego technikę, która polegała na zamieszczaniu jak największej ilości fraz kluczowych na stronie tak, aby nie były one widoczne dla użytkownika. Znajdowały się one np. na białym tle witryny zapisane oczywiście białym kolorem. 

Dawniej faktycznie to działało. Odwiedzający nie widzieli nienaturalnego tekstu naszpikowanego frazami kluczowymi, ale Google go dostrzegał i lepiej pozycjonował takie strony. Na szczęście z czasem algorytm został udoskonalony i wykrywa takie metody.

  1. Cloaking

Bardziej rozbudowana wersja poprzedniej metody. Polega ona na tym, że wyszukiwarkom oraz odwiedzającym przedstawia się inną wersję strony. Wersja dla botów była specjalnie przygotowana tak, by uzyskać jak największe pozycje w Google. Z kolei druga, normalna wersja, zawierała po prostu to, co miał widzieć odwiedzający.

  1. Kradzież treści

Wiele artykułów zawartych w Internecie odznacza się naprawdę wysoką jakością i zyskuje wysokie pozycje dla tych, którzy je opublikowali. Niektórzy jednak wychodzą z założenia, że skoro taki tekst znajduje się w Internecie, to można go sobie po prostu wziąć i opublikować u siebie. Niemniej jednak Google potrafi łatwo wykryć przypadki duplikowania treści, a w skrajnych przypadkach nakłada za to karę.

  1. Miksowanie artykułów 

Bardzo kreatywna, ale i niestety także nieetyczna metoda zyskiwania treści. Załóżmy, że ktoś chce zyskać jak najwięcej tekstów z frazą pozycjonowanie Wrocław. Nie chce jednak mu się pisać wszystkich od nowa. Przygotowuje zatem tzw. tekst synonimiczny. Tworzy się go tak, aby po zastąpieniu wybranych fraz synonimami powstały inne teksty, które jako tako są oryginalne (same słowa się nie powtarzają), ale znaczą to samo. Poniżej przykład: 

synonimizacja tekstu Black Hat SEO

Raczej nie chciałbyś, aby z takiego potworka powstał tekst prezentujący Twoją firmę 😊

Może i faktycznie w ten sposób można uzyskać wiele tekstów w krótkim czasie, ale same w sobie nie przyniosą one większej wartości czytelnikowi.

  1. Farmy linków

Praktyka ta polega na tym, że kilka stron internetowych linkuje do siebie nawzajem. Linki są dużym sygnałem dla Google odnośnie do tego, czy zawartość Twojej strony jest przydatna dla innych. Jednak gdy algorytmy zobaczą taki profil linków, łatwo dostrzegą ich nienaturalność. Co więcej, jeśli strony do Ciebie linkujące nie są ze sobą powiązane (treści na nich publikowane odnoszą się do zupełnie innych branż), będzie to także negatywnym sygnałem dla Google.

  1. Kupowanie linków

Dalej w Polsce i za granicą można spotkać oferty sprzedaży określonej ilości linków za określoną kwotę. Jednak większość z nich na pewno jest słabej jakości i ich zakup będzie jedynie stratą pieniędzy.

kupowanie linków na allegro

Istnieje oczywiście znacznie więcej technik Black Hat SEO, które mogą być same z siebie efektywniejsze niż te tutaj opisane. Niemniej jednak powszechnie uważa się, że ryzyko związane ze stosowaniem takich metod nie jest tego warte. Jeśli zależy Ci na skutecznym i długoterminowym pozycjonowaniu strony internetowej we Wrocławiu, trzymaj się od takich technik z daleka.

Kary i filtry od Google

Ogólnie rzecz biorąc, Google chce, aby pokazywane przez niego wyniki wyszukiwania były naprawdę organiczne, czyli naturalne. Jeśli jakaś lokalna agencja SEO chce jak najlepiej pozycjonować swoją stronę we Wrocławiu, powinno to być efektem świetnego contentu oraz wygodnego user experience na owej witrynie. 

W związku z tym Google zdecydowanie sprzeciwia się próbom „ogrania” jego systemu. Niemniej jednak dla niektórych firm internetowych zdobywanie ruchu jest na tyle ważną sprawą, że posuwają się wręcz do niebezpiecznych zagrań. Inni przedsiębiorcy z kolei nieraz nie dbają odpowiednio o swoją stronę, wobec czego jest ona niskiej jakości. 

Obie ścieżki postępowania w efekcie prowadzą nieraz do nałożenia przez Google kary lub banu.

Czym różnią się od siebie te dwa pojęcia?

  • Ban od Google

Jest to największa kara, jaka może zostać nałożona przez Google. Witryna jest wtedy całkowicie usuwana z wyników wyszukiwania. Owa „kara śmierci” jest nakładana stosunkowo rzadko – dochodzi do tego w momencie, gdy domena w rażący sposób narusza ustalone zasady. Oprócz tego Google nie waha się także ukarać stron, które promują ekstremalnie brutalne, rasistowskie i inne szkodliwe dla społeczeństwa treści. 

  • Kara (filtr) od Google

W tym przypadku domena nie jest całkowicie usuwana z wyników wyszukiwania, ale jej pozycja na określone frazy jest obniżona nawet i o kilkadziesiąt miejsc. W wielu przypadkach okres kary jest z góry ustalony i trwa od miesiąca do jednego roku.

Przyczyną nałożenia filtru często jest nieodpowiednie linkowanie (najczęściej jest to nienaturalny, szybki przyrost backlinów prowadzących do domeny lub SWL, czyli system wymiany linków). Algorytm potrafi rozpoznać nagły wzrost liczby odnośników kierujących na daną witrynę, które mają w nienaturalny sposób podnieść jej ranking.

W jaki sposób Google może nałożyć karę?

Przy omawianiu tych terminów warto zaznaczyć, że nałożenie kary lub banu może odbyć się na dwa sposoby:

  • Ręcznie

Google zatrudnia licznych pracowników, których celem jest ręczna analiza niezliczonych stron internetowych. Mają oni się upewnić, że strony zajmujące wysokie pozycje, robią to zasłużenie. Kierują się oni ściśle określonymi przez Google wskazówkami.

Najważniejsze elementy, na które zwracają uwagę, to:

Jakość strony – jak dobrze dana strona spełnia swój cel? Jeśli prezentuje się na stronę z darmowymi poradami odnośnie do danego tematu, to czy faktycznie je zawiera, czy też wypełniona jest niepowiązanymi reklamami?

YMYL (Your Money or Your Life) – czy treści publikowane na tej witrynie będą mieć wpływ na zdrowie oraz finanse osób je odbierających? Quality Rater będzie uważniej przyglądał się witrynom z takich branż jak zakupy, finanse, prawo, medycyna, czy wiadomości ze świata.

E-A-T (Expertise, Authoritativeness, Trustworthiness) – jeśli chcesz, aby Twoja strona osiągnęła wysokie wyniki, musisz rozważyć E-A-T. Termin ten odnosi się do fachowości, autorytatywności i wiarygodności strony internetowej, głównych treści i twórców strony. Witryny, które uzyskają wysokie noty wedle tych trzech podpunktów, będą cieszyć się lepszymi pozycjami. Aby to osiągnąć, powinny być na nich publikowane treści przez ekspertów z branży. Tak samo, jak w przypadku YMYL, tutaj także najbardziej pod uwagę są brane strony związane z profesjonalnym dziennikarstwem, poradami medycznymi, ogólnozdrowotnymi, finansami i prawem.

Dostosowanie do mobile osoby korzystające z urządzeń mobilnych powinny mieć wygodny dostęp do Twoich treści. Dlatego też Twoja witryna powinna odpowiednio wyświetlać się na każdych urządzeniach bez względu na ich rodzaj i rozdzielczość. Sam content strony musi być także odpowiednio zoptymalizowany, aby czas ładowania nie był zbyt długi.

Obserwacje i wnioski dostarczane przez Quality Raterów mają służyć m.in. poprawie działania algorytmu. Jednak jednym z elementów ich pracy jest także nakładanie kar na strony, które łamią wytyczne od Google.

Jak zaznaczył kiedyś Matt Cutts, ponad 400 000 stron internetowych miesięcznie jest w ten sposób karanych przez Google. Taka kara jest zwykle bardzo poważna, w rezultacie czego strona może zostać wyjęta z wyników wyszukiwania. Jednak gdy do tego dojdzie, właściciel witryny otrzymuje specjalne powiadomienie przez Google Search Console.

  • Działanie algorytmu

Kara jest nakładana automatycznie przez wyszukiwarkę w przypadku wykrycia naruszenia wytycznych Google. Bardzo często takie kary wynikają z wewnętrznych zmian w algorytmie wyszukiwania Google i powodują, że ukarana strona traci aktualne pozycje w rankingu, jeśli nie spełnia nowych wymagań.

Kary nakładane przez algorytm odnoszą się przeważnie do dwóch najważniejszych w ostatnim czasie aktualizacji Google: Panda i Pingwin. Panda dotyczy przede wszystkim jakości contentu, natomiast Pingwin skupia się na niskiej jakości linkach. Więcej na temat samych głównych aktualizacji przeczytasz w kolejnych częściach artykułu.

Co dokładnie może spowodować nałożenie kary przez Google?

Istnieje wiele czynników, przez które Google nakłada kary. Przyjrzyjmy się głównym z nich:

  • Techniki Black Hat SEO

Owe techniki poruszyliśmy dokładniej we wcześniejszym podpunkcie nieetyczne sposoby pozycjonowania. Chodzi zatem o ukrywanie tekstu, cloaking, kradzież treści, miksowanie artykułów, systemy wymiany linków, kupowanie linków i wiele więcej.

  • Nadoptymalizacja anchor linków

Google może uznać, że istnieje zbyt wiele odnośników kierujących na Twoją stronę w formie anchor link tekstu (jest to tekst, który tworzy klikalną część linku np. pozycjonowanie stron Wrocław). Będzie to zauważalne zwłaszcza w przypadku, gdy ów tekst powiązany z linkiem ściśle pasuje do słów kluczowych, na które starasz się pozycjonować (jest to tzw. anchor exact match). Dokładny dozwolony procent nie jest znany – prawdopodobnie różni się w zależności od branży. Jeśli jednak więcej niż 20% linków odsyłających na Twoją stronę funkcjonuje w formie anchor exact match, może to stanowić problem.

  • Zbyt dużo reklam

Google uważa, że Twoja strona ma zbyt wiele reklam, które to negatywnie wpływają na jej użyteczność. Nie ma żadnych szczególnych wytycznych odnośnie do tego, ile strona powinna wyświetlać reklam. Na pewno nie jest wskazane, aby zajmowały one wręcz połowę całej przestrzeni Twojej witryny. Nie wolno dopuścić także do sytuacji, w której odwiedzający muszą przewijać w dół, aby zobaczyć główną zawartość strony ukrytą pod warstwą reklam.

  • Niskie zaangażowanie/wysoki współczynnik odbicia

Jeśli odwiedzający Twoją stronę nie są zadowoleni z tego, co znajdują, będzie to wyraźnie widoczne w ich zachowaniu. Spędzą dlatego na niej bardzo mało czasu lub wrócą do wyników wyszukiwania, nie odwiedzając żadnej innej podstrony Twojej witryny. Wysoki współczynnik odbicia oraz krótki czas przebywania na stronie może wskazywać na jej bardzo niską jakość i to, że w ogóle nie daje użytkownikom tego, czego szukali.

  • Zhakowanie strony

Jeśli witryna zostanie zhakowana lub zainfekowana złośliwym oprogramowaniem, Google uzna ją za niebezpieczną. Będzie ją wtedy niejako ukrywał przed internautami, gdyż wizyta na niej naraziłaby ich na szkodę. Zhakowana witryna może również mieć ukryte w sobie linki wychodzące skierowane zazwyczaj do stron o tematyce pornograficznej, hazardowej oraz związanej z suplementami diety lub „cudownymi” lekarstwami.

  • Atak SEO

Jest to stosunkowo nowy problem w środowisku SEO. Ktoś przykładowo może nie być zadowolony z tego, jak skutecznie Twoja strona pozycjonuje się we Wrocławiu. Ucieknie się wtedy do ataku SEO. Takie celowe zagranie ma sprawić wrażenie, jakoby to ofiara ataku sama angażowała się w techniki Black Hat SEO. W przypadku powodzenia Google nałoży karę na cel ataku. Jest to bardzo nieczysta zagrywka, która będzie dodatkowo trudna do wykrycia. Atak SEO jest dlatego skutecznym narzędziem dla pozbawionych skrupułów firm lub cyberprzestępców.

Najpopularniejsza forma negatywnego SEO wykorzystuje farmy linków, przesyłając do nich Twój adres URL w nadziei, że Google to zauważy i wymierzy karę.

Taki atak może zostać także skierowany w Twój content i polegać na fałszywych zarzutach o nadużycie praw autorskich. Niektórzy mogą nawet posunąć się tak daleko, aby skopiować Twoje treści na swoją stronę, a następnie sfałszować daty publikacji contentu, aby wyglądało na to, że to Ty ukradłeś ich treści!

Od czasu do czasu, ataki SEO mogą obejmować także bezpośrednie włamania na stronę, chociaż jest to raczej rzadkie. Istnieją przypadki, w których hakerzy zmienili meta dane witryny lub plik robots.txt, aby wywołać karę od Google.

Dobra wiadomość jest jednak taka, że Google jest bardzo świadomy takich praktyk i będzie skory do pomocy, jeśli przedstawisz odpowiednie dowody na swoją obronę.

Jak odwrócić skutki kary od Google?

Nałożenie kary to nie koniec obecności Twojej witryny w sieci. Istnieją sposoby, aby odwrócić efekty takiego wydarzenia. Na początek jednak musisz się upewnić, czy faktycznie została nałożona na Ciebie kara.

W sytuacji, gdy została ona naniesiona ręcznie, sprawa jest bardziej klarowna. Otrzymasz wtedy powiadomienie przez Google Search Console, na które możesz odpowiedzieć. Niemniej jednak taka sytuacja będzie wymagać bezpośredniego kontaktu z Google oraz wyjaśnienia pochodzenia problemu, jak i jego proponowanego rozwiązania.

Inaczej prezentuje się sytuacja, gdy kara wynikła przez działanie algorytmu. Wtedy musisz podjąć inne kroki, aby mieć pewność, do czego doszło.

  • Wyklucz inne możliwości

Objawem nałożonej kary jest naturalnie spadek ruchu na witrynie. Jednak może on mieć różne inne przyczyny:

  • Problemy z serwerem.
  • Plik robots.txt blokuje dostęp do niektórych podstron.
  • Problemy z crawlingiem.
  • Nieodpowiednie przekierowania.
  • Skuteczne pozycjonowanie się konkurencji (w tym przypadku już etyczne).
  • Sezonowość branży – niektóre okresy charakteryzują się znacznym spadkiem zainteresowania.

Postaraj się zatem ustalić, czy któreś z tych czynników nie wpłynęły czasem na zmianę w rankingach.

  • Miej na oku aktualizacje Google

Nie wiedząc, jakie kroki Google podejmuje w ostatnim czasie, trudno będzie Ci ustalić, co mogło wpłynąć na Twoje rankingi. Na przykład w październiku 2014 roku wiele osób uważało, że miało do czynienia z aktualizacją Pingwina, podczas gdy była to rozszerzona aktualizacja Pandy.

Liczne strony odnotowują spadek w SERP-ach tuż po wprowadzeniu większych aktualizacji w algorytmie Google. Nie oznacza to, że masowo otrzymują one kary – po prostu Google tuż po wprowadzeniu większych zmian musi się niejako ustabilizować.

Miej na oku dlatego to, jak Twoja strona pozycjonuje się we Wrocławiu, korzystając z Google Analytics. Jeśli zauważysz znaczny spadek, sprawdź następnie, czy Google nie wprowadzał żadnych zmian w ostatnim czasie.

Samą historię aktualizacji oraz informacje o potencjalnych nowych możesz znaleźć z pierwszej ręki tutaj i tutaj. Oprócz tego MozCast w graficzny sposób prezentuje „pogodę”, jaka panuje w ostatnim czasie w wynikach wyszukiwania. Im bardziej „burzliwa i gorąca”, tym większe wahania miały miejsce w pozycjach stron internetowych. Może to pośrednio wskazywać na zmiany w algorytmie.

MozCast - The Google Algorithm Weather Report

Skorzystaj także z narzędzia Website Penalty Indicator, aby sprawdzić, co działo się z Twoją witryną w przeszłości w stosunku do ostatnich aktualizacji:

Website Penalty Indicator

Narzędzie to jednak skupia się na głównych aktualizacjach, a dane dotyczące ruchu są do pewnego stopnia poglądowe. Niemniej jednak pozwoli Ci mieć pewien wgląd w to, jak wygląda historia Twojej witryny.

  • Przeanalizuj swoje linki 

Niezależnie od tego, czy mówimy o karze ręcznej, czy nałożonej przez algorytm, będziesz musiał przeanalizować linki zwrotne Twojej strony i zidentyfikować te, które spowodowały spadek rankingu.

Aby je znaleźć, podejmij następujące kroki:

  1. Przejdź do Google Search Console (narzędzia dla webmasterów).
  2. W menu po lewej stronie kliknij Ruch związany z wyszukiwaniem.
  3. Następnie Linki do Twojej witryny.
  4. Po prawej stronie zobaczysz informacje na temat linków do Twojej strony. W podpunkcie Źródła największej liczby linków dowiesz się, skąd otrzymujesz ich najwięcej.
  5. Pod owym zestawieniem kliknij Więcej, aby zobaczyć je wszystkie. Pojawi się tam także opcja, która pozwoli Ci je wyeksportować.

Następnie takie dane najlepiej przeanalizować w odpowiednim narzędziu SEO, które pomoże Ci wykryć te niskiej jakości. Po zidentyfikowaniu takich linków pozbądź się ich lub zastosuj narzędzie disavow wobec tych, których nie możesz usunąć.

Jak poradzić sobie z innymi przyczynami kar od Google?

Poniżej znajdziesz 3 problemy, które często skutkują nałożeniem kary wraz ze wskazówkami, jak im zaradzić.

  • Zhakowana strona

Hakerzy stale poszukują luk w systemach CMS, aby zawrzeć na nich złośliwe treści i linki. Takie ataki są często zamaskowane i trudne do znalezienia oraz naprawienia.

Kiedy Google zda sobie sprawę z tego, że doszło do zhakowania witryny, może pokazywać komunikat Ta witryna może być zaatakowana przez hakerów.

witryna zaatakowana przez hakerów

Rozwiązanie:

  1. Skontaktuj się ze swoim dostawcą hostingu oraz zespołem wsparcia technicznego.
  2. Wprowadź kwarantannę witryny, aby zapobiec dalszym szkodom.
  3. Użyj Search Console, aby zidentyfikować typ włamania.
  4. Oszacuj uszkodzenia w przypadku spamu lub złośliwego oprogramowania.
  5. Zidentyfikuj lukę, aby dowiedzieć się, w jaki sposób włamał się haker.
  6. Oczyść witrynę, aby zamknąć lukę, którą wykorzystał haker.
  7. Poproś o sprawdzenie strony przez Google, aby ostrzeżenie o zhakowaniu witryny zostało zdjęte.

Zawsze dbaj o bezpieczeństwo swojej strony. Pamiętaj o aktualizacjach systemu CMS oraz korzystaniu z odpowiednich programów antywirusowych i innych zabezpieczeń.

  • Hosting słabej jakości

Darmowy hosting może wydawać się oszczędny, ale to tylko pozory. Zwykle takie rozwiązania swoją darmowość nadrabiają tym, że na witrynach z nich korzystających pojawia się mnóstwo reklam, których nie można kontrolować. Google może nawet wymierzyć kroki przeciwko dostawcom, którzy oferują tego typu usługi.

Rozwiązanie:

  1. Przenieś witrynę na hosting wysokiej jakości.
  2. Poproś Google o ponowne sprawdzenie witryny, gdy migracja zostanie zakończona.

Unikaj darmowych hostingów i zainwestuj w ten wysokiej jakości – przełoży się to na bezpieczeństwo i szybkość działania witryny.

  • Spam generowany przez użytkowników

Spam tworzony przez innych internautów to często tania reklama usług/produktów oraz próby zamieszczenia linków zwrotnych. Najczęściej takie treści można znaleźć na forach, komentarzach oraz profilach użytkowników.

Rozwiązanie:

  1. Zidentyfikuj strony, na których użytkownicy mogą zostawiać komentarze.  
  2. Poszukaj spamu w: reklamach prezentujących się jako komentarze, uwagach zawierających nieistotne linki, spamerskich nickach jak tanie pozycjonowanie Wrocław, automatycznie wygenerowanych, ogólnych lub niezwiązanych z tematem komentarzach.
  3. Usuń wszelki spam i nieodpowiednią zawartość.
  4. Zapobiegaj publikacji komentarzy, które nie przeszły moderacji.
  5. Poproś Google o ponowne sprawdzenie Twojej witryny, gdy będzie z nią już wszystko w porządku.

Nie pozwalaj, aby niemoderowane treści pojawiały się na Twojej stronie.

Jeśli jednak pomimo wszelkich prób usunięcia przyczyn kar nadal nie możesz się jej pozbyć, zapewne konieczne będzie zwrócenie się do odpowiedniej firmy SEO, która pomoże w takiej sytuacji. W ostateczności może nawet i trzeba będzie po prostu przenieść się na inną domenę.

W poprzednich częściach artykułu wspominaliśmy o nieetycznych sposobach wykorzystywanych przy pozycjonowaniu stron. Zaznaczyliśmy także, że Google może wymierzać za takie praktyki kary.

Dlaczego jednak Google postrzega wybrane działania tak, a nie inaczej? Duże znaczenie mają tutaj regularnie wprowadzane oraz aktualizowane algorytmy. Omówimy sobie teraz 3 najważniejsze z nich, które pojawiły się w ostatnich latach.

Algorytm Panda

Content is King – to nie ulega wątpliwości. Jednak niektórzy, mając świadomość tego, jak treści są ważne dla Google, zaczęli wykorzystywać je w nieodpowiedni sposób. Powstawały dlatego całe strony internetowe określane jako farmy contentu.

Publikowano na nich w bardzo dużych ilościach treści niskiej jakości. Ich celem było pozycjonowanie się na popularne frazy kluczowe, które miały zapewnić wiele wizyt. Jednak same teksty nie dostarczały praktycznie żadnej konkretnej wartości dla użytkownika, a witryny były głównie wypełnione reklamami.

Przykładowo ktoś mógłby pozycjonować się w ten sposób na frazę pozycjonowanie stron we Wrocławiu. Treści, za pomocą których by to robił, byłyby bardzo niskiej jakości i nie dostarczałyby praktycznie żadnych przydatnych informacji odnośnie do samego pozycjonowania. Na stronie znaleźlibyśmy za to do pewnego stopnia tematycznie powiązane reklamy dotyczące choćby hostingu czy domen.

Google postanowiło dlatego zdecydowanie położyć kres takim działaniom.

Najważniejsze informacje odnośnie do algorytmu Panda

Nazwa pochodzi od inżyniera oprogramowania Google, który nazywa się Navneet Panda. Jednym z jego głównych zadań było opracowywanie technologii odpowiednich za ulepszanie jakości wyszukiwania – dlatego też miał duży udział w stworzeniu algorytmu nazwanego jego nazwiskiem.

Pandę wprowadzono 24 lutego 2011 roku. Aktualizacja natychmiastowo wpłynęła na pozycje licznych stron w Google, co wskazywało na efektywność funkcjonowania algorytmu.

Jak się okazało, najbardziej ucierpiały właśnie strony typu content farms oraz inne witryny, które polegały na niskiej jakości treściach (przykładowo generowanych automatycznie).

Firma Sistrix sporządziła nawet zestawienie anglojęzycznych stron, które najbardziej ucierpiały w wyniku Pandy:

lista 25 największych przegranych po wdrożeniu algorytmu panda

Początkowo zmiany w dużym stopniu dotknęły także małych przedsiębiorców, których witryny zwykle były mniej bogate w treść w porównaniu do rozbudowanych serwisów. Nieodpowiednio zoptymalizowany algorytm mógł uznać zatem takie strony za niskiej jakości.

Niemniej jednak z czasem działanie Pandy się udoskonaliło. W końcu sytuacja wręcz odwróciła się – mniejsi gracze mieli większe szanse wyróżnić się w Google jakościowym contentem, nie będąc przytłoczeni przez firmy dominujące rankingi jedynie dzięki samej ilości treści.

Algorytm Panda – porady

Co zrobić, jeśli podejrzewasz, że Twój ranking ucierpiał ze względu na działanie algorytmu Panda? Wiele osób z branży SEO zaleca po prostu usunięcie dużej ilości contentu ze strony. Jednak dobrze podejść do tego nieco ostrożniej. Nie wystarczy pozbyć się jedynie wybranego procenta treści lub usunąć jedynie ten najstarszy.

W takiej sytuacji trzeba spojrzeć na każdą podstronę z osobna i ocenić jej wartość. Na pewno nie chciałbyś usunąć tych, które tak naprawdę pomagają.

Gdy niektóre strony zostaną dotknięte przez Pandę, wielu doszukuje się problemu z duplikacją treści. Choć oczywiście zawsze warto eliminować ten problem, to jednak nie ma on żadnego powiązania z samym działaniem Pandy.

Potwierdził to także sam John Mueller:

W innym miejscu John Mueller szerzej wypowiedział się na ten temat:

Gdybyś zapytał mnie, gdzie mam ustalić priorytety czasowe dla tej strony internetowej, umieściłbym takie „techniczne powielanie treści” raczej dość nisko na liście. Oczywiście, warto to zrobić, ale nie będzie to krytyczny czynnik. Nasze algorytmy są całkiem niezłe w radzeniu sobie z powielaniem treści w obrębie samej strony internetowej.

Lepiej dlatego w pierwszej kolejności skupić się na tym, za co ukarał Algorytm Panda, a później wyeliminować problemy z duplikacją treści.

Aktualizacje kolejnych wersji Algorytmu Panda

Oto zestawienie kolejnych najważniejszych zmian w Algorytmie Panda:

  • 11 kwietnia 2011 – Panda 2.0: Ten update był powiązany głównie z wyszukiwarkami Google w innych językach jak google.fr czy google.de. Celem było wyeliminowanie anglojęzycznych wyników przy nieanglojęzycznych zapytaniach.
  • 12 sierpnia 2011 – Panda 2.4: Pierwsze wdrożenie algorytmu Panda w Polsce. Po drodze miało miejsce także wprowadzenie kolejnych sygnałów odpowiedzialnych za ocenę jakości stron jak choćby współczynnika konwersji.
  • 28 września 2011 – Panda 2.5: Google zachęca do aktualizacji starych treści. Oprócz tego 3 razy zaktualizowało algorytm w następnym miesiącu.
  • 18 listopada 2011 – Panda 3.1: Aktualizacja dotyczyła zaledwie jednego procenta zapytań, ale i tak widocznie ulepszyła jakość wyników wyszukiwania.
  • 19 maja 2014 – Panda 4.0: Tę aktualizację najbardziej odczuły większe portale internetowe jak Amazon, Allegro itp.
  • Styczeń 2016: Panda oficjalnie staje się częścią rdzennego algorytmu Google. Oznacza to, że nie będą już więcej publikowane informacje o aktualizacji „osobnego” algorytmu, a wszelkie zmiany będą także mniej wyczuwalne.

Algorytm Pingwin

Pingwin jest do pewnego stopnia powiązany z Pandą. Dlaczego? Otóż duże ilości niskiej jakości treści często były wykorzystywane także do sztucznego linkowania. Na polskim rynku swego czasu bardzo popularne było zamawianie tzw. precli:

precle seo

Były to bardzo krótkie teksty, które zawierały w sobie wybraną frazę kluczową np. pozycjonowanie stron we Wrocławiu. Następnie takie teksty w masowej ilości publikowano na specjalnie przygotowanych blogach. W obranej frazie zawarty był także link kierujący do witryny, która chciała w ten sposób wypozycjonować się na obrane słowo kluczowe.

Aby zaradzić takiej i podobnym praktykom nieuczciwego zdobywania linków, Google podjęło odpowiednie działania.

Najważniejsze informacje odnośnie do algorytmu Pingwin

Algorytm Pingwin został wprowadzony 24 kwietnia 2012 roku. Jego celem było lepsze ocenianie jakości linków oraz zdecydowane zwalczanie tych spamowych. Po jego wprowadzeniu natychmiastowo zauważono duże zmiany w pozycjach w wynikach wyszukiwania. Wiele stron zostało ukaranych nawet ręcznie. Niestety, „dostało się” także uczciwym i szczerym przedsiębiorcom, którzy korzystali ze słabych technik linkowania.

Przed Pingwinem sama ilość linków miała zbyt duże znaczenie dla pozycji w Google. W wyniku tego najwyższe pozycje zajmowały strony, które na to nie zasługiwały. Dzięki aktualizacji algorytm mógł lepiej oceniać linki, co przyczyniało się do tego, że te jakościowe były lepiej rozpoznawalne, a te spamowe wykrywane i odpowiednio potraktowane.

Początkowo Pingwin nie działał w czasie rzeczywistym. Sprawiało to, że strony, które w wyniku jego działań utraciły pozycje, musiały czekać na kolejną większą aktualizację, aby mieć szansę na poprawę. Oprócz tego ewentualna kara była wymierzana w całą witrynę, a nie poszczególne podstrony, do których kierowało najwięcej linków słabej jakości.

Algorytm Pingwin – porady

Pingwin jest najbardziej wrażliwy na dwie poniższe techniki:

  • Nieetyczne zdobywanie linków

Polega ono na tworzeniu lub kupowaniu linków ze stron niskiej jakości albo z niepowiązanej tematycznie branży. Tworzy to sztuczne wrażenie popularności strony, która otrzymuje linki. Przykładowo ktoś, wykonując pozycjonowanie strony restauracji we Wrocławiu, może zapełniać fora internetowe komentarzami najlepsza restauracja we Wrocławiu wraz z linkiem do swojej witryny.

Podobnie ta sama firma mogłaby zapłacić za umieszczenie linków o podobnej treści na blogu związanego z motoryzacją – czymś, co w ogóle nie ma związku z samą restauracją.

  • Keyword stuffing

Umieszczanie w treści strony dużej ilości powtarzających się słów kluczowych, aby w sztuczny sposób podnieść na nie pozycje.

Co zrobić, jeśli podejrzewasz, że Twój ranking ucierpiał ze względu na działanie algorytmu Pingwin? Wszystko sprowadza się w zasadzie do poniższych czynności:

  • Zidentyfikuj wszystkie linki, które kierują do Twojej strony.
  • Ustal, które z nich są niskiej jakości.
  • Jeśli możesz, usuń niechciane linki.
  • W przypadku linków przychodzących, nad którymi nie masz kontroli, zrzeknij się ich za pomocą narzędzia disavow.

Kiedy to zrobisz, Google ponownie dokona crawlingu Twojej strony i dokona zmian w jej ocenie w zależności od Twoich działań. Do 2016 roku czas oczekiwania trwał nawet rok i więcej, gdyż Pingwina aktualizowano tylko raz lub dwa razy w roku. Teraz funkcjonuje on w czasie rzeczywistym i wszelkie zmiany na lepsze w strukturze linków dostrzega praktycznie od razu. Oprócz tego, jeśli wymierza karę, to dotyka ona poszczególnych podstron, a niekoniecznie całej witryny.

Aktualizacje kolejnych wersji Algorytmu Pingwin

Oto zestawienie kolejnych najważniejszych zmian w Algorytmie Pingwin:

  • 5 października 2012 – Pingwin 1.2: Odświeżenie danych (czyli ponowny crawling stron w celu ustalenia, czy wprowadzono jakieś zmiany w linkowaniu). Aktualizacja odnosiła się głównie do stron napisanych w popularnych językach jak angielski czy niemiecki.
  • 22 maja 2013 – Pingwin 2.0: Bardziej zaawansowana technicznie wersja Pingwina. Update wpłynął na zauważalny ułamek zapytań we wszystkich językach. Od tej pory algorytm, analizując strukturę linków, brał pod uwagę nie tylko główne strony witryny, ale i także te położone głębiej.
  • 17 października 2014 – Pingwin 3.0: Mimo nazwy wskazującej na kolejną główną aktualizację, było to po prostu kolejne odświeżenie danych.
  • 23 września 2016 – Pingwin 4.0: Właśnie od tego momentu Pingwin (podobnie jak wcześniej Panda) stał się częścią rdzennego algorytmu Google. Dzięki temu dostrzegał wszelkie wprowadzane zmiany w struktury linkowania stron na bieżąco.

Algorytm Koliber

Słowa kluczowe mają w SEO duże znaczenie. Jednak komunikując się ze sobą na co dzień, nie posługujemy się sztywnymi tematycznymi frazami. Google dąży z drugiej strony do tego, aby był w stanie udzielić informacji nawet na najbardziej rozbudowane i oryginalne zapytania.

Jakie zatem kroki zostały w tym kierunku podjęte?

Najważniejsze informacje odnośnie do algorytmu Koliber

26 września 2013 roku miały miejsce 15 urodziny Google. Zorganizowano wtedy specjalne spotkanie w garażu w Menlo Park, Kalifornia, który stanowił pierwszą siedzibę dzisiejszego giganta.

Ogłoszono wtedy jednocześnie wydanie nowego algorytmu Hummingbird (po polsku koliber). Zaznaczono, że wpłynie on na więcej niż 90% zapytań na całym świecie. Niektórzy z pracowników Google uznali go za najważniejszą zmianę w algorytmie od 2001 roku.

Czy jego początki były także tak burzliwe jak w przypadku Pandy i Pingwina? Okazało się, że nie. Tak naprawdę Matt Cutts, zaznaczył, że sam algorytm wprowadzono w życie już na miesiąc przed oficjalnym ogłoszeniem.

Koliber nie miał dlatego natychmiastowego i drastycznego wpływu na wyniki wyszukiwania. Jego znaczenie tłumaczono na przykładzie samochodu. Panda i Pingwin były jak wymiana oleju oraz filtrów. Natomiast Koliber był odpowiednikiem zainstalowania całkowicie nowego silnika. Google nie zmieniło na nowo tego, jak działa jego wyszukiwarka – po prostu używa lepszych „części”.

Koliber jednocześnie usprawnił pewien ważny element – semantyczne wyszukiwanie.

Zanim wytłumaczymy sobie dokładnie znaczenie tego pojęcia, wspomnijmy o tym, że na rok przed ogłoszeniem Kolibra, Google uruchomiło swój Knowledge Graph. Jest to tak naprawdę zestaw funkcji, które pozwalają na udzielanie szybkich i dokładnych odpowiedzi na temat ludzi, organizacji, miejsc itp.

Działanie tej technologii możesz zobaczyć na poniższym przykładzie:

knowledge graph

Google pokazuje oczywiście wyniki organiczne, ale potrafi także skojarzyć ze sobą w zasadzie niepowiązane terminy (jak imię i nazwisko oraz statystyki) i wyciągnąć samodzielnie najważniejsze interesujące nas dane. Niejako domyśla się, że gdy zestawimy nazwę piłkarza oraz statystyki, pytającemu chodzi o mecze, zdobyte bramki, konkretne rozgrywki itp.

Wyszukiwanie semantyczne ma dlatego na celu przełożyć wiedzę gromadzoną przez Knowledge Graph w działanie. Google próbuje dlatego dopasować odpowiednie wyniki wyszukiwania do zapytań, biorąc pod uwagę nie tylko same słowa kluczowe, ale przede wszystkim intencję.

SEO zmieniło się od wprowadzenia Kolibra. Zachęcono wtedy do używania naturalnego języka niż wymuszonego wpisywania słów kluczowych w niezmienionej formie. Zwrócono także uwagę na korzyści z optymalizacji innych elementów jak linkowania wewnętrznego, adresów URL, czy title tagów. Największy nacisk położono oczywiście na tworzenie wysokiej jakości contentu.

Same słowa kluczowe dalej mają znaczenie – jednak Koliber nadał większego znaczenia frazom z długim ogonem. Google potrafi teraz lepiej optymalizować wyniki wyszukiwania także i pod kątem takich zapytań. 

Duże znaczenie ma także lepsze rozpoznawanie przez wyszukiwarkę synonimów oraz fraz powiązanych. To właśnie dzięki temu nie jest konieczne używanie fraz kluczowych w stałej, niezmienionej formie, aby Google był w stanie dokładnie rozpoznać przesłanie treści.

Dzięki temu niezależnie od tego, czy wpisujemy zapytanie pozycjonowanie stron we Wrocławiu, pozycjonowanie Wrocław itp., Google poprawnie rozpozna, że chodzi nam o firmę oferującą usługi SEO w tym rejonie.

Algorytm Koliber – porady

Aby dostosować się do zmian, jakie wprowadził Koliber, wystarczy iść po prostu naprzód z postępującą ewolucją SEO. Oznacza to, że powinieneś zwrócić uwagę na takie elementy jak:

  • Mobile – na urządzeniach przenośnych znacznie częściej korzystamy z zapytań głosowych. Są one z reguły dłuższe i bardziej naturalne, czyli dokładnie takie, do jakich dostosowuje się Koliber. Z tego powodu optymalizacja pod urządzenia mobilne jest kluczowa.
  • Dane strukturalne – udzielaj Google jak najwięcej informacji na temat rodzaju zawartości contentu Twojej strony. Jeśli odpowiedź na zapytanie pojawi się w formie rich snippetu zaciągniętego z Twojej witryny, będzie to stanowić kolejną zachętę do jej odwiedzenia.
  • Optymalizacja słów kluczowych – słowa kluczowe nie są bez znaczenia. Oczywiście najważniejsze jest skupianie się na tworzeniu użytecznego i jakościowego contentu, ale optymalizacja go pod odpowiednie frazy wciąż może wiele pomóc.

SEO wymaga obecnie także lepszego zrozumienia swojej grupy docelowej. Optymalizacja witryny nie powinna się już zaczynać od samego stworzenia listy słów kluczowych, co bardziej zrozumienia tego, czego chcą Twoi docelowi odbiorcy.

Obecnie w świecie marketingu coraz większe znaczenie mają persony klientów. Ustalenie takiego profilu odbiorcy pozwoli lepiej zrozumieć to, co go interesuje i jakich odpowiedzi będzie szukał, analizując Twój content.

Wyszukiwanie słów kluczowych wciąż daje wgląd w to, co interesuje odbiorców. Jednak konieczne jest teraz pójście o krok dalej, poza same dane. Jeśli ktoś wpisuje zapytanie typu pozycjonowanie stron we Wrocławiu, raczej wiadomo, czego chce. Jeśli jednak kto inny dodaje przy tym tanie, otrzymujemy pewną informację na temat tego, jaką kwotę zamierza zainwestować w SEO. Dobrze będzie zatem w odpowiednio wypozycjonowanym artykule przedstawić takiej osobie, czy warto faktycznie inwestować w tanie pozycjonowanie i jakie może to nieść ze sobą ryzyko.

Algorytm Pirat

Piractwo stało się istotnym zjawiskiem w dzisiejszej cyfrowej erze. Chociaż wiele dużych firm, takich jak Sony i Disney, próbuje zdecydowanie walczyć z problemem piractwa, to jednak nie udało im się uzyskać takich efektów, jakie chcieli.

Oczywiście Google nie produkuje pirackich treści. Chcąc nie chcąc, odgrywa jednak istotną rolę w dystrybucji takich materiałów. W końcu to owa wyszukiwarka indeksuje strony zawierające skradzione materiały chronione prawem autorskim. Niemniej jednak gigant z Kalifornii podjął konkretne działania w celu zwalczania tego problemu.

Najważniejsze informacje odnośnie do algorytmu Pirat

Google wprowadził tzw. Pirate Update w sierpniu 2012 roku. Jego celem było skuteczne rozpoznawanie i karanie witryn w wynikach wyszukiwania, co do których zgłaszano uwagi o naruszenie praw autorskich poprzez narzędzie DMCA.

Oto lista stron, które zostały najbardziej ukarane w wyniku wprowadzonego algorytmu:

strony ukarane w wyniku wprowadzonego algorytmu pirat

Źródło: https://edit.co.uk/blog/google-pirate-algorithm/

Google Pirate Update jest w zasadzie filtrem – ma on zapobiegać temu, aby strony omawianego typu nie pojawiały się wysoko w wynikach wyszukiwania. Do algorytmu od czasu do czasu wprowadzane są aktualizacje. Dzięki nim strony, które wcześniej wymknęły się filtrowi, mogą zostać w końcu ukarane.

Korzyścią wynikającą z wprowadzenia tego algorytmu jest to, że strony uczciwych osób nie będą pojawiać się w organicznych wynikach wyszukiwania obok tych łamiących prawa autorskie.

Mobilegeddon

Główną misją Google zawsze było jak najlepsze dostarczanie treści istotnych dla użytkowników.  Oprócz samej jakości i dokładności zwracanych wyników wyszukiwania duże znaczenie ma także wygoda internautów. Coraz więcej zapytań wprowadzanych jest z urządzeń mobilnych. Z tego powodu Google zdecydowało się wprowadzić zmiany w algorytmie, które położą większe znaczenie na mobile.

Najważniejsze informacje odnośnie do Mobilegeddon’u

21 kwietnia 2015 roku Google opublikował znaczący algorytm, którego celem było nagradzanie w wynikach wyszukiwania stron przyjaznych dla urządzeń mobilnych. Zmiana nie miała wpływu na zapytania wprowadzane na komputerach stacjonarnych i laptopach.

Aktualizacja była tak istotna, że data wprowadzenia algorytmu jest określana różnymi nazwami. Można spotkać takie określenia jak mobilegeddon, mobilpocalyse, mopocalypse lub mobocalypse.

Firma BrightEdge prześledziła ponad 20 000 adresów URL od czasu aktualizacji. Adresy niedostosowane do mobile znajdujące się na pierwszych 3 stronach wyników wyszukiwania zanotowały spadek wynoszący 21%.

mobilegeddon wyniki w serpach strona 3

Źródło: https://www.brightedge.com/blog/non-mobile-friendly-share-of-serps-decreases-21-with-april-21-mobile-algorithm-change/

Jak uwzględnić owe zmiany, jeśli chodzi o pozycjonowanie Twojej strony we Wrocławiu? Najlepszym sposobem jest posiadanie tzw. responsywnej strony, która będzie wyświetlać się poprawnie niezależnie od typu oraz rozdzielczości urządzenia. Google wydało także specjalne narzędzie, dzięki któremu będziesz mógł sprawdzić dostosowanie swojej witryny do mobile.

RankBrain

Google obsługuje coraz więcej zapytań, które stają się jednocześnie znaczniej złożone. Wiele z nich jest także zupełnie unikalnych – nikt wcześniej nie wpisywał ich w takiej formie w wyszukiwarkę. Jak zatem Google ma radzić sobie z tym wyzwaniem?

Najważniejsze informacje odnośnie do RankBrain

26 października 2015 roku Google oficjalnie potwierdziło, że korzysta z RankBrain. Czym on dokładnie jest?

RankBrain jest algorytmem uczenia się maszynowego, który Google wykorzystuje do organizacji wyników wyszukiwania. Pomaga on również przetwarzać i rozumieć wprowadzane zapytania. 

Co jest w nim szczególnego?

Przed wprowadzeniem omawianej aktualizacji główny algorytm wyszukiwania był tworzony w 100% ręcznie. Google wykorzystywał swój podstawowy algorytm do określenia, które wyniki pokażą się dla danego zapytania. Po wprowadzeniu RankBrain zapytanie przechodzi przez model interpretacji, który bierze pod uwagę takie czynniki jak lokalizacja pytającego, czy wcześniejsze zachowanie, aby określić prawdziwą intencję kryjącą się za wpisanym hasłem. Rozeznając tę prawdziwą intencję, Google może dostarczyć lepsze wyniki.

Czym jest owa intencja? Załóżmy, że użytkownik wprowadza zapytanie Mistrzostwa Świata w Piłce Nożnej. Czy ma na myśli rozgrywki, które tyle co się zakończyły, czy może te, które dopiero zaczną się za kolejne 4 lata? A może mistrzostwa właśnie trwają i pytający znajduje się w hotelu oraz szuka wskazówek, jak dostać się na stadion, na którym odbędzie się kolejny mecz?

To właśnie w tego typu skomplikowanej, ale często spotykanej sytuacji w grę wchodzi RankBrain. Dzięki zaawansowanym matematycznym zdolnościom algorytm może dostrzec wzorce w zachowaniach osób korzystających z wyszukiwarki. Dzięki temu może dojść do zwykle trafnego wniosku, że użytkownik wprowadzający omawiane hasło zwykle szuka informacji na temat kraju, w którym odbędą się następne rozgrywki.

RankBrain – porady

Jak możesz uwzględnić tę wiedzę podczas pozycjonowania strony we Wrocławiu? Rada nie jest skomplikowana. Po prostu staraj się publikować treści, które brzmią naturalnie. Jeśli będziesz próbować pisać „sztywno” pod wyszukiwarkę, RankBrain Cię nie zrozumie. W końcu zaprojektowano go specjalnie w tym celu, aby rozpoznawał unikalne i naturalne zapytania – wykorzystaj ten fakt, aby tym bardziej skupić się na dostarczaniu prawdziwej wartości odbiorcom.

Aktualizacja Fred

Google stale dostosowuje i regularnie aktualizuje swoje algorytmy wyszukiwania. Nie wszystkie jednak są odpowiednio szybko ogłaszane, a zakres ich wpływów także się różni. Omawiana teraz aktualizacja była za to jedną z najbardziej dotkliwych w ostatnich czasach.

Najważniejsze informacje odnośnie do algorytmu Fred

Google Fred to seria aktualizacji wyszukiwarki Google, które miały miejsce w marcu 2017 roku. Nazwa owym aktualizacjom została nadana żartobliwie przez Gary’ego Illyesa, analityka trendów w Google. Illyes napisał, że jeśli nie zaznaczy się inaczej, od teraz każda aktualizacja wyszukiwarki Google będzie nazywać się Fred.

twitt Gary Illyes aktualizacja Fred

W tym czasie w społeczności SEO głośno zrobiło się o nowej aktualizacji algorytmu Google skierowanej w Black Hat SEO. Google Fred spowodował ogromną zmianę w rankingach i ruchu na stronach stosujących nieetyczne sposoby pozycjonowania oraz agresywną monetyzację.

Nie oznacza to, że ukarane zostały jedynie strony stworzone z myślą o łatwym zysku z reklam. Ucierpiały wszystkie witryny, które miały ich nieproporcjonalnie dużą liczbę, nie dostarczając przy tym większej wartości dla użytkownika.

Algorytm Fred – porady

Czego zatem unikać, aby nie zaszkodzić pozycjonowaniu swojej strony we Wrocławiu? Fred szczególnie kara za następujące praktyki:

  • Ogromna ilość reklam.
  • Treści (zwykle wpisy na bloga) tworzone na praktycznie wszystkie tematy, aby tylko zyskać ruch.
  • Content niskiej jakości posiadający do tego zbyt dużą liczbę linków afiliacyjnych.
  • Podstępne reklamy (np. przycisk przypominający ten używany w celu pobrania pliku, który jednak otwiera reklamę).
  • Problemy z dostosowaniem do mobile.
  • Skonstruowanie strony jedynie z myślą o afiliacji.
  • Agresywna monetyzacja.

Algorytm Gołąb

Zapytania wprowadzane lokalnie (np. mechanik samochodowy + nazwa miasta) to do pewnego stopnia element SEO rządzący się swoimi prawami. Nie umyka on uwadze Google, stąd stworzono aktualizację specjalnie poświęconą temu zagadnieniu.

Najważniejsze informacje odnośnie do algorytmu Gołąb

Aktualizacja ukazała się 24 lipca 2014 roku. Jej celem było zwiększenie rankingu ofert lokalnych w wynikach wyszukiwania. Google zaznaczyło, że nowy algorytm wiąże się na głębokim poziomie z innymi elementami wyszukiwarki jak sygnały rankingowe, Knowledge Graph, korekta słów itp. Usprawnia on także to, w jaki sposób wyszukiwarka uwzględnia dystans oraz lokalizację podmiotów lokalnych odnośnie do ich pozycji w SERP-ach.

Algorytm Gołąb – porady

Pozycjonowanie strony we Wrocławiu, na którym zapewne Ci zależy, to, innymi słowy, pozycjonowanie lokalne. Z tego powodu warto uwzględnić to, co wprowadziła omawiana aktualizacja:

  1. Pozycja w wynikach organicznych

Jednym z deklarowanych przez Google celów aktualizacji Gołąb było głębsze połączenie ich lokalnego algorytmu z tradycyjnym algorytmem sieciowym, aby w pełni wykorzystać znaczenie setek sygnałów rankingowych. Te nowe powiązania jeszcze bardziej podkreśliły potrzebę posiadania przez lokalne firmy silnej organicznej obecności w sieci, aby konkurować o lokalne rankingi.

  1. Nazwa lokalna w title tagach

Dobrą wskazówką w przypadku Twojej lokalnej strony będzie zamieszczenie nazwy miasta/województwa w jej title tagu.

  1. Posiadanie wizytówki w Moja Firma

Stworzenie wizytówki swojej lokalnej firmy jest świetnym sposobem na włączenie jej do lokalnego indeksu Google. Pamiętaj przy tym o tym, aby dokonać jej weryfikacji, wybierając jeden z dostępnych sposobów.

Algorytm Payday Loan

Niektóre zyskowne branże w szczególności wykorzystują możliwości marketingu internetowego, aby promować swoje oferty. Często jednak prowadzi to do tego, że przedsiębiorcy wykorzystują nieuczciwe metody pozycjonowania, a jakość ich oferty także pozostawia wiele do życzenia. W tym celu powstał kolejny algorytm.

Najważniejsze informacje odnośnie do algorytmu Payday Loan

Aktualizacja Payday Loan została uruchomiona 11 czerwca 2013 roku. Jest to zestaw aktualizacji algorytmów, jak i kolejne etapy odświeżania danych wyszukiwarki, które mają pomóc w identyfikacji i karaniu stron internetowych wykorzystujących Black Hat SEO. W większości przypadków zmiany dotknęły zapytań związanych z szybkimi kredytami gotówkowymi, konsolidacją zadłużeń, farmaceutyką, hazardem czy pornografią. Wynikało to z tego, że w owych branżach można znaleźć liczne krótkie, popularne i bardzo konkurencyjne słowa kluczowe. Często dochodziło dlatego do pozycjonowania się na nie poprzez nieodpowiednie techniki.

Aktualizacja jest w większym stopniu oparta na linkach i skupia się na słowach kluczowych z dużą ilością wyszukiwań, jak i kosztem za kliknięcie, w których potencjalny udział spamu w wynikach wyszukiwania zwykle jest bardzo wysoki.

Choć Payday Loan dotyka zagadnień i problemów podobnych jak Panda, to jednak jego działanie miało znacznie mniejszą skalę. Matt Cutts w okolicach wprowadzenia algorytmu zaznaczył, że zmiany dotknęły 0,3% wszystkich zapytań w Stanach Zjednoczonych. Jednak liczba ta różniła się w zależności od kraju. Dla przykładu w Turcji aktualizacja Payday Loan miała wpływ na 4% wszystkich wprowadzanych wyszukiwań.

Aktualizacje kolejnych wersji Algorytmu Payday Loan

Google wprowadził pierwszy algorytm Google Payday Loan 11 czerwca 2013 roku.

Wersja 2.0 algorytmu zadebiutowała 16 maja 2014 roku, a 12 czerwca 2014 roku ukazała się wersja 3.0. Aktualizacja 2.0 koncentrowała się bardziej na targetowaniu stron internetowych zawierających spam, podczas gdy celem 3.0 było rozwiązywanie problemów ze spamerskimi frazami (czyli takich, które pochodzą ze wspomnianych wcześniej branż).

PageRank

W świecie nauki jednym z lepszych czynników wskazujących na jakość i renomę danego badania jest to, jak często powołują się na nie inne badania. Twórcy wyszukiwarki Google, projektując swoje narzędzie, postanowili zatem wyjść z podobnego założenia w kwestii sortowania i oceniania wyników wyszukiwania. Tak właśnie powstały podstawy PageRanku’u.

Najważniejsze informacje odnośnie do PageRank’u

PageRank działa poprzez zliczanie liczby i jakości linków kierujących do danej strony w celu ustalenia tego, jak istotna jest owa strona internetowa. Podstawowym założeniem jest to, że im ważniejsza witryna, tym będzie otrzymywać więcej linków z innych stron.

PageRank opiera się na demokratycznej naturze Internetu, wykorzystując jej rozległą strukturę linków jako wskaźnik wartości danej strony. Google interpretuje link ze strony A na stronę B jako głos poparcia udzielony przez stronę A stronie B. 

Oczywiście Google zwraca uwagę na inne czynniki niż samą liczbę linków. Analizuje również stronę, która „oddała głos”. Głosy oddane przez strony, które są, ogólnie rzecz biorąc ważne, mają większe znaczenie i bardziej przyczyniają się do uznania linkowanej witryny za istotną. 

Oczywiście, nawet najbardziej uznane serwisy nic nie znaczą, jeśli ich zawartość nie jest powiązana z zapytaniem. Dlatego też Google łączy PageRank z zaawansowanymi technikami dopasowywania tekstu, co pozwala mu zidentyfikować strony, które są zarówno ważne, jak i zagadnieniowo powiązane. Google wykracza daleko poza częstotliwość pojawiania się frazy na danej stronie oraz bada liczne aspekty zawartości samej strony, jak i tych, które do niej kierują.

PageRank danej strony można było sprawdzić, korzystając ze specjalnego narzędzia udostępnionego przez Google. Jednak w 2016 roku zostało ono usunięte. Dlaczego?

Jak opisywał to jeden z przedstawicieli Google:

W miarę jak Internet i nasze rozumienie jego funkcjonowania stawało się coraz bardziej złożone, wyniki dawane przez Toolbar PageRank w postaci pojedynczej, izolowanej metryki stały się mniej użyteczne dla użytkowników. Wycofanie wyświetlania wartości PageRank z paska narzędzi pomaga zapobiegać dezorientacji użytkowników i webmasterów co do znaczenia owej metryki.

Kolejnym czynnikiem, który miał w tej sytuacji duże znaczenie, był spam link.

Można powiedzieć, że branża SEO od dawna miała obsesję na punkcie PageRank’u jako czynnika istotnego dla pozycjonowania. Zapewne wynikało to z tego, że oferował on widoczny i jednoznaczny wskaźnik odnośnie do rangi strony internetowej.

Właściwie to żaden inny element wpływający na pozycjonowanie nie posiadał tak precyzyjnej i ogólnie dostępnej metryki. W rezultacie uznano PageRank za jedyny czynnik, który naprawdę ma znaczenie. Doprowadziło to do tego, że szybko zaczęto handlować linkami high PR.

Dla Google stanowiło to duży problem. Linki były świetnym wskaźnikiem jakości strony, ponieważ naturalnie zdobywały je te witryny, które na to zasługiwały. Nienaturalne linki sprawiały, że algorytm wyszukiwania stał się mniej efektywny. Aby przeciwdziałać temu procederowi, usunięto Toolbar PageRank.

PageRank – porady

Zanim odpowiemy sobie na to, jak świadomość działania PageRank’u może Ci pomóc w pozycjonowaniu strony we Wrocławiu, odpowiedzmy sobie na zasadnicze pytanie:

Czy PageRank dalej ma znaczenie?

W końcu zaznaczyliśmy przed chwilą, że Google postanowiło nie kłaść na niego już tak dużego nacisku.

Otóż okazuje się, że dalej wykorzystuje on to rozwiązanie:

page rank

Oprócz powyższej wzmianki Gary Illyes zaznaczył na jednej z konferencji w Singapurze, że PageRank jest częścią algorytmu, jednak zwykli użytkownicy nie mają już możliwości sprawdzenia jego wartości – usunięto narzędzie Toolbar PageRank.

Co więcej, PageRank nie został zapomniany w środowisku SEO. Bazując na jego założeniach takie firmy jak Moz, Ahrefs i Majestic, stworzyły swoje uznane narzędzia. 

Dlatego też, jeśli chcesz poprawić swój PageRank, skup się na:

  • Zdobywaniu i utrzymywaniu jakościowych linków wykorzystuj takie możliwości jak wpisy gościnne oraz przeprowadzaj regularne audyty, aby pozbywać się linków złej jakości.
  • Dbaj o linkowanie wewnętrzne – John Mueller zaznaczył kiedyś, aby każda podstrona znajdowała się maksymalnie 2-3 kliknięcia od strony głównej. Jeśli będzie to trudne w wykonaniu, wprowadź wewnętrzną wyszukiwarkę lub korzystaj z formy nawigacji breadcrumbs.

Exact Match Domain

Swego czasu wiele osób stosowało pewną praktykę, która miała pomagać zdobywać lepsze pozycje na wybrane słowa kluczowe. Polegała ona na kupowaniu domen, których nazwa stanowiła jednocześnie słowo kluczowe. Następnie na takiej domenie tworzono stronę, odznaczającą się jednak niską jakością. Mimo tego dzięki dopasowaniu nazwy domeny do frazy kluczowej, pozycje takiej strony nie były aż tak złe.

Z tego też powodu Google postanowiło zrobić coś z tym zjawiskiem.

Najważniejsze informacje odnośnie do Exact Match Domain

EMD, czyli aktualizacja Exact Match Domain, została wprowadzona 28 września 2012 roku.

Celem tej aktualizacji nie było ukaranie samych stron znajdujących się na domenach exact match. Chodziło o takie witryny, które łączyły EMD z niskiej jakości contentem.

Po czasie okazało się, że strony niekończące się na .com ucierpiały bardziej niż te, które posiadały taką końcówkę.

Exact Match Domain – porady

Jeśli zasady aktualizacji EMD negatywnie wpływają na pozycjonowanie Twojej strony we Wrocławiu, zalecane kroki w celu poprawy sytuacji są podobne, jak w przypadku Pandy. Powinieneś pozbyć się niskiej jakości treści oraz poprawić te, w przypadku których ma to sens.

Oprócz tego:

  • Przeprowadź audyt profilu linków, aby zidentyfikować te niskiej jakości, a następnie je usuń.
  • Regularnie dodawaj nowy, wysokiej jakości content na swoją stronę.
  • Zaangażuj się w kampanię pozyskiwania linków, aby zwiększyć zaufanie i autorytet swojej strony internetowej.

Czy warto kupić domenę exact match?

Jeśli chcesz znaleźć domenę dopasowaną do istotnej dla Ciebie frazy kluczowej, przygotuj się na przeprowadzenie szeroko zakrojonych poszukiwań. Większość dobrych domen tego typu już dawno zostało zajętych w początkowych latach Internetu. Oczywiście powstają nowe branże oraz nisze, więc dalej istnieje szansa na zdobycie świetnej EMD.

Tak czy inaczej, bądź gotów na sporą inwestycję – domeny zawierające popularne słowa kluczowe zwykle kosztują tysiące złotych.

Czy domeny omawianego rodzaju dają jakąś korzyść? Jak wspomnieliśmy, nie wiąże się już z nimi tak wielki bonus do pozycjonowania, jak to było wcześniej. Niemniej jednak dokładne dopasowanie domeny może zaspokoić intencje użytkownika oraz pomóc Twojej marce – potencjalni goście na Twojej stronie, zanim jeszcze ją odwiedzą, będą dokładnie wiedzieć, czego ona dotyczy.

Algorytm Page Layout

Jak zaznaczaliśmy wcześniej, Google chce dostarczać swoim użytkownikom jak najlepszego user experience. Internautów bardzo irytuje sytuacja, gdy po odwiedzeniu witryny, nie mogą oni znaleźć zawartości, której właśnie poszukują. Często dzieje się tak w wyniku przeładowania strony reklamami.

Jak Google odpowiedziało na ten problem?

Najważniejsze informacje odnośnie do algorytmu Page Layout

Kolejne podkreślenie znaczenia lepszego user experience i bardziej wyrafinowanego SEO mogło wydawać się przedwczesne tuż po wprowadzeniu aktualizacji Panda w 2011 roku. Niemniej jednak nie powstrzymało to Google od tego, aby 19 stycznia 2012 zaimplementować algorytm Page Layout.

Omawiany algorytm został nakierowany na witryny, które zawierały zbyt wiele reklam znajdujących się above the fold. Pojęcie to oznacza treści, które są widoczne dla odwiedzającego stronę tuż po jej odwiedzeniu. Jeśli w celu dotarcia do dalszej zawartości użytkownik musi przewijać w dół, to znajdujący się tam content jest określany below the fold.

content solutions pierwszy widok strony

Przedstawiony wyżej obraz pokazuje się tuż po odwiedzeniu strony głównej contentsolutions.pl – treści te są zatem above the fold. Wszystko, co niżej, jest below the fold.

Problem wynikał właśnie z tego, że nadmiar reklam zmuszał użytkowników do przewijania strony w dół, aby zobaczyć poszukiwaną zawartość.

Algorytm nie karał wszystkich stron, które po prostu posiadały reklamy above the fold. Reagował jedynie wtedy, gdy ich ilość była nieproporcjonalnie duża i negatywnie wpływała na user experience. 

Google zaznaczył, że algorytm miał wpływ na mniej niż 1% wszystkich stron internetowych. Aktualizacja nie dotyczyła reklam typu pop-up ani overlay.

Algorytm Page Layout – porady

Rozwiązanie jest proste – jeśli ilość reklam widocznych po odwiedzeniu strony utrudnia znalezienie ważniejszych dla użytkownika treści oraz elementów nawigacyjnych, zredukuj ich liczbę. 

Jeśli zdecydujesz się na aktualizację układu strony, algorytm automatycznie weźmie pod uwagę wprowadzone zmiany przy ponownym crawlingu i indeksowaniu witryny. Jak długo to potrwa? Zależeć to będzie od kilku czynników, w tym liczby podstron oraz efektywności bota. W przypadku typowej strony internetowej może minąć nawet kilka tygodni, zanim Googlebot przeszuka i przetworzy taką ilość podstron, aby odzwierciedlić w pozycjonowaniu Twojej witryny wprowadzone zmiany.

Ciąg dalszy nastąpi..

__

Źródła:

https://searchengineland.com/now-know-googles-top-three-search-ranking-factors-245882

https://www.google.com/search/howsearchworks/crawling-indexing/

https://support.google.com/webmasters/answer/35769

https://searchengineland.com/ex-googler-to-please-google-with-your-seo-forget-about-seo-136800

https://backlinko.com/link-building

https://developers.google.com/search/reference/overview

https://yoast.com/elements-of-the-google-search-result-page/

https://fleishmanhillard.com/2012/01/31/2012-digital-influence-index-shows-internet-as-leading-influence-in-consumer-purchasing-choices/

https://moz.com/blog/via-enquisite-ppc-agencies-make-45x-what-seos-do-for-the-same-value

https://searchenginewatch.com/sew/news/2200730/organic-vs-paid-search-results-organic-wins-94-of-time

https://blog.google/products/search/our-latest-quality-improvements-search/

https://www.marketingdive.com/news/study-creating-content-is-most-effective-and-most-difficult-seo-tactic/430335/

https://www.advancedwebranking.com/ctrstudy/

https://searchenginewatch.com/sew/study/2276184/no-1-position-in-google-gets-33-of-search-traffic-study

https://ahrefs.com/blog/search-traffic-study/

https://www.craigbailey.net/content-is-king-by-bill-gates/

http://static.googleusercontent.com/media/www.google.dk/da/da/insidesearch/howsearchworks/assets/searchqualityevaluatorguidelines.pdf

https://www.youtube.com/watch?v=MoW60fuHn64&feature=youtu.be

https://www.seroundtable.com/category/google-updates?page=1

https://moz.com/google-algorithm-change

https://moz.com/mozcast/

https://feinternational.com/website-penalty-indicator/

https://developers.google.com/web/fundamentals/security/hacked/support_team

https://developers.google.com/web/fundamentals/security/hacked/quarantine_site

https://developers.google.com/web/fundamentals/security/hacked/use_search_console

https://developers.google.com/web/fundamentals/security/hacked/vulnerability

https://developers.google.com/web/fundamentals/security/hacked/clean_site

https://developers.google.com/web/fundamentals/security/hacked/request_review

https://support.google.com/webmasters/answer/9044175?hl=en&visit_id=636984556634666222-1925040436&rd=1#spammy-freehosts

https://www.sistrix.com/blog/google-farmer-update-quest-for-quality/

https://support.google.com/webmasters/forum/AAAA2Jdx3sUp0YNV-yDnm0/?hl=en&gpf=%23!topic%2Fwebmasters%2Fp0YNV-yDnm0

https://knowledgegraphsearch.com

https://www.google.com/webmasters/tools/dmca-dashboard

https://edit.co.uk/blog/google-pirate-algorithm/

https://www.brightedge.com/blog/non-mobile-friendly-share-of-serps-decreases-21-with-april-21-mobile-algorithm-change/

https://search.google.com/test/mobile-friendly?utm_source=mft&utm_medium=redirect&utm_campaign=mft-redirect

https://twitter.com/methode/status/839817382088572928?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E839817382088572928&ref_url=https%3A%2F%2Fwww.seroundtable.com%2Fgoogle-fred-algorithm-update-23529.html

https://support.google.com/business/answer/7107242?hl=pl

http://www.thesempost.com/google-removing-pagerank-from-toolbar/

https://twitter.com/methode/status/829755916895535104

https://www.searchenginejournal.com/google-click-depth-matters-seo-url-structure/256779/

Dodaj komentarz

avatar
  Subskrybuj  
Powiadom o

CONTENT SOLUTIONS

Sp. z o.o. sp. k.

WROCŁAW

kontakt@contentsolutions.pl

+48 730 302 301

ADRES:

ul. Pieszycka 5a

50-537 Wrocław

Porozmawiajmy

o rozwiązaniach dopasowanych do Twoich potrzeb


Informacja ogólna

Ta strona korzysta z plików cookie, abyśmy mogli zapewnić Ci najlepszą możliwą obsługę. Informacje o plikach cookies są przechowywane w przeglądarce użytkownika i służą do wykonywania funkcji, takich jak komunikacja marketingowa i pomaganie naszemu zespołowi w zrozumieniu, które sekcje witryny są dla niego najbardziej interesujące i użyteczne. Nigdy nie otrzymujemy i nie przechowujemy danych osobowych takich jak imię, nazwisko, dokładny adres osób fizycznych, nie mamy również dostępu do numerów IP –  wszystkie informacje są anonimowe.

Możesz dostosować wszystkie ustawienia plików cookies dla używanych przez nas narzędzi, korzystając z poniższych ustawień.

Hotjar

Hotjar to narzędzie służące do analityki ruchu w witrynie. Dzięki niemu wiemy, które informacje najbardziej interesują odwiedzających naszą stronę i możemy lepiej przystosować ją do ich potrzeb. W tym celu NIE są pobierane żadne prywatne informacje – użytkownik poruszający się po stronie jest zupełnie anonimowy.

Google Analytics

Google Analytics to kolejne narzędzie służące do analityki ruchu w witrynie. Wykorzystywany jest na portalach internetowych, witrynach firmowych, a nawet blogach.  Google Analytics NIE gromadzi danych osobowych. Nam pozwala dowiedzieć się przede wszystkim, co na naszej stronie interesuje naszych klientów, jak do nas trafiają i jak dużo osób nas odwiedza.

Zmień ustawienia cookies