Marcin Zolynia

Marcin Zolynia

piątek, 02 grudzień 2022 12:30

Jak szybko i skutecznie popsuć sobie SEO

Wprowadzenie na stronę skutecznego SEO (ang.: search engine optimization) może wydawać się proste i szybkie. Pozornie wystarczy przygotować odpowiednio zredagowany content i zdobyć kliknięcia, a potem strona błyskawicznie się rozpędzi i będzie doskonale widoczna. 
Niestety skuteczna optymalizacja dla wyszukiwarek internetowych nie jest tak łatwa jak mogłoby się wydawać. Warto wiedzieć jakich działań unikać, by nie zapędzić się w ślepą uliczkę.
 

Brak unikalnych treści 

Pierwszym problemem, z którym można się spotkać, to brak unikalnych treści.Tworzenie takich wymaga sporych nakładów finansowych, których wielu przedsiębiorców nie uwzględnia w planach rozwoju swojej działalności. 

 

Może zdawać się, że wystarczy napisać kilka zdań lub skopiować opis produktu z konkurencyjnej strony i “jakoś to będzie”.

 

 
Tak zapełniona strona nie będzie działała. Nie zadziała nawet bogata w treści strona, na której brakuje słów kluczowych, ponieważ nie sama długość treści nie jest czynnikiem rankingowym. Problemem może być zaniedbane linkowanie wewnętrzne lub zła struktura nagłówków. 
Dużym ułatwieniem w przygotowaniu treści zawierających słowa kluczowe jest wykorzystanie specjalnych narzędzi, najczęściej płatnych. Z pomocą może przyjść Planer słów kluczowych Google, umożliwiający darmową analizę i oferujący narzędzia pomagające przygotować właściwą treść, bogatą w słowa kluczowe oraz oferującą czytelnikowi najważniejsze informacje. 
Sprawdzonym sposobem jest też szukanie inspiracji na stronach, które wyświetlają się w TOPie. W podpatrywaniu działań nie ma nic złego, za to kopiowanie ich może jedynie zaszkodzić.
 

Indeksacja treści strony 

Nie można pominąć indeksacji strony - to ogromny błąd. Weryfikowanie obecności publikowanych treści w indeksie Google jest istotnym tematem ożywionej dyskusji. Wiele firm pomija indeksowanie stron, co można szybko i łatwo sprawdzić. W tym celu można wykorzystać Google Search Console, jeśli chce się sprawdzić jedną witrynę, lub interfejs programowania aplikacji API (od ang.: application programming interface) gdy potrzeba sprawdzić wiele witryn jednocześnie. To pozwoli zorientować się czy strona lub strony zostały zeskanowane i zaindeksowane.
Potrzeba jeszcze ręcznie sprawdzić widoczność wszystkich elementów na stronie. Jest to istotne przy stronach wykorzystujących leniwe ładowanie, czyli popularny lazy loading oraz JavaScript chociażby do zawijania treści. 
Szczególnie dokładnie należy sprawdzić obecność łańcucha przekierowań i adresów kanonicznych.
 

Strona blogowa 

Planując stronę blogową, niezależną lub taką, która będzie częścią większego serwisu, trzeba mieć pomysł i plan. Prowadzenie chaotycznego bloga jest jak stracona szansa. Identyfikując potrzeby potencjalnych klientów można lepiej do nich dotrzeć. Ważne jest by zastanowić się nad kilkoma kwestiami:
  • o co zapyta użytkownik Google?
  • czego oczekuje od odwiedzanej strony?
  • co unikatowego można mu zaproponować?
Można w ten sposób przygotować bloga tak, by z jego pomocą maksymalizować sprzedaż. 
Trzeba zidentyfikować z pomocą jakich zapytań użytkownik trafi na budowaną stronę. Przygotowując artykuł tematyczny zawierający frazy, które pomogą odpowiedzieć na pytania użytkownika. Jeśli zagadnienie jest na tyle duże, że jego opisanie w jednym artykule będzie trudne, to stwórz więcej krótszych tekstów, które linkuj między sobą. Najwyższym poziomem tego rozwiązania jest skonstruowanie obszernego poradnika wyposażonego we własne menu odsyłające do poszczególnych artykułów.
Warto wykorzystać linkowanie wewnętrzne w różnych postaciach. Zamiast zwykłego anchor tekstu sprawdzą się także graficzne bannery lub kafelki produktowe umieszczone miedzy akapitami tekstu.
Umieszczając linki tekstowe, warto spojrzeć na nie dwa razy, by ocenić czy użytkownik jest w stanie szybko je rozpoznać. Jeśli są mało widoczne można je wyróźnić.
Dobrze poprowadzony blog, który będzie częścią strony firmowej ma także inne zalety. Przyczynia się do rozwoju strony, pomaga kreować wizerunek eksperta, a także skutkuje wzrostem ruchu na stronie. Te elementy pozwalają budować też topical authority - dostarczać najlepszej treści, po którą klienci chętniej wejdą na stronę.
 

Wprowadzanie zmian w stronie 

Przy modyfikowaniu strony nigdy nie powinno się działać pod wpływem impulsu. Wielokrotnie spotykanym błędem jest na przykład zmiana silnika sklepu internetowego na nowszy, oferujący większe możliwości. Jeśli zostanie ona przeprowadzona bez wcześniejszego przygotowania, które musi objąć ekipę techniczną a także team SEO. Jeśli pozycjonowanie jest realizowane przez firmę zewnętrzną, to należy ją przygotować na migrację i ustalić jej szczegóły.
 

Struktura adresów URL 

Gdy już nastąpi opisana powyżej zmiana systemu sklepu internetowego, to wraz z nim zmieni się cała struktura adresów URL. Jeśli na etapie przygotowań nie powstała mapa przekierowań, to czas i nakłady poświęcone na pozyskiwanie linków zewnętrznych zostaną bezpowrotnie stracone. Najbardziej ucierpi na tym uzyskana wcześniej widoczność. 
 

Nie przeniesiona treść strony 

Jeśli w toku migracji przygotowane wcześniej treści nie zostaną przeniesione, to efektem takiej sytuacji będą kolejne spadki widoczności. 
Możliwe, że content będzie trzeba ponownie opublikować. Jednak najczęściej trzeba go stworzyć od podstaw, z uwzględnieniem zachowania znaczników obecnych w kodzie takich jak na przykład <title>, <meta name=”description”> i innych. Jeśli po przenosinach brakuje tych znaczników, to trzeba je szybko stworzyć. 
Pominięcie ich wpływa negatywnie na pozycję fraz i współczynnik klikalności (CTR, od ang.: Click-through rate).
 
Podsumowanie
 
Jak widać z powyższych przykładów, na początku działań SEO powinno się przeprowadzić dokładną analizę i określić cel podejmowania takich działań. Pozwoli to zaplanować realizowane czynności i skupiać się na rozwoju, zamiast tracić czas na naprawianie błędów popełnionych wcześniej.

 

poniedziałek, 28 listopad 2022 17:27

Najważniejsze meta tagi dla SEO

Podstawą dobrze wykonanego SEO jest umiejętność współpracy z algorytmami wyszukiwarki Google. Udostępniając robotom Google precyzyjne informacje o stronie, można poprawić jej widoczność w wynikach wyszukiwarki. Przedstawiamy 4 meta tagi, które mają największy wpływ na pozycję strony w wynikach wyszukiwania.

Co to są meta tagi?

To przeznaczone dla robotów Google i innych przeglądarek webowych znaczniki, ukryte w kodzie strony. Słowo “Meta” oznacza, że znaczniki dotyczą samego serwisu. Dzięki nim crawlery będę mogły sprawdzić:

  • czego dotyczy podstrona,
  • właściwy procedura jak ją czytać,
  • informację kto powinien ją zobaczyć.

Jest wiele meta tagów i odpowiadających im wytycznych jest bogaty. W związku z tym istotne jest, żeby wiedzieć jak je przygotować, by wspierały indeksowanie strony w Google.
Warto mieć też świadomość, że znaczniki “meta” nie są tym samym co pozostałe tai HTML. Oznaczenia nagłówków, na przykład H1, H2, H3 i tak dalej oraz atrybuty “alt” dotyczące obrazów mają wpływ na indeksowanie strony i są istotne z punktu widzenia SEO, jednak nie są częściu nagłówka - “Head” - kody strony. W związku z tym nie powinny być określane jako “meta” i z takimi mylone.

 

Najważniejsze meta tagi dla SEO

Z pewnością wiele spośród osób rozpoczynających działania SEO zastanawiają się “Które meta tagi są najważniejsze z perspektywy SEO?”. Warto je poznać i zapamiętać. Poniżej lista strategicznych tagów.

 

1. Meta title / Title Tag

Terminy Meta Title i Title Tag odnoszą się do tego samego znacznika. Jest on ważny ponieważ pokazuje, że przeprowadzona została optymalizacja treści pod kątem SEO. Dodatkowo poprawia komunikację z użytkownikami wyszukiwarki. Jest to przeznaczona dla użytkownika, zwięzła informacja o czym jest strona, widoczna na stronie wyników wyszukiwania.
Meta Title powinien zawierać dobrze dobraną frazę kluczową, a jednocześnie być sformułowane w atrakcyjny dla użytkownika sposób. Wprowadzenie przez Google rozwiązania nazwanego E.A.T - czyli wytycznych jakościowy dla stron, umożliwioło stosowanie słów kluczowych, które nie muszą być tak zwanym “Exact Match”. Istotne jest, aby:

  • nagłówek musi być unikalny, zwięzły i precyzyjnie opisujący zawartość zakładki,
  • długość meta title powinna zawierać się w przedziale 50-60 znaków,
  • dobrym rozwiązaniem jest umieszczenie słowa kluczowego na początku tekstu, jednak w sposób naturalny i niewymuszony.

Z “punktu widzenia” robotów Google, istotne jest by nazwa marki została umieszczona na początku meta tagu.

 

2. Meta description

Meta description to widoczny na stronie wyszukiwania opis podsumowujący zawartość strony. Wyświetla się pod tytułem strony. Najczęściej jest to fragment tekstu, który zawiera 1-2 zdania mające szybko przedstawić czytającemu stronę.
Ten tak widoczny jest na stronie SERP (z ang. Search Engine Results Page) i może pojawić się w mediach społecznościowych. Ma on mniejsze znaczenie dla SEO niż meta title, jednak dobrze sformułowany może wpłynąć na zwiększenie liczby kliknięć w link odnoszący się do pozycjonowanej strony. Może tak się stać gdy spełnione będą następujące warunki:

  • będzie przyciągało uwagę użytkowników, czym zachęci go do kliknięcia w link. Pomóc może w tym chwytliwie, reklamowo, sformułowana treść. Ważne jest by zastosować technikę call-to-action - ułożyć chwytliwy tekst, zapraszający do przejścia na stronę.
  • koniecznie musi zawierać słowa kluczowe, o ile to możliwe, takie same jak w title. Po pogrubieniu poprawi widoczność w serwisu.

Zalecana długość tekstu meta description zamyka się w przedziale 150-160 znaków ze spacjami.
Crawlerom może “podobać się” rozszerzenie opisu o wskazówki pomogające w indeksowaniu. Mogą to być na przykład zakładki produktowe sklepu internetowego rozszerzone o informacje mające związek z kategorią do której zaliczają się produkty.

 

3. Meta tag robots 

Z pomocą meta tagu robots można sprecyzować to czy strona zostanie zaindeksowana oraz to w jaki sposób się to odbędzie. Zawarta w kodzie informacja może odnosić się do ogółu crawlerów lub być skierowana konkretnie do Googlebot’a - używając tagu googlebot można określić zachowanie tego konkretnego robota. 
Najczęściej używane tagi skierowane do robotów to:
 
  • all - pozwala na pełne indeksowanie i wyświetlanie,
  • noarchive - zabrania archiwizowania strony w pamięci podręcznej uniemożliwiając wyświetlanie kopii,
  • nofollow - zakazuje botom korzystania z linków umieszczonych na stronie,
  • noindex - zakazuje botm wyświetlanie strony w Search Engine Results Page, popularnie nazywanych SERP,
  • none - działanie analogiczne do dwóch powyższych,
  • unavailable after - zakazuje wyświetlania strony w wyszukiwarce po określonej dacie lub godzinie, sprawdza się gdy treść może ulec zdezaktualizowanej po jakimś wydarzeniu,
  • nosnippet - zakazuje wyświetlania w SERPach fragmentu treści lub podglądu filmu, będącego odpowiedzią na zapytanie szukającego,
  • indexifembedded - tag łączący się z noindex, czego efektem może być indeksowanie strony przez Google w sytuacji gdy jest ona osadzona w innej witrynie o ile wykorzystano do tego tag iframes.
  • Dobrze jest pamiętać o tym, by wyłączyć z ideksacji podstrony niekompletne i pozbawione znaczenia w ujęciu marketingowym. Stosowanie meta tagów robots wymaga praktyki i pewnego wyczucia - zbyt dużo ograniczeń może spowodować problemy z prawidłowym indeksowanie strony, co zaszkodzi jej pozycji. 

 

4. rel=”canonical” 

Z pomocą link tagu rel=”canonical” można wskazać robotom, która wersja strony jest najważniejsza i powinna zostać zaindeksowana. W sytuacji gdy ta sama witryna jest dostępna z kilku domen umożliwia uniknięcie uznania strony za “duplicate content”. W SERP widoczne będą wyniki ze strony wskazanej jako kanoniczna.
Właściwe stosowanie opisanych tu tagów wymaga umiejętności, jednak może przełożyć się na poprawę potencjału SEO strony i unikać błędów przy indeksacji wykonywanej przez roboty wyszukiwania. W związku z tym warto poświęcić im odpowiednio dużo uwagi, co pomoże osiągać zamierzone rezultaty w pozycjonowaniu.
wtorek, 25 maj 2021 14:27

Google Multitask Unified Model (MUM)

Podczas Google’s I/O conference, która miała miejsce 18-20 maja 2021, Google zaprezentowało nową technologię o nazwie Google Multitask Unified Model (MUM).

MUM określany jest jako nowa technologia, a nie konkretny algorytm. Oznacza to, że w jej skład wchodzić może wiele mniejszych algorytmów, które wspólnie mają bardzo mocno wpłynąć na rozumienie zapytań i jakość wyników wyszukiwania.

Technologia MUM, podobnie jak algorytm BERT, oparta jest o "transformer architecture" i jest trenowana z wykorzystaniem sztucznej inteligencji i uczenia maszynowego - w celu lepszego rozumienia zapytań oraz dostarczania jak najlepszej formy odpowiedzi na te zapytania. W swoim założeniu technologia ta ma być bardzo wydajna pod względem ilości zasobów, których potrzeba do jej uruchomienia oraz przetwarzania danych z jej wykorzystaniem. W praktyce - mniej zasobożerna technologia ma umożliwiać jej wysoce efektywne skalowanie (szerszy zakres działania i naukę na większej ilości danych). A im większa ilość danych wsadowych, tym lepsze efekty.

Z informacji jakich udzielił wiceprezes Google, Mum ma być trenowany na 75 językach i aż 1000 razy bardziej wydajny od algorytmu BERT. Ma więc działać globalnie, w dużo szerszym zakresie, a dodatkowo ma być w stanie łączyć wiele wątków związanych z danym zapytaniem i udzielać wysoce kompleksowych odpowiedzi. Według prezesa Google, jest to coś, czego nie ma oferować żadna inna wyszukiwarka na świecie.

Jako przykład zapytania, które MUM będzie wstanie precyzyjnie zrozumieć, a następnie kompleksowo odpowiedzieć, przedstawia się poniższe zdanie (w wolnym tłumaczeniu):

Podróżowałem po Mount Adams, a najbliższej jesieni chce podróżować po Mount Fuji, co powinienem zrobić, aby się przygotować do podróży i wspinaczki, co powinienem zrobić tak samo, a co inaczej niż na Mt. Adams?

Mam więc tutaj do czynienia z bardzo rozbudowanym pytaniem, które porusza wiele wątków i dotyczy różnic pomiędzy dwoma miejscami. Standardowo przerastałoby ono możliwości wyszukiwarki i wymagałoby od nas rozbicia tego zapytania na kilka. Czyli wyszukania pojedynczo, w różnych zapytaniach poszczególnych aspektów i tematów związanych z tą podróżą i wspinaczką:

- szlaki na Fuji,
- pogoda na Fuji,
- temperatura na Fuji,
- zmiany temperatur na Fuji,
- temperatura na Fuji nocą,
- opady na Fuji,
- opady na Fuji jesienią
- wspinaczka na Fuji,
- różnice we wspinaczce na górę Adams a górę Fuji.
- itd.

To co ma zaoferować tutaj MUM, to dużo lepsze zrozumienie pytania, problemu, różnic i potrzeb wyszukującego. Finalnie MUM ma dostarczyć użytkownikowi nie tylko niezbędnych informacji na temat tych dwóch miejsc. Mum ma działać kompleksowo i wielowątkowo, to jest dostarczyć użytkownikowi odrazu informacji dotyczących różnic temperatur i ilości opadów jesienią na Fuzji, danych o ilości szlaków oraz sprzęcie niezbędnym do wspinaczki na Fuji, realnych różnic pomiędzy wspinaczką czy podróżą (co ma wpływać na sposób przygotowania się do podróży). Mamy mieć więc do czynienia z prawdziwym "potworem", który zrozumie co od niego chcemy :D. Finalnie MUM może wykorzystać bardzo mocno wpłynąć na formę Direct Answers, wysycając je jeszcze większą ilością informacji i wpływając na przyrost tych elementów w wynikach wyszukiwania.

MUM ma podchodzić kompleksowo i wielowątkowo do analizowania zapytania i zwracania odpowiedzi na to zapytania. Google nie podało oficjalnej daty wdrożenia tej technologii. Już teraz możemy zapoznać się z dość szczegółowymi analizami i przypuszczeniami, które dotyczą tego czym jest MUM i z jakimi algorytmami może się wiązać (np. tutaj i tutaj).

Nie wiemy, czy wdrożenie tej technologii będzie wiązać się z małą rewolucją wyników wyszukiwania - z zapowiedzi Google wynika iż będzie to naprawdę duża zmiana. Niezależnie od tego czy i kiedy, już teraz zdaje się, iż powinniśmy pracować jeszcze mocniej nad dostarczeniem contentu na swoją stronę :). 

Zródło: seostation.pl

czwartek, 16 sierpień 2018 11:35

Ekoklimat - producent wózków sklepowych

Klient: Ekoklimat - producent wózków

Projekt: Strona www, projekt graficzny, wykonanie/wdrożenie 

Rok 2018

środa, 16 maj 2018 10:06

Centrum Medyczne DECCLINIC

Klient: Centrum Medyczne DECCLINIC

Projekt: Strona www, projekt graficzny, wykonanie/wdrożenie 

Rok 2018

Na stronie Google Search Central opublikowano przewodnik po zarządzaniu budżetem indeksowania, czyli tak zwanym Crawl budget. Tekst jest dedykowany właścicielom dużych serwisów internetowych lub stron często aktualizowanych.

W związku z tym, poza przytoczeniem założeń zawartych w przewodniku, dopisałem podstawowe kwestie odnośnie Crawl budget. Zarówno przewodnik, jak i generalnie kwestie odnośnie limitów indeksowania stron przez roboty Google dotyczą głównie domen z dużą ilością unikalnych stron, które są aktualizowane stosunkowo często. Przewodnik określa stosunkowo w taki sposób:   

  • ponad milion unikalnych stron z treścią aktualizowaną raz w tygodniu
  • ponad 10 tys. Unikalnych stron z treścią aktualizowane codzienne

Powyższe ramy są założone w przybliżeniu.

Co to jest crawl budget? W tym crawl capacity limit i crawl demand

Aby strona znalazła się w wynikach wyszukiwania, musi być zaindeksowana przez daną wyszukiwarkę. To zadanie botów indeksujących, tzw. crawlerów które regularnie przeszukują sieć w celu znalezienia nowych lub zaktualizowanych treści. Przez „indeksowanie” mam na myśli nie tylko docieranie do nowopowstałych stron, ale również ponowne wizyty, aby zaktualizować bazę danych.

„Roboty analizują strony internetowe i otwierają zawarte w nich linki, p

Sposób poruszania się „crawlerów”, czyli przez linki po sieci, budzi skojarzenia z pająkami, stąd też tak są określane oraz wizualizowane. Tak samo jak Google inne wyszukiwarki takie jak Bing, Baidu czy Yandex również delegują swojego bota indeksującego. Lista wyszukiwarek i ich "crawlerów" poniżej:

Googlebot (Google), Bingbot (Bing) ,Baiduspider (Baidu), YandexBot (YandexBot), DuckDuckBot (DuckDuckGo), Slurp Bot (Yahoo)

Co to jest Crawl Budget?

Crawl Budget, czyli budżet indeksowania, to w uproszczeniu zasoby, które Google może skierować na indeksowanie danej strony (crawl limit) na tyle, ile jest to potrzebne w ich mniemaniu (crawl demand). Na to wszystko przeznacza określony z góry czas.

Crawl limit, czyli limit wydajności indeksowania odnosi się przede wszystkim do ograniczeń technicznych serwerów, zarówno po stronie Google jak i właścicieli stron.

Internet jest przeogromny, a googlebot nie jest wszechmocny, dlatego Google dedykuje "crawlowaniu" określone zasoby ze względów logistycznych (i zapewne ekonomicznych), a które może zmienić w dowolnym momencie (np. w wypadku awarii).

Druga strona medalu to kwestia wydajności serwera na którym trzymasz witrynę. Googlebot zdąży wykonać więcej pracy na szybko wczytującej się stronie, to logiczne. Wtedy tez zwiększa się limit, a gdy serwer jest awaryjny i wolny, limit się zmniejsza.

Ponadto boty indeksujące w zamyśle nie powinny doprowadzić do przeciążenia łączy serwera, wiec już na tych mniej wydajnych, np. na współdzielonych hostingach (shared hosting) limit jest niższy. Jeśli dochodzi do przeciążenia serwera i wiesz, że powodem jest googlebot, możesz samodzielnie ustawić limit w Google Search Console.

odobnie jak użytkownicy przeglądający treści w internecie. Przechodzą od linku do linku i przesyłają dane o stronach internetowych na serwery Google.”

 

Fakty i mity dotyczące Crawl budget

W ostatniej części przewodnika rozliczono się z powszechnymi opiniami odnośnie budżetu indeksowania.

Nieprawdziwe jest, że:

  • Skompresowane mapy witryny zwiększą limit indeksowania
  • Częściej aktualizowane strony lub przeciwnie, stare treści są lepiej oceniane przez Google
  • Parametry i generalnie skomplikowane adresy URL mogą stanowić problem
  • Mniejsze strony są rzadziej „crawlowane” bez względu na częstotliwość aktualizacji treści
  • Kwestie indeksowania stanowią czynnik rankingowy
  • Polecenie opóźnienia indeksowania (crawl delay) w robots.txt jest przetwarzane przez googlebota

Natomiast prawdziwe jest to, że:

  • Strony bliżej strony głównej są częściej indeksowane
  • Im szybciej wczytuje się strona, tym większy crawl limit oraz im więcej błędów serwera, tym mniejszy crawl limit
  • Alternatywne adresy URL (np. z parametrem hreflang) są uwzględnione w crawl budget
  • Użycie tag nofollow w linku sprawi, że boty indeksujące nie trafią do danej podstrony, aczkolwiek nie oznacza to, że nie dotrze do niej z innego linku niezawierającego dyrektywy nofollow

Aktualizacja "Page Experience Signals" - czym jest?

Aktualizacja "Page Experience Signals" zawiera w sobie już istniejące sygnały rankingowe, jak dane z Core Web Vitals, "przyjazność" serwisu na urządzeniach mobilnych, bezpieczne przeglądanie, HTTPS oraz ogólną użyteczność szybkość serwisu.

Należy przypomnieć, że ze względu na pandemię, na marzec 2021 przeniesione zostało również całkowite przejście na indeksowanie stron przez robota mobilnego (mobile first-index). Oznacza to, że Google będzie indeksować nasze strony wyłącznie w wersjach mobilnych.

Wracając do meritum - w maju 2021 Google wdroży aktualizację "Page Experience Signals", która zwiększy znaczenie wspomnianych sygnałów rankingowych.

Oznacza to, że nasze serwisy muszą być bardzo dobrze przystosowane do działania na urządzeniach mobilnych. Wliczając w to optymalizację pod wspomniane Core Web Vitals, szybkość, mobilność i przede wszystkim użyteczność dla użytkowników. W wyniku wdrożenia tej aktualizacji ucierpieć mogą więc strony nieużyteczne i "ciężkie w przeglądaniu".

Przykładowo, będą to więc strony z natrętnymi wskazówkami lub pełnoekranowymi popup'ami. A także strony wolne i ogólnie mało użyteczne - czyli wszystkie serwisu, które po prostu utrudniają dostęp do szukanych informacji czy realizacji zamierzonego celu.

Można zakładać, że Google wykorzystywać będzie tutaj bardzo mocno dane dotyczące współczynnika wyjść / powrotów do wyników wyszukiwania i ogólnego zaangażowania użytkownika w jej przeglądanie, po wejściu na nią z tych wyników. Są to dane, które Google ma bezpośrednio u siebie. Są to też bardzo fajny i trafny sygnał, który pozwoli na określenie czy dana strona jest faktycznie interesująca i użyteczna dla użytkowników.

Pomimo szczątkowych danych, już teraz założyć można, że aktualizacja ta wzmocni znaczenie szybkości, bezpieczeństwa, "przyjazności" i użyteczności stron internetowych na urządzeniach mobilnych. Warto więc przeanalizować pod tym kątem swoje strony internetowe.

Zmiany w TOP Stories

Oprócz powyższych zmian, Google zapowiada również, że wraz z tą aktualizacją nastąpi zmiana w wynikach mobilnych i module "Top Stories". Tzw. karuzele newsów, które zarezerwowane były tylko dla stron z AMP zostaną uwolnione. Znaleźć w nich będzie mogła się każda strona (również te bez AMP) spełniające kryteria Google News.

Wyróżnianie stron z wysoką użytecznością

Bardzo interesującym fragmentem wpisu jest również ten, w którym Google dodaje, że wraz z tą aktualizacją planuje wdrożyć wizualne oznaczenie stron o doskonałej użyteczności:

"In addition to the timing updates described above, we plan to test a visual indicator that highlights pages in search results that have great page experience."

Nowa funkcjonalność jest podobno już teraz testowana i jeśli wszystko pójdzie tak jak zakłada Google, zostanie ona wdrożona.

Jak więc widać, Google oprócz kijka w formie aktualizacji :), daje nam również marchewkę, która w formie wyróżnienia serwisu w wynikach wyszukiwania, będzie jeszcze bardziej zachęcać do pracowania nad użytecznością swoich stron internetowych.

Narzędzia od Google do przystosowania serwisu do aktualizacji

Google zachęca również do wykorzystywania już udostępnionych przez nich narzędzi, aby przeanalizować i dostosować swój serwis do nadchodzącej aktualizacji. Mowa tutaj m.in. o zakładce "Podstawowe wskaźniki internetowe" w Search Console (Core Web Vitals), PageSpeed Insights, narzędziu Lighthouse oraz ogólnie wszystkim Vital Tools.

Co ciekawe za wzór strony o wysokiej użyteczności Google wskazuje strony oparte o AMP...

Klient: Usługi BHP i PPOŻ Warszawa. Grażyna Zakrzewska

Projekt: Strona www, projekt graficzny, wykonanie/wdrożenie 

Rok 2018

niedziela, 14 luty 2021 18:31

Bieg Banku BNP Paribas „Podaj zmianę

Klient: Bank BNP Paribas

Projekt: Strona www, projekt graficzny, wykonanie/wdrożenie 

Rok 2018

poniedziałek, 21 grudzień 2020 00:24

December 2020 Core Update - pełne wdrożenie

Wczoraj, 16 grudnia 2020 r., Google oficjalnie ogłosiło zakończenie wdrażania tzw. December 2020 Core Update, który rozpoczął się 3 grudnia br. Informację o dacie rozpoczęcia i zakończenia aktualizacji znajdują się już na wykresach pozycji w SeoStation, a będą one widoczne po włączeniu danych o "Update'ach".

To jedna z wielu wprowadzanych cyklicznie dużych aktualizacji algorytmu. Od ostatniego trochę już minęło, ponieważ został on wprowadzony w maju, a wcześniejszy - w styczniu 2020 r.

Tego typu aktualizacje dotyczą wielu różnych czynników rankingowych, dlatego zazwyczaj nie da się określić jednoznacznie, z jakiej przyczyny pozycje stron zanotowały spadki lub wzrosty. Musimy spojrzeć na nasze serwisy całościowo, a nie - jak kilka lat temu - skupiać się na głównym celu najpopularniejszych aktualizacji takich jak Pingwin czy Panda. Google zapowiedziało, że co prawda po dokonaniu zmian na stronach możemy się spodziewać pewnej poprawy ich pozycji pomiędzy aktualizacjami, jednak największe zmiany zauważymy niestety dopiero po kolejnym updacie. Tego możemy się spodziewać zapewne za co najmniej 3 miesiące.

Co ciekawe, wg informacji zebranych przez Search Engine Land, niektóre serwisy zanotowały zmiany w ruchu organicznym na poziomie pomiędzy 10% do nawet 100%. Algoroo największe zmiany (na czerwono) pokazywał 5 grudnia, a nieco mniejsze w dniach 11-12 grudnia. W przypadku narzędzia MozCast najwyższe temperatury zanotowane zostały 3, a potem również 12 grudnia.

Wykres z Algoroo

Grudniowy wykres MozCast

Sama widzę zmiany na niektórych stronach, aczkolwiek dotyczą one najczęściej pojedynczych fraz, a nie ogólnej widoczności strony w Google. Najczęściej dotyczą postów na blogach, czyli typowych serwisów contentowych zoptymalizowanych pod długi ogon. Jednak na tę chwilę ciężko było przeprowadzić pełną analizę, skoro byliśmy w trakcie wdrażania zmiany. Teraz jest dobry okres na to, aby bliżej się temu przyjrzeć.

Poniżej zamieszczam przykładowy wykres, na którym widać zmiany pozycji w okresie między 3 a 16 grudnia 2020 r. Jest to strona starego wpisu na blogu z 2016 r. Co ciekawe, objętość jest niewielka, bo ok. 750 znaków ze spacjami.

 

Wzrost pozycji o zaledwie 4 nie wpłynąłby zbytnio na ruch, gdyby była to zmiana w kolejnych dziesiątkach SERPów. Jednak jeśli jest to skok z 5 pozycji na 1, zmiana ta jest już widoczna, bo z 11-13 kliknięć dziennie klikalność wzrosła nawet do 89 w dniu 14 grudnia.

Wzrost ruchu organicznego widoczny w GSC

Dajcie znać, jak tam zmiany u Was. Mam nadzieję, że spadków nie zanotowały serwisy, które co roku liczą na sezon świąteczny.

Strona 1 z 11

Artykuły

 

 

Projektowanie stron internetowych Warszawa 

- Najnowsze realizacje -

Usługi PPOŻ. | szkolenia BHP | usługi BHP
Bieg Banku BNP Paribas „Podaj zmianę
Ekoklimat - producent wózków sklepowych
Centrum Medyczne DECCLINIC
Mawawo - Depilacja Laserowa
Keemple - Technologia pracująca za Ciebie
PISKP - Polska Izba Stacji Kontroli Pojazdów
Wizytówka Tj-Gazy - Sprzedaż butli gazowych Rzeszów
Tj-Gazy - Sprzedaż butli gazowych Rzeszów
SPA - Klinika Urody Laura
Centrum medycyny Holistycznej | gd-med.pl
Apl Print - Drukarnia Online
Fitmuscle Shop - Sklep z Suplementami diety
Dynamic Motion Systems

Klienci

 

adamed        escada         podkarpackie logo            dom       grycan      champion-eu.com orange mitcar patti domtrybuna  stanica przygoda      Dr Mołas