Pierwszym problemem, z którym można się spotkać, to brak unikalnych treści.Tworzenie takich wymaga sporych nakładów finansowych, których wielu przedsiębiorców nie uwzględnia w planach rozwoju swojej działalności.
Podstawą dobrze wykonanego SEO jest umiejętność współpracy z algorytmami wyszukiwarki Google. Udostępniając robotom Google precyzyjne informacje o stronie, można poprawić jej widoczność w wynikach wyszukiwarki. Przedstawiamy 4 meta tagi, które mają największy wpływ na pozycję strony w wynikach wyszukiwania.
To przeznaczone dla robotów Google i innych przeglądarek webowych znaczniki, ukryte w kodzie strony. Słowo “Meta” oznacza, że znaczniki dotyczą samego serwisu. Dzięki nim crawlery będę mogły sprawdzić:
Jest wiele meta tagów i odpowiadających im wytycznych jest bogaty. W związku z tym istotne jest, żeby wiedzieć jak je przygotować, by wspierały indeksowanie strony w Google.
Warto mieć też świadomość, że znaczniki “meta” nie są tym samym co pozostałe tai HTML. Oznaczenia nagłówków, na przykład H1, H2, H3 i tak dalej oraz atrybuty “alt” dotyczące obrazów mają wpływ na indeksowanie strony i są istotne z punktu widzenia SEO, jednak nie są częściu nagłówka - “Head” - kody strony. W związku z tym nie powinny być określane jako “meta” i z takimi mylone.
Z pewnością wiele spośród osób rozpoczynających działania SEO zastanawiają się “Które meta tagi są najważniejsze z perspektywy SEO?”. Warto je poznać i zapamiętać. Poniżej lista strategicznych tagów.
Terminy Meta Title i Title Tag odnoszą się do tego samego znacznika. Jest on ważny ponieważ pokazuje, że przeprowadzona została optymalizacja treści pod kątem SEO. Dodatkowo poprawia komunikację z użytkownikami wyszukiwarki. Jest to przeznaczona dla użytkownika, zwięzła informacja o czym jest strona, widoczna na stronie wyników wyszukiwania.
Meta Title powinien zawierać dobrze dobraną frazę kluczową, a jednocześnie być sformułowane w atrakcyjny dla użytkownika sposób. Wprowadzenie przez Google rozwiązania nazwanego E.A.T - czyli wytycznych jakościowy dla stron, umożliwioło stosowanie słów kluczowych, które nie muszą być tak zwanym “Exact Match”. Istotne jest, aby:
Z “punktu widzenia” robotów Google, istotne jest by nazwa marki została umieszczona na początku meta tagu.
Meta description to widoczny na stronie wyszukiwania opis podsumowujący zawartość strony. Wyświetla się pod tytułem strony. Najczęściej jest to fragment tekstu, który zawiera 1-2 zdania mające szybko przedstawić czytającemu stronę.
Ten tak widoczny jest na stronie SERP (z ang. Search Engine Results Page) i może pojawić się w mediach społecznościowych. Ma on mniejsze znaczenie dla SEO niż meta title, jednak dobrze sformułowany może wpłynąć na zwiększenie liczby kliknięć w link odnoszący się do pozycjonowanej strony. Może tak się stać gdy spełnione będą następujące warunki:
Zalecana długość tekstu meta description zamyka się w przedziale 150-160 znaków ze spacjami.
Crawlerom może “podobać się” rozszerzenie opisu o wskazówki pomogające w indeksowaniu. Mogą to być na przykład zakładki produktowe sklepu internetowego rozszerzone o informacje mające związek z kategorią do której zaliczają się produkty.
Podczas Google’s I/O conference, która miała miejsce 18-20 maja 2021, Google zaprezentowało nową technologię o nazwie Google Multitask Unified Model (MUM).
MUM określany jest jako nowa technologia, a nie konkretny algorytm. Oznacza to, że w jej skład wchodzić może wiele mniejszych algorytmów, które wspólnie mają bardzo mocno wpłynąć na rozumienie zapytań i jakość wyników wyszukiwania.
Technologia MUM, podobnie jak algorytm BERT, oparta jest o "transformer architecture" i jest trenowana z wykorzystaniem sztucznej inteligencji i uczenia maszynowego - w celu lepszego rozumienia zapytań oraz dostarczania jak najlepszej formy odpowiedzi na te zapytania. W swoim założeniu technologia ta ma być bardzo wydajna pod względem ilości zasobów, których potrzeba do jej uruchomienia oraz przetwarzania danych z jej wykorzystaniem. W praktyce - mniej zasobożerna technologia ma umożliwiać jej wysoce efektywne skalowanie (szerszy zakres działania i naukę na większej ilości danych). A im większa ilość danych wsadowych, tym lepsze efekty.
Z informacji jakich udzielił wiceprezes Google, Mum ma być trenowany na 75 językach i aż 1000 razy bardziej wydajny od algorytmu BERT. Ma więc działać globalnie, w dużo szerszym zakresie, a dodatkowo ma być w stanie łączyć wiele wątków związanych z danym zapytaniem i udzielać wysoce kompleksowych odpowiedzi. Według prezesa Google, jest to coś, czego nie ma oferować żadna inna wyszukiwarka na świecie.
Jako przykład zapytania, które MUM będzie wstanie precyzyjnie zrozumieć, a następnie kompleksowo odpowiedzieć, przedstawia się poniższe zdanie (w wolnym tłumaczeniu):
Podróżowałem po Mount Adams, a najbliższej jesieni chce podróżować po Mount Fuji, co powinienem zrobić, aby się przygotować do podróży i wspinaczki, co powinienem zrobić tak samo, a co inaczej niż na Mt. Adams?
Mam więc tutaj do czynienia z bardzo rozbudowanym pytaniem, które porusza wiele wątków i dotyczy różnic pomiędzy dwoma miejscami. Standardowo przerastałoby ono możliwości wyszukiwarki i wymagałoby od nas rozbicia tego zapytania na kilka. Czyli wyszukania pojedynczo, w różnych zapytaniach poszczególnych aspektów i tematów związanych z tą podróżą i wspinaczką:
- szlaki na Fuji,
- pogoda na Fuji,
- temperatura na Fuji,
- zmiany temperatur na Fuji,
- temperatura na Fuji nocą,
- opady na Fuji,
- opady na Fuji jesienią
- wspinaczka na Fuji,
- różnice we wspinaczce na górę Adams a górę Fuji.
- itd.
To co ma zaoferować tutaj MUM, to dużo lepsze zrozumienie pytania, problemu, różnic i potrzeb wyszukującego. Finalnie MUM ma dostarczyć użytkownikowi nie tylko niezbędnych informacji na temat tych dwóch miejsc. Mum ma działać kompleksowo i wielowątkowo, to jest dostarczyć użytkownikowi odrazu informacji dotyczących różnic temperatur i ilości opadów jesienią na Fuzji, danych o ilości szlaków oraz sprzęcie niezbędnym do wspinaczki na Fuji, realnych różnic pomiędzy wspinaczką czy podróżą (co ma wpływać na sposób przygotowania się do podróży). Mamy mieć więc do czynienia z prawdziwym "potworem", który zrozumie co od niego chcemy :D. Finalnie MUM może wykorzystać bardzo mocno wpłynąć na formę Direct Answers, wysycając je jeszcze większą ilością informacji i wpływając na przyrost tych elementów w wynikach wyszukiwania.
MUM ma podchodzić kompleksowo i wielowątkowo do analizowania zapytania i zwracania odpowiedzi na to zapytania. Google nie podało oficjalnej daty wdrożenia tej technologii. Już teraz możemy zapoznać się z dość szczegółowymi analizami i przypuszczeniami, które dotyczą tego czym jest MUM i z jakimi algorytmami może się wiązać (np. tutaj i tutaj).
Nie wiemy, czy wdrożenie tej technologii będzie wiązać się z małą rewolucją wyników wyszukiwania - z zapowiedzi Google wynika iż będzie to naprawdę duża zmiana. Niezależnie od tego czy i kiedy, już teraz zdaje się, iż powinniśmy pracować jeszcze mocniej nad dostarczeniem contentu na swoją stronę :).
Zródło: seostation.pl
Klient: Ekoklimat - producent wózków
Projekt: Strona www, projekt graficzny, wykonanie/wdrożenie
Rok 2018
Klient: Centrum Medyczne DECCLINIC
Projekt: Strona www, projekt graficzny, wykonanie/wdrożenie
Rok 2018
Na stronie Google Search Central opublikowano przewodnik po zarządzaniu budżetem indeksowania, czyli tak zwanym Crawl budget. Tekst jest dedykowany właścicielom dużych serwisów internetowych lub stron często aktualizowanych.
W związku z tym, poza przytoczeniem założeń zawartych w przewodniku, dopisałem podstawowe kwestie odnośnie Crawl budget. Zarówno przewodnik, jak i generalnie kwestie odnośnie limitów indeksowania stron przez roboty Google dotyczą głównie domen z dużą ilością unikalnych stron, które są aktualizowane stosunkowo często. Przewodnik określa stosunkowo w taki sposób:
Powyższe ramy są założone w przybliżeniu.
Aby strona znalazła się w wynikach wyszukiwania, musi być zaindeksowana przez daną wyszukiwarkę. To zadanie botów indeksujących, tzw. crawlerów które regularnie przeszukują sieć w celu znalezienia nowych lub zaktualizowanych treści. Przez „indeksowanie” mam na myśli nie tylko docieranie do nowopowstałych stron, ale również ponowne wizyty, aby zaktualizować bazę danych.
„Roboty analizują strony internetowe i otwierają zawarte w nich linki, p
Sposób poruszania się „crawlerów”, czyli przez linki po sieci, budzi skojarzenia z pająkami, stąd też tak są określane oraz wizualizowane. Tak samo jak Google inne wyszukiwarki takie jak Bing, Baidu czy Yandex również delegują swojego bota indeksującego. Lista wyszukiwarek i ich "crawlerów" poniżej:
Googlebot (Google), Bingbot (Bing) ,Baiduspider (Baidu), YandexBot (YandexBot), DuckDuckBot (DuckDuckGo), Slurp Bot (Yahoo)
Crawl Budget, czyli budżet indeksowania, to w uproszczeniu zasoby, które Google może skierować na indeksowanie danej strony (crawl limit) na tyle, ile jest to potrzebne w ich mniemaniu (crawl demand). Na to wszystko przeznacza określony z góry czas.
Crawl limit, czyli limit wydajności indeksowania odnosi się przede wszystkim do ograniczeń technicznych serwerów, zarówno po stronie Google jak i właścicieli stron.
Internet jest przeogromny, a googlebot nie jest wszechmocny, dlatego Google dedykuje "crawlowaniu" określone zasoby ze względów logistycznych (i zapewne ekonomicznych), a które może zmienić w dowolnym momencie (np. w wypadku awarii).
Druga strona medalu to kwestia wydajności serwera na którym trzymasz witrynę. Googlebot zdąży wykonać więcej pracy na szybko wczytującej się stronie, to logiczne. Wtedy tez zwiększa się limit, a gdy serwer jest awaryjny i wolny, limit się zmniejsza.
Ponadto boty indeksujące w zamyśle nie powinny doprowadzić do przeciążenia łączy serwera, wiec już na tych mniej wydajnych, np. na współdzielonych hostingach (shared hosting) limit jest niższy. Jeśli dochodzi do przeciążenia serwera i wiesz, że powodem jest googlebot, możesz samodzielnie ustawić limit w Google Search Console.
odobnie jak użytkownicy przeglądający treści w internecie. Przechodzą od linku do linku i przesyłają dane o stronach internetowych na serwery Google.”
W ostatniej części przewodnika rozliczono się z powszechnymi opiniami odnośnie budżetu indeksowania.
Nieprawdziwe jest, że:
Natomiast prawdziwe jest to, że:
Aktualizacja "Page Experience Signals" zawiera w sobie już istniejące sygnały rankingowe, jak dane z Core Web Vitals, "przyjazność" serwisu na urządzeniach mobilnych, bezpieczne przeglądanie, HTTPS oraz ogólną użyteczność i szybkość serwisu.
Należy przypomnieć, że ze względu na pandemię, na marzec 2021 przeniesione zostało również całkowite przejście na indeksowanie stron przez robota mobilnego (mobile first-index). Oznacza to, że Google będzie indeksować nasze strony wyłącznie w wersjach mobilnych.
Wracając do meritum - w maju 2021 Google wdroży aktualizację "Page Experience Signals", która zwiększy znaczenie wspomnianych sygnałów rankingowych.
Oznacza to, że nasze serwisy muszą być bardzo dobrze przystosowane do działania na urządzeniach mobilnych. Wliczając w to optymalizację pod wspomniane Core Web Vitals, szybkość, mobilność i przede wszystkim użyteczność dla użytkowników. W wyniku wdrożenia tej aktualizacji ucierpieć mogą więc strony nieużyteczne i "ciężkie w przeglądaniu".
Przykładowo, będą to więc strony z natrętnymi wskazówkami lub pełnoekranowymi popup'ami. A także strony wolne i ogólnie mało użyteczne - czyli wszystkie serwisu, które po prostu utrudniają dostęp do szukanych informacji czy realizacji zamierzonego celu.
Można zakładać, że Google wykorzystywać będzie tutaj bardzo mocno dane dotyczące współczynnika wyjść / powrotów do wyników wyszukiwania i ogólnego zaangażowania użytkownika w jej przeglądanie, po wejściu na nią z tych wyników. Są to dane, które Google ma bezpośrednio u siebie. Są to też bardzo fajny i trafny sygnał, który pozwoli na określenie czy dana strona jest faktycznie interesująca i użyteczna dla użytkowników.
Pomimo szczątkowych danych, już teraz założyć można, że aktualizacja ta wzmocni znaczenie szybkości, bezpieczeństwa, "przyjazności" i użyteczności stron internetowych na urządzeniach mobilnych. Warto więc przeanalizować pod tym kątem swoje strony internetowe.
Oprócz powyższych zmian, Google zapowiada również, że wraz z tą aktualizacją nastąpi zmiana w wynikach mobilnych i module "Top Stories". Tzw. karuzele newsów, które zarezerwowane były tylko dla stron z AMP zostaną uwolnione. Znaleźć w nich będzie mogła się każda strona (również te bez AMP) spełniające kryteria Google News.
Bardzo interesującym fragmentem wpisu jest również ten, w którym Google dodaje, że wraz z tą aktualizacją planuje wdrożyć wizualne oznaczenie stron o doskonałej użyteczności:
"In addition to the timing updates described above, we plan to test a visual indicator that highlights pages in search results that have great page experience."
Nowa funkcjonalność jest podobno już teraz testowana i jeśli wszystko pójdzie tak jak zakłada Google, zostanie ona wdrożona.
Jak więc widać, Google oprócz kijka w formie aktualizacji :), daje nam również marchewkę, która w formie wyróżnienia serwisu w wynikach wyszukiwania, będzie jeszcze bardziej zachęcać do pracowania nad użytecznością swoich stron internetowych.
Google zachęca również do wykorzystywania już udostępnionych przez nich narzędzi, aby przeanalizować i dostosować swój serwis do nadchodzącej aktualizacji. Mowa tutaj m.in. o zakładce "Podstawowe wskaźniki internetowe" w Search Console (Core Web Vitals), PageSpeed Insights, narzędziu Lighthouse oraz ogólnie wszystkim Vital Tools.
Co ciekawe za wzór strony o wysokiej użyteczności Google wskazuje strony oparte o AMP...
Klient: Usługi BHP i PPOŻ Warszawa. Grażyna Zakrzewska
Projekt: Strona www, projekt graficzny, wykonanie/wdrożenie
Rok 2018
Wczoraj, 16 grudnia 2020 r., Google oficjalnie ogłosiło zakończenie wdrażania tzw. December 2020 Core Update, który rozpoczął się 3 grudnia br. Informację o dacie rozpoczęcia i zakończenia aktualizacji znajdują się już na wykresach pozycji w SeoStation, a będą one widoczne po włączeniu danych o "Update'ach".
To jedna z wielu wprowadzanych cyklicznie dużych aktualizacji algorytmu. Od ostatniego trochę już minęło, ponieważ został on wprowadzony w maju, a wcześniejszy - w styczniu 2020 r.
Tego typu aktualizacje dotyczą wielu różnych czynników rankingowych, dlatego zazwyczaj nie da się określić jednoznacznie, z jakiej przyczyny pozycje stron zanotowały spadki lub wzrosty. Musimy spojrzeć na nasze serwisy całościowo, a nie - jak kilka lat temu - skupiać się na głównym celu najpopularniejszych aktualizacji takich jak Pingwin czy Panda. Google zapowiedziało, że co prawda po dokonaniu zmian na stronach możemy się spodziewać pewnej poprawy ich pozycji pomiędzy aktualizacjami, jednak największe zmiany zauważymy niestety dopiero po kolejnym updacie. Tego możemy się spodziewać zapewne za co najmniej 3 miesiące.
Co ciekawe, wg informacji zebranych przez Search Engine Land, niektóre serwisy zanotowały zmiany w ruchu organicznym na poziomie pomiędzy 10% do nawet 100%. Algoroo największe zmiany (na czerwono) pokazywał 5 grudnia, a nieco mniejsze w dniach 11-12 grudnia. W przypadku narzędzia MozCast najwyższe temperatury zanotowane zostały 3, a potem również 12 grudnia.
Sama widzę zmiany na niektórych stronach, aczkolwiek dotyczą one najczęściej pojedynczych fraz, a nie ogólnej widoczności strony w Google. Najczęściej dotyczą postów na blogach, czyli typowych serwisów contentowych zoptymalizowanych pod długi ogon. Jednak na tę chwilę ciężko było przeprowadzić pełną analizę, skoro byliśmy w trakcie wdrażania zmiany. Teraz jest dobry okres na to, aby bliżej się temu przyjrzeć.
Poniżej zamieszczam przykładowy wykres, na którym widać zmiany pozycji w okresie między 3 a 16 grudnia 2020 r. Jest to strona starego wpisu na blogu z 2016 r. Co ciekawe, objętość jest niewielka, bo ok. 750 znaków ze spacjami.
Wzrost pozycji o zaledwie 4 nie wpłynąłby zbytnio na ruch, gdyby była to zmiana w kolejnych dziesiątkach SERPów. Jednak jeśli jest to skok z 5 pozycji na 1, zmiana ta jest już widoczna, bo z 11-13 kliknięć dziennie klikalność wzrosła nawet do 89 w dniu 14 grudnia.
Dajcie znać, jak tam zmiany u Was. Mam nadzieję, że spadków nie zanotowały serwisy, które co roku liczą na sezon świąteczny.
tel: 48.604 611 290
fax: (22) 376 29 27
email: kontakt@mizzo.pl
NIP 816 152 47 87
REGON: 147427055
Ta strona używa plików Cookies. Dowiedz się więcej o celu ich używania i możliwości zmiany ustawień Cookies w przeglądarce.