https://mizzo.pl

https://mizzo.pl

wtorek, 25 maj 2021 14:27

Google Multitask Unified Model (MUM)

Podczas Google’s I/O conference, która miała miejsce 18-20 maja 2021, Google zaprezentowało nową technologię o nazwie Google Multitask Unified Model (MUM).

MUM określany jest jako nowa technologia, a nie konkretny algorytm. Oznacza to, że w jej skład wchodzić może wiele mniejszych algorytmów, które wspólnie mają bardzo mocno wpłynąć na rozumienie zapytań i jakość wyników wyszukiwania.

Technologia MUM, podobnie jak algorytm BERT, oparta jest o "transformer architecture" i jest trenowana z wykorzystaniem sztucznej inteligencji i uczenia maszynowego - w celu lepszego rozumienia zapytań oraz dostarczania jak najlepszej formy odpowiedzi na te zapytania. W swoim założeniu technologia ta ma być bardzo wydajna pod względem ilości zasobów, których potrzeba do jej uruchomienia oraz przetwarzania danych z jej wykorzystaniem. W praktyce - mniej zasobożerna technologia ma umożliwiać jej wysoce efektywne skalowanie (szerszy zakres działania i naukę na większej ilości danych). A im większa ilość danych wsadowych, tym lepsze efekty.

Z informacji jakich udzielił wiceprezes Google, Mum ma być trenowany na 75 językach i aż 1000 razy bardziej wydajny od algorytmu BERT. Ma więc działać globalnie, w dużo szerszym zakresie, a dodatkowo ma być w stanie łączyć wiele wątków związanych z danym zapytaniem i udzielać wysoce kompleksowych odpowiedzi. Według prezesa Google, jest to coś, czego nie ma oferować żadna inna wyszukiwarka na świecie.

Jako przykład zapytania, które MUM będzie wstanie precyzyjnie zrozumieć, a następnie kompleksowo odpowiedzieć, przedstawia się poniższe zdanie (w wolnym tłumaczeniu):

Podróżowałem po Mount Adams, a najbliższej jesieni chce podróżować po Mount Fuji, co powinienem zrobić, aby się przygotować do podróży i wspinaczki, co powinienem zrobić tak samo, a co inaczej niż na Mt. Adams?

Mam więc tutaj do czynienia z bardzo rozbudowanym pytaniem, które porusza wiele wątków i dotyczy różnic pomiędzy dwoma miejscami. Standardowo przerastałoby ono możliwości wyszukiwarki i wymagałoby od nas rozbicia tego zapytania na kilka. Czyli wyszukania pojedynczo, w różnych zapytaniach poszczególnych aspektów i tematów związanych z tą podróżą i wspinaczką:

- szlaki na Fuji,
- pogoda na Fuji,
- temperatura na Fuji,
- zmiany temperatur na Fuji,
- temperatura na Fuji nocą,
- opady na Fuji,
- opady na Fuji jesienią
- wspinaczka na Fuji,
- różnice we wspinaczce na górę Adams a górę Fuji.
- itd.

To co ma zaoferować tutaj MUM, to dużo lepsze zrozumienie pytania, problemu, różnic i potrzeb wyszukującego. Finalnie MUM ma dostarczyć użytkownikowi nie tylko niezbędnych informacji na temat tych dwóch miejsc. Mum ma działać kompleksowo i wielowątkowo, to jest dostarczyć użytkownikowi odrazu informacji dotyczących różnic temperatur i ilości opadów jesienią na Fuzji, danych o ilości szlaków oraz sprzęcie niezbędnym do wspinaczki na Fuji, realnych różnic pomiędzy wspinaczką czy podróżą (co ma wpływać na sposób przygotowania się do podróży). Mamy mieć więc do czynienia z prawdziwym "potworem", który zrozumie co od niego chcemy :D. Finalnie MUM może wykorzystać bardzo mocno wpłynąć na formę Direct Answers, wysycając je jeszcze większą ilością informacji i wpływając na przyrost tych elementów w wynikach wyszukiwania.

MUM ma podchodzić kompleksowo i wielowątkowo do analizowania zapytania i zwracania odpowiedzi na to zapytania. Google nie podało oficjalnej daty wdrożenia tej technologii. Już teraz możemy zapoznać się z dość szczegółowymi analizami i przypuszczeniami, które dotyczą tego czym jest MUM i z jakimi algorytmami może się wiązać (np. tutaj i tutaj).

Nie wiemy, czy wdrożenie tej technologii będzie wiązać się z małą rewolucją wyników wyszukiwania - z zapowiedzi Google wynika iż będzie to naprawdę duża zmiana. Niezależnie od tego czy i kiedy, już teraz zdaje się, iż powinniśmy pracować jeszcze mocniej nad dostarczeniem contentu na swoją stronę :). 

Zródło: seostation.pl

czwartek, 16 sierpień 2018 11:35

Ekoklimat - producent wózków sklepowych

Klient: Ekoklimat - producent wózków

Projekt: Strona www, projekt graficzny, wykonanie/wdrożenie 

Rok 2018

środa, 16 maj 2018 10:06

Centrum Medyczne DECCLINIC

Klient: Centrum Medyczne DECCLINIC

Projekt: Strona www, projekt graficzny, wykonanie/wdrożenie 

Rok 2018

Na stronie Google Search Central opublikowano przewodnik po zarządzaniu budżetem indeksowania, czyli tak zwanym Crawl budget. Tekst jest dedykowany właścicielom dużych serwisów internetowych lub stron często aktualizowanych.

W związku z tym, poza przytoczeniem założeń zawartych w przewodniku, dopisałem podstawowe kwestie odnośnie Crawl budget. Zarówno przewodnik, jak i generalnie kwestie odnośnie limitów indeksowania stron przez roboty Google dotyczą głównie domen z dużą ilością unikalnych stron, które są aktualizowane stosunkowo często. Przewodnik określa stosunkowo w taki sposób:   

  • ponad milion unikalnych stron z treścią aktualizowaną raz w tygodniu
  • ponad 10 tys. Unikalnych stron z treścią aktualizowane codzienne

Powyższe ramy są założone w przybliżeniu.

Co to jest crawl budget? W tym crawl capacity limit i crawl demand

Aby strona znalazła się w wynikach wyszukiwania, musi być zaindeksowana przez daną wyszukiwarkę. To zadanie botów indeksujących, tzw. crawlerów które regularnie przeszukują sieć w celu znalezienia nowych lub zaktualizowanych treści. Przez „indeksowanie” mam na myśli nie tylko docieranie do nowopowstałych stron, ale również ponowne wizyty, aby zaktualizować bazę danych.

„Roboty analizują strony internetowe i otwierają zawarte w nich linki, p

Sposób poruszania się „crawlerów”, czyli przez linki po sieci, budzi skojarzenia z pająkami, stąd też tak są określane oraz wizualizowane. Tak samo jak Google inne wyszukiwarki takie jak Bing, Baidu czy Yandex również delegują swojego bota indeksującego. Lista wyszukiwarek i ich "crawlerów" poniżej:

Googlebot (Google), Bingbot (Bing) ,Baiduspider (Baidu), YandexBot (YandexBot), DuckDuckBot (DuckDuckGo), Slurp Bot (Yahoo)

Co to jest Crawl Budget?

Crawl Budget, czyli budżet indeksowania, to w uproszczeniu zasoby, które Google może skierować na indeksowanie danej strony (crawl limit) na tyle, ile jest to potrzebne w ich mniemaniu (crawl demand). Na to wszystko przeznacza określony z góry czas.

Crawl limit, czyli limit wydajności indeksowania odnosi się przede wszystkim do ograniczeń technicznych serwerów, zarówno po stronie Google jak i właścicieli stron.

Internet jest przeogromny, a googlebot nie jest wszechmocny, dlatego Google dedykuje "crawlowaniu" określone zasoby ze względów logistycznych (i zapewne ekonomicznych), a które może zmienić w dowolnym momencie (np. w wypadku awarii).

Druga strona medalu to kwestia wydajności serwera na którym trzymasz witrynę. Googlebot zdąży wykonać więcej pracy na szybko wczytującej się stronie, to logiczne. Wtedy tez zwiększa się limit, a gdy serwer jest awaryjny i wolny, limit się zmniejsza.

Ponadto boty indeksujące w zamyśle nie powinny doprowadzić do przeciążenia łączy serwera, wiec już na tych mniej wydajnych, np. na współdzielonych hostingach (shared hosting) limit jest niższy. Jeśli dochodzi do przeciążenia serwera i wiesz, że powodem jest googlebot, możesz samodzielnie ustawić limit w Google Search Console.

odobnie jak użytkownicy przeglądający treści w internecie. Przechodzą od linku do linku i przesyłają dane o stronach internetowych na serwery Google.”

 

Fakty i mity dotyczące Crawl budget

W ostatniej części przewodnika rozliczono się z powszechnymi opiniami odnośnie budżetu indeksowania.

Nieprawdziwe jest, że:

  • Skompresowane mapy witryny zwiększą limit indeksowania
  • Częściej aktualizowane strony lub przeciwnie, stare treści są lepiej oceniane przez Google
  • Parametry i generalnie skomplikowane adresy URL mogą stanowić problem
  • Mniejsze strony są rzadziej „crawlowane” bez względu na częstotliwość aktualizacji treści
  • Kwestie indeksowania stanowią czynnik rankingowy
  • Polecenie opóźnienia indeksowania (crawl delay) w robots.txt jest przetwarzane przez googlebota

Natomiast prawdziwe jest to, że:

  • Strony bliżej strony głównej są częściej indeksowane
  • Im szybciej wczytuje się strona, tym większy crawl limit oraz im więcej błędów serwera, tym mniejszy crawl limit
  • Alternatywne adresy URL (np. z parametrem hreflang) są uwzględnione w crawl budget
  • Użycie tag nofollow w linku sprawi, że boty indeksujące nie trafią do danej podstrony, aczkolwiek nie oznacza to, że nie dotrze do niej z innego linku niezawierającego dyrektywy nofollow

Aktualizacja "Page Experience Signals" - czym jest?

Aktualizacja "Page Experience Signals" zawiera w sobie już istniejące sygnały rankingowe, jak dane z Core Web Vitals, "przyjazność" serwisu na urządzeniach mobilnych, bezpieczne przeglądanie, HTTPS oraz ogólną użyteczność szybkość serwisu.

Należy przypomnieć, że ze względu na pandemię, na marzec 2021 przeniesione zostało również całkowite przejście na indeksowanie stron przez robota mobilnego (mobile first-index). Oznacza to, że Google będzie indeksować nasze strony wyłącznie w wersjach mobilnych.

Wracając do meritum - w maju 2021 Google wdroży aktualizację "Page Experience Signals", która zwiększy znaczenie wspomnianych sygnałów rankingowych.

Oznacza to, że nasze serwisy muszą być bardzo dobrze przystosowane do działania na urządzeniach mobilnych. Wliczając w to optymalizację pod wspomniane Core Web Vitals, szybkość, mobilność i przede wszystkim użyteczność dla użytkowników. W wyniku wdrożenia tej aktualizacji ucierpieć mogą więc strony nieużyteczne i "ciężkie w przeglądaniu".

Przykładowo, będą to więc strony z natrętnymi wskazówkami lub pełnoekranowymi popup'ami. A także strony wolne i ogólnie mało użyteczne - czyli wszystkie serwisu, które po prostu utrudniają dostęp do szukanych informacji czy realizacji zamierzonego celu.

Można zakładać, że Google wykorzystywać będzie tutaj bardzo mocno dane dotyczące współczynnika wyjść / powrotów do wyników wyszukiwania i ogólnego zaangażowania użytkownika w jej przeglądanie, po wejściu na nią z tych wyników. Są to dane, które Google ma bezpośrednio u siebie. Są to też bardzo fajny i trafny sygnał, który pozwoli na określenie czy dana strona jest faktycznie interesująca i użyteczna dla użytkowników.

Pomimo szczątkowych danych, już teraz założyć można, że aktualizacja ta wzmocni znaczenie szybkości, bezpieczeństwa, "przyjazności" i użyteczności stron internetowych na urządzeniach mobilnych. Warto więc przeanalizować pod tym kątem swoje strony internetowe.

Zmiany w TOP Stories

Oprócz powyższych zmian, Google zapowiada również, że wraz z tą aktualizacją nastąpi zmiana w wynikach mobilnych i module "Top Stories". Tzw. karuzele newsów, które zarezerwowane były tylko dla stron z AMP zostaną uwolnione. Znaleźć w nich będzie mogła się każda strona (również te bez AMP) spełniające kryteria Google News.

Wyróżnianie stron z wysoką użytecznością

Bardzo interesującym fragmentem wpisu jest również ten, w którym Google dodaje, że wraz z tą aktualizacją planuje wdrożyć wizualne oznaczenie stron o doskonałej użyteczności:

"In addition to the timing updates described above, we plan to test a visual indicator that highlights pages in search results that have great page experience."

Nowa funkcjonalność jest podobno już teraz testowana i jeśli wszystko pójdzie tak jak zakłada Google, zostanie ona wdrożona.

Jak więc widać, Google oprócz kijka w formie aktualizacji :), daje nam również marchewkę, która w formie wyróżnienia serwisu w wynikach wyszukiwania, będzie jeszcze bardziej zachęcać do pracowania nad użytecznością swoich stron internetowych.

Narzędzia od Google do przystosowania serwisu do aktualizacji

Google zachęca również do wykorzystywania już udostępnionych przez nich narzędzi, aby przeanalizować i dostosować swój serwis do nadchodzącej aktualizacji. Mowa tutaj m.in. o zakładce "Podstawowe wskaźniki internetowe" w Search Console (Core Web Vitals), PageSpeed Insights, narzędziu Lighthouse oraz ogólnie wszystkim Vital Tools.

Co ciekawe za wzór strony o wysokiej użyteczności Google wskazuje strony oparte o AMP...

Klient: Usługi BHP i PPOŻ Warszawa. Grażyna Zakrzewska

Projekt: Strona www, projekt graficzny, wykonanie/wdrożenie 

Rok 2018

niedziela, 14 luty 2021 18:31

Bieg Banku BNP Paribas „Podaj zmianę

Klient: Bank BNP Paribas

Projekt: Strona www, projekt graficzny, wykonanie/wdrożenie 

Rok 2018

poniedziałek, 21 grudzień 2020 00:24

December 2020 Core Update - pełne wdrożenie

Wczoraj, 16 grudnia 2020 r., Google oficjalnie ogłosiło zakończenie wdrażania tzw. December 2020 Core Update, który rozpoczął się 3 grudnia br. Informację o dacie rozpoczęcia i zakończenia aktualizacji znajdują się już na wykresach pozycji w SeoStation, a będą one widoczne po włączeniu danych o "Update'ach".

To jedna z wielu wprowadzanych cyklicznie dużych aktualizacji algorytmu. Od ostatniego trochę już minęło, ponieważ został on wprowadzony w maju, a wcześniejszy - w styczniu 2020 r.

Tego typu aktualizacje dotyczą wielu różnych czynników rankingowych, dlatego zazwyczaj nie da się określić jednoznacznie, z jakiej przyczyny pozycje stron zanotowały spadki lub wzrosty. Musimy spojrzeć na nasze serwisy całościowo, a nie - jak kilka lat temu - skupiać się na głównym celu najpopularniejszych aktualizacji takich jak Pingwin czy Panda. Google zapowiedziało, że co prawda po dokonaniu zmian na stronach możemy się spodziewać pewnej poprawy ich pozycji pomiędzy aktualizacjami, jednak największe zmiany zauważymy niestety dopiero po kolejnym updacie. Tego możemy się spodziewać zapewne za co najmniej 3 miesiące.

Co ciekawe, wg informacji zebranych przez Search Engine Land, niektóre serwisy zanotowały zmiany w ruchu organicznym na poziomie pomiędzy 10% do nawet 100%. Algoroo największe zmiany (na czerwono) pokazywał 5 grudnia, a nieco mniejsze w dniach 11-12 grudnia. W przypadku narzędzia MozCast najwyższe temperatury zanotowane zostały 3, a potem również 12 grudnia.

Wykres z Algoroo

Grudniowy wykres MozCast

Sama widzę zmiany na niektórych stronach, aczkolwiek dotyczą one najczęściej pojedynczych fraz, a nie ogólnej widoczności strony w Google. Najczęściej dotyczą postów na blogach, czyli typowych serwisów contentowych zoptymalizowanych pod długi ogon. Jednak na tę chwilę ciężko było przeprowadzić pełną analizę, skoro byliśmy w trakcie wdrażania zmiany. Teraz jest dobry okres na to, aby bliżej się temu przyjrzeć.

Poniżej zamieszczam przykładowy wykres, na którym widać zmiany pozycji w okresie między 3 a 16 grudnia 2020 r. Jest to strona starego wpisu na blogu z 2016 r. Co ciekawe, objętość jest niewielka, bo ok. 750 znaków ze spacjami.

 

Wzrost pozycji o zaledwie 4 nie wpłynąłby zbytnio na ruch, gdyby była to zmiana w kolejnych dziesiątkach SERPów. Jednak jeśli jest to skok z 5 pozycji na 1, zmiana ta jest już widoczna, bo z 11-13 kliknięć dziennie klikalność wzrosła nawet do 89 w dniu 14 grudnia.

Wzrost ruchu organicznego widoczny w GSC

Dajcie znać, jak tam zmiany u Was. Mam nadzieję, że spadków nie zanotowały serwisy, które co roku liczą na sezon świąteczny.

Ostatnie kilka dni to spore zmiany w pozycjach stron internetowych. Na wielu grupach SEO pojawiały się przesłanki o możliwej aktualizacji algorytmu. Na spore zmiany wskazuje również wiele z narzędzi monitorujących pozycje wybranych słów kluczowych

Okazuje się, że podejrzenia dotyczące aktualizacji algorytmu były prawdziwe. W dniu dzisiejszym, na oficjalnym profilu Google SearchLiaison, pojawiła się informacja potwierdzająca aktualizację głównego silnika algorytmu. Aktualizacja rozpoczęła się 12 marca i trwa nadal.

Jak przeczytać można w tweecie, update polega przede wszystkim na zmianach w głównym algorytmie Google, które mają wpłynąć na zwiększenie widoczności niedocenianych dotąd stron.

Wszelkie spadki pozycji, spowodowane są nie "błędami" lub karami na stronach, które widoczność utraciły, ale wynikają z faktu przeskoczenia ich przez inne "bardziej doceniane" obecnie serwisy. Nie ma więc możliwości wdrożenia planu naprawczego, który da efekt stosunkowo szybko.

Google informuje również, że jedyne co możemy w tej sytuacji zrobić, to dbanie o dobrą i wartościową treść, tak aby przy okazji kolejnej aktualizacji to nasze strony zyskały na widoczności.

Źródło: https://twitter.com/searchliaison/status/973241540486164480
seostation.pl

 

Google Plus (Google+) miał być nawet czymś więcej jak Facebook - wyszło jednak jak zwykle. Nie udało się powtórzyć sukcesu swojego konkurenta i całkiem nieoczekiwanie to YouTube stał się najważniejszą społecznościówką w portfolio giganta. Projekt pozostał absolutnie niszowym miejscem wymiany treści i nigdy nie zyskał ogromnej popularności.

AndroidPolice znalazło dowody na to, że Google szykuje się do wygaszenia projektu. Jak wynika z informacji przekazanych przez francuski oddział giganta, ten zamyka swoje konto w Google Plus z powodu niskiego zainteresowania. Niewykluczone, że to początek bardziej zorganizowanej akcji, która ostatecznie zakończy się zamknięciem całej usługi.

 

Z pewnością nie stanie się to dzisiaj, ani na pewno nie jutro: można jednak oczekiwać, że w ciągu najbliższych miesięcy będziemy obserwować kolejne sygnały świadczące o tym, że Google Plus nie ma przed sobą żadnej przyszłości, również w kontekście planów giganta. Tym bardziej, że samo utrzymanie nierentownego serwisu społecznościowego to spory problem, który warto rozwiązać.

Rynek mediów społecznościowych nie przyjął dobrze Google Plus

Nic dziwnego – Facebook zagarnął niemal cały torcik rynku oferując użytkownikom to, czego konkurencja nigdy im nie dawała. Skopiowanie tego pomysłu, dodanie do niego „kręgów” oraz kilku pomniejszych funkcji nie zaowocowało niczym dobrym i zakończyło się fiaskiem. Google Plus w tym momencie wygląda jak pustkowie, na którym nie dzieje się absolutnie nic ciekawego. Raz na jakiś czas co bardziej zatwardziali użytkownicy umieszczają tam jakieś treści, ale tak ogromnego wyboru jak na Facebooku tam nie uświadczymy. Tym samym – nie ma większego sensu angażować się w ten serwis.

 

Żrodło:https://antyweb.pl

Strona 1 z 11

Artykuły

 

 

Projektowanie stron internetowych Warszawa 

- Najnowsze realizacje -

Usługi PPOŻ. | szkolenia BHP | usługi BHP
Bieg Banku BNP Paribas „Podaj zmianę
Ekoklimat - producent wózków sklepowych
Centrum Medyczne DECCLINIC
Mawawo - Depilacja Laserowa
Keemple - Technologia pracująca za Ciebie
PISKP - Polska Izba Stacji Kontroli Pojazdów
Wizytówka Tj-Gazy - Sprzedaż butli gazowych Rzeszów
Tj-Gazy - Sprzedaż butli gazowych Rzeszów
SPA - Klinika Urody Laura
Centrum medycyny Holistycznej | gd-med.pl
Apl Print - Drukarnia Online
Fitmuscle Shop - Sklep z Suplementami diety
Dynamic Motion Systems

Klienci

 

adamed        escada         podkarpackie logo            dom       grycan      champion-eu.com orange mitcar patti domtrybuna  stanica przygoda      Dr Mołas