Marcin Zolynia

Marcin Zolynia

Ostatnie kilka dni to spore zmiany w pozycjach stron internetowych. Na wielu grupach SEO pojawiały się przesłanki o możliwej aktualizacji algorytmu. Na spore zmiany wskazuje również wiele z narzędzi monitorujących pozycje wybranych słów kluczowych

Okazuje się, że podejrzenia dotyczące aktualizacji algorytmu były prawdziwe. W dniu dzisiejszym, na oficjalnym profilu Google SearchLiaison, pojawiła się informacja potwierdzająca aktualizację głównego silnika algorytmu. Aktualizacja rozpoczęła się 12 marca i trwa nadal.

Jak przeczytać można w tweecie, update polega przede wszystkim na zmianach w głównym algorytmie Google, które mają wpłynąć na zwiększenie widoczności niedocenianych dotąd stron.

Wszelkie spadki pozycji, spowodowane są nie "błędami" lub karami na stronach, które widoczność utraciły, ale wynikają z faktu przeskoczenia ich przez inne "bardziej doceniane" obecnie serwisy. Nie ma więc możliwości wdrożenia planu naprawczego, który da efekt stosunkowo szybko.

Google informuje również, że jedyne co możemy w tej sytuacji zrobić, to dbanie o dobrą i wartościową treść, tak aby przy okazji kolejnej aktualizacji to nasze strony zyskały na widoczności.

Źródło: https://twitter.com/searchliaison/status/973241540486164480
seostation.pl

 

Google Plus (Google+) miał być nawet czymś więcej jak Facebook - wyszło jednak jak zwykle. Nie udało się powtórzyć sukcesu swojego konkurenta i całkiem nieoczekiwanie to YouTube stał się najważniejszą społecznościówką w portfolio giganta. Projekt pozostał absolutnie niszowym miejscem wymiany treści i nigdy nie zyskał ogromnej popularności.

AndroidPolice znalazło dowody na to, że Google szykuje się do wygaszenia projektu. Jak wynika z informacji przekazanych przez francuski oddział giganta, ten zamyka swoje konto w Google Plus z powodu niskiego zainteresowania. Niewykluczone, że to początek bardziej zorganizowanej akcji, która ostatecznie zakończy się zamknięciem całej usługi.

 

Z pewnością nie stanie się to dzisiaj, ani na pewno nie jutro: można jednak oczekiwać, że w ciągu najbliższych miesięcy będziemy obserwować kolejne sygnały świadczące o tym, że Google Plus nie ma przed sobą żadnej przyszłości, również w kontekście planów giganta. Tym bardziej, że samo utrzymanie nierentownego serwisu społecznościowego to spory problem, który warto rozwiązać.

Rynek mediów społecznościowych nie przyjął dobrze Google Plus

Nic dziwnego – Facebook zagarnął niemal cały torcik rynku oferując użytkownikom to, czego konkurencja nigdy im nie dawała. Skopiowanie tego pomysłu, dodanie do niego „kręgów” oraz kilku pomniejszych funkcji nie zaowocowało niczym dobrym i zakończyło się fiaskiem. Google Plus w tym momencie wygląda jak pustkowie, na którym nie dzieje się absolutnie nic ciekawego. Raz na jakiś czas co bardziej zatwardziali użytkownicy umieszczają tam jakieś treści, ale tak ogromnego wyboru jak na Facebooku tam nie uświadczymy. Tym samym – nie ma większego sensu angażować się w ten serwis.

 

Żrodło:https://antyweb.pl

piątek, 21 wrzesień 2018 09:48

Co tak naprawdę potrafi asystent Google?

John Mueller poruszył ostatnio kwestię prawdopodobieństwa oszukania robota Google. Miałoby się to udać dzięki treściom, które byłyby tworzone automatycznie. Można do nich zaliczyć między innymi te informacje, które są tłumaczeniami wykonanymi przy użyciu takich narzędzi jak Google Translator bez dokonywania jakiejkolwiek korekty. Temat ten został nadmieniony w ramach cyklu Google Hangout’u.

Pomimo tego, że tłumaczenie, które proponuje Google Translator nie jest idealne, z dnia na dzień staje się coraz bardziej trafne. Można się o tym przekonać chociażby podczas weryfikowania opinii w Google Maps. Niekiedy tylko informacja o tym, że jest to tekst przetłumaczony przez Google daje nam do zrozumienia, że tekst został przełożony. Gdyby takiej podpowiedzi nie było, nie sposób byłoby określić, kto dokonał tego przekładu – człowiek, czy program. Jeśli więc tłumaczenia stają się coraz bardziej dokładne to kopiowanie informacji, które zostały zmodyfikowane przez program w takim stopniu, by nie zostały określone jako duplikat także.

Jeśli więc będziemy trzymać się oficjalnych komunikatów, Google nie popiera tworzenia treści z wykorzystaniem programu do tłumaczenia, by uzyskać w ten sposób wysoki ranking w wyszukiwarce. Taka witryna może zostać zbanowana, jeśli są na niej treści takie jak:

- przełożone automatycznie przez program i upublicznione bez wcześniejszej korekty wykonanej przez człowieka,

- utworzone za pomocą mechanicznego wybierania synonimów, bądź zaciemniania kodu.

Jeden z obecnych na sesji Google Hangout zauważył, że wiele takich stron z automatycznie przetłuczonymi treściami znajduje się na wysokich pozycjach w Google. W związku z czym doszedł do przekonania, że wyszukiwarka „nie widzi” różnicy pomiędzy informacjami, które są generowane mechanicznie, a treściami, które są pisane przez człowieka. O opinię w tej kwestii poprosił John’a Mueller’a.

John wypowiedział się w tej kwestii, przyznając, że jeśli tak faktycznie jest, to robot Google może rzeczywiście został wyprowadzony w pole. Doszedł również do wniosku, że warto spojrzeć na mechanicznie tworzoną treść z szerszej perspektywy. Stwierdził, że wciąż Google ma problem z odróżnieniem „spin contentu”, z kolei wyszukiwarka nie ma żadnych trudności z dostrzeżeniem takich technik na dopiero co zbudowanej stronie internetowej, która ma dopiero zostać zweryfikowana.

Zakończone testy BETA najnowszej wersji Search Console

Oficjalnie ogłoszona, iż ostatnia wersja narzędzia Search Console, wyszła z fazy BETA. Co to oznacza dla użytkowników? Mają oni do czynienia z narzędziem w pełnej wersji, którym można cieszyć się przy codziennej pracy.

Program Search Console, udostępniony został użytkownikom już pewien czas temu, jednak tylko w wersji BETA. Specjaliści od Google systematycznie proponowali kolejne funkcjonalności.

Od tego momentu, wszyscy użytkownicy wersji BETA, mają możliwość przejścia do pełnej jego wersji. Wystarczy wybrać przycisk Użyj nowej wersji Search Console w głównym widoku panelu programu.

123 mizzo pl

Użytkownicy, korzystający z narzędzia, mogą cieszyć się nowym, znacznie przyjaźniejszym panelem nawigacyjnym.

Najnowsza odsłona Search Console nie odrywa się całkowicie od poprzednich wersji. Wręcz przeciwnie. Użytkownicy mają do dyspozycji zestaw funkcji, z których korzystali wcześniej oraz mnóstwo nowinek, usprawnień, które sprawią, iż praca z Search Console będzie jeszcze przyjemniejsza. Znakomitym przykładem takiego usprawnieni jest chociażby mechanizm, prezentujący dane, dotyczące stanu indeksowania serwisu.

Użytkownicy Search Console mają także szansę na sprawdzenie rozmaitych adresów URL serwisu na żywo. Dzięki tej funkcjonalności, w zaledwie parę sekund, można sprawdzić, czy dany adres jest zaindeksowany w wynikach wyszukiwania. Gdyby okazało się, że brakuje indeksacji, program wskazuje przyczynę takiego stanu rzeczy.

Źródło: seostation

 

Firma Google może nakładać sankcje na administratorów stron, którzy łamią zasady, występujące w regulaminie. Do przykładów takich działań, zaliczają się: spamowanie, bezpośrednie kopiowanie treści czy też maskowanie. O tym, że właściciel został pociągnięty do jakichkolwiek konsekwencji z powodu swoich działań, dowiedzieć się może z Search Console, a dokładniej z zakładki Ruch, łączącej się z mechanizmem wyszukiwania (Ręczne działania).

John Mueller (Senior Webmaster Trends Analyst w Google), któremu zadano pytanie o to, kiedy kara zostanie zdjęta z takowej witryny i zostanie ponownie przywrócona jej pozycja rankingu, zastrzegł iż zależne jest to od stopnia nałożonych sankcji. Kara natomiast wynikać będzie z tego, jakiego uchybienia dopuścił się właściciel strony. Google może zaproponować dwa rodzaje konsekwencji: usunięcie lub wyindeksowanie witryny z rezultatów wyszukiwania, połowiczne usunięcie strony z rezultatów wyszukiwania.

Jak postępować w przypadku, gdy któraś z sankcji zostanie nałożona na stronę? W przypadku pierwszej, z wymienionych kar, administrator powinien jak najszybciej naprawić szkodę. Wówczas, witryna ponownie pojawi się w wynikach wyszukiwania Google. Druga z sankcji, uznawana za mniej uciążliwą, zobowiązuje administratora do odwiedzin Googlebot’a.

Każdy z właścicieli witryny, niezależnie od tego, w jakim stopniu dotkliwa jest kara, powinien zgłosić się do pracowników Google o ponowne przeanalizowanie strony. W ten sposób, winowajca dowie się, czy działania naprawcze, które podjął, uznane zostały przez Google za dostateczne. Zainteresowani sposobem przesyłania witryny do ponownego rozpatrzenia, powinni zapoznać się z artykułem, znajdującym się pod następującym odnośnikiem: https://support.google.com/webmasters/answer/35843.

John Mueller podkreślił jednak, że nałożenie jakichkolwiek konsekwencji na witrynę nie wyklucza jej całkowicie z wyszukiwarki Google. Firma nie prowadzi bowiem jakiegoś rejestru stron, na których doszło do uchybień – po tym, jak zostaną one naprawione, witryna ponownie pojawi się w rezultatach wyszukiwarki na takich warunkach, jak wcześniej.

Na blogu Google pojawił się interesujący wpis dotyczący raportu na temat walki z wirusami i spamem w wyszukiwarce w roku 2017. Google informuje w nim o szczegółowych statystykach dotyczących zwalczania zawirusowanych stron internetowych.

We wpisie przeczytać można, że strony, które zostały zhakowane i zainfekowane przez wirusy, są usuwane z indeksu Google, aby chronić użytkowników sieci.

O to kawałek wypowiedzi:

„W poprzednim skupialiśmy się mocno na ograniczeniu wpływu zhakowanych stron internetowych na użytkowników sieci, byliśmy wstanie wykryć i usunąć ponad 80% zainfekowanych serwisów. Ściśle współpracujemy z wieloma dostawcami popularnych systemów zarządzania treścią, takich jak WordPress i Joomla, aby pomóc im w walce ze spamem, który narusza fora i sekcje komentarzy.

Okazuje się, że blisko 80% stron, na których wykryte zostały złośliwe treści, zostały usunięte z indeksu Google. Jest to ważna informacja dla webmasterów, którzy korzystają z popularnych skryptów internetowych oraz nie aktualizują ich na bieżąco. Zainfekowanie strony może być równoznaczne z jej całkowitym wyindeksowaniem i kompletną utratą ruchu z kanału wyszukiwarek.

 

https://www.seostation.pl/

Possum to algorytm odpowiedzialny za lokalne wyniki wyszukiwania.Opos filtruje wyniki wyszukiwania i ukrywa te, które według niego są tą samą firmą lub dzielą wspólny adres.

W praktyce oznacza to, że poszczególne oddziały firmy, które posiadały np.ten sam numer telefonu traciły widoczność (większość z nich była w wynikach ukrywana, czyli "filtrowana"). Opos skutecznie filtruje również wyniki wyszukiwania nawet w oparciu o podobne lokalizacje wielu firm.

Oznaczało to, że w przypadku, kiedy pod jednym adresem znajdowało się 10 firm, opos pokazywał tylko firmę mieszczącą się pod głównym adresem, filtrując wszystkie pozostałe.

Firmy "ukarane filtrowaniem" widoczne były dopiero w dużym powiększeniu map. To wszystko przekładało się oczywiście na ograniczenie ich widoczności.

Joy Hawkins z https://www.sterlingsky.ca/ (zajmująca się lokalnym SEO) poinformowała, że 22 sierpnia 2017r. Google najprawdopodobniej zaktualizowało algorytm lokalnych wyników wyszukiwania, to jest algorytm "Possum". Joy zauważyła, że 22 sierpnia wiele z serwisów jej klientów, których widoczność była ograniczona ze względu na filtr oposa, znacząco zwiększyła swoją widoczność i pozycje w mapach:

 
Co ciekawe zaledwie kilka dni po tym, około 25-28 sierpnia wielu seowców zgłaszało również możliwą aktualizacją algorytmu i spore ruchu w pozycjach serwisów. Możliwe, że Google zaktualizowało również inne algorytmy.

Co zmienia aktualizacja?

Google zmieniając algorytm, zwiększa ilość firm prezentowanych w Google Maps, 3-pakach i lokalnych wynikach wyszukiwania. Joy zauważyła tego typu zmiany u wielu swoich klientów. Spory wzrost widoczności odnotowały m.in. firmy dzielące ten sam adres:

 
Jest to dobra wiadomość dla firm wynajmująca pomieszczenia w lokalizacji, gdzie mieści się wiele innych firm, czy korzystających z popularnych "wirtualnych biur". Obecnie, tego typu adresy były raczej ciężkie do pozycjonowania w lokalnych wynikach wyszukiwania, głównie ze względu na to, że były po prostu ukrywane. Teraz opos zmienia to na lepsze. Aktualizacja dotknęła wielu branż - niestety niektóre lokalizacje nadal są filtrowane.
piątek, 15 wrzesień 2017 12:37

Mawawo - Depilacja Laserowa

Klient: W MAWAWO specjalizujemy się w depilacji laserowej. Najważniejsze jest dla nas, aby efekt końcowy był taki, jakiego oczekujesz. Zabiegi wykonujemy z najwyższą starannością i dokładnością.

Projekt: Projekt oraz wykonanie strony www

Rok 2017

Google po raz kolejny nas zaskakuje i wprowadza nowe wytyczne dotyczące oceny jakości stron internetowych – Google Rater. Warto nadmienić, że jest to już trzecia aktualizacja w tym roku, poprzednie miały miejsce w marcu i maju.

Znaczące zmiany dotknęły działania SEO o charakterze międzynarodowym. W szczególności dotyczą one wyników wyszukiwań w języku innym niż angielski i będących zarówno w wersji angielskiej, jak i nieangielskiej.

Aktualizacja jest kontynuacją prac mających na celu usunięcie nieprawdziwych informacji z wyników wyszukiwania. Ponadto ten etap ma za zadanie sprawić, aby wyniki wyszukiwania były bardziej przejrzyste i łatwe w ocenie przez odpowiednie osoby.

Zmiany dotyczą również algorytmów związanych z wyświetlaniem reklam. Teraz ich treść będzie bezpośrednio dopasowana do tematyki serwisu, dlatego nie będzie możliwości, aby na stronie wyświetlały się reklamy skierowane wyłącznie do osób dorosłych w momencie, gdy serwis porusza inną tematykę.

Jak wygląda strona o najniższej jakości?

Według Google strona o najniższej jakości zawiera wiele nieprawdziwych informacji, a także treści powodujących powstanie teorii spiskowych. Dlatego też osoby mające za zadanie ocenę jakości stron internetowych zostały pouczone o tym, aby skrupulatnie badać informacje na takich witrynach i w razie konieczności oznaczać je w odpowiedni sposób.

Nie chodzi jednak o witryny z informacjami oznaczonymi jako teoria spiskowa, lecz o strony, które takie informacje prezentują jako potwierdzony fakt. W tym przypadku niemal na pewno dana strona otrzyma najniższą ocenę.

Szczegóły zmian w zakresie oceny jakości strony.

  1. Zmieniono wytyczne związane z lokalizacją i kierowaniem wyników na wybrany obszar.

  2. Od teraz oceniający mają za zadanie sprawdzanie poprawności wyświetlania aktualnych wyników wyszukiwania na dane zapytanie.

  3. Wyświetlanie pornografii możliwe jest wyłącznie po wpisaniu precyzyjnej frazy kluczowej. Reklamy o tej tematyce również nie powinny pojawić się w witrynie niezwiązanej z pornografią. Jeżeli tak się dzieje – strona otrzymuje niższą ocenę.

  4. Istotną rolę odgrywa również odpowiednie oznaczenie języka strony. Od teraz wszystkie strony w języku obcym (innym niż angielski) powinny być oznaczone właściwą flagą.

  5. Osoby oceniające strony w jednym, innym niż angielski języku, od tej pory mają obowiązek "wczuć się" w użytkownika z danego regionu i badać jakość strony pod kątem jego lokalizacji, preferencji i języka ojczystego.

  6. W przypadku poszczególnych fraz wprowadzonych w języku innym niż angielski możliwe jest wyświetlanie anglojęzycznych wyników wyszukiwania, zwłaszcza gdy zapytanie dotyczy konkretnej firmy, zawiera szczegółowe oznaczenia wybranego produktu lub informacje naukowe.

Ponadto zmiany widoczne są również w wytycznych dla wyników w językach innych niż angielski. Taki stan rzeczy bezpośrednio wskazuje na fakt, że Google chce poprawić jakość wyników wyszukiwania i ograniczyć spam w poszczególnych wersjach swojej wyszukiwarki.

Szczegółowe informacje o świeżo wprowadzonych zmianach znajdują się pod adresem: https://static.googleusercontent.com/media/www.google.com/en//insidesearch/howsearchworks/assets/searchqualityevaluatorguidelines.pdf

sobota, 09 wrzesień 2017 08:56

Google ostrzega właścicieli stron bez HTTPS

Jeśli jesteś właścicielem strony, na której pojawia się jakikolwiek formularz danych (wystarczy nawet prosty formularz zapisu na newsletter), a Twoja strona nie posiada wdrożonego protokołu HTTPS, to nie zdziw się jeśli otrzymasz taką wiadomość.

Jeśli do tej pory zastanawiałeś się czy warto przejść na HTTPS, wygląda na to, że zamiast wciąż nad tym rozmyślać, powinieneś zacząć pilnie działać w kierunku jego wdrożenia. Zmiana została zapowiedziana już na październik, więc czasu zostało niewiele.

Warto też zwrócić uwagę na ten fragment wiadomości od Google:

"Nowe ostrzeżenie stanowi element długoterminowego planu mającego na celu oznaczenie wszystkich stron, które obsługują bezszyfrowy protokół HTTP, jako niebezpiecznych".

 

Strona 2 z 11

Artykuły

 

 

Projektowanie stron internetowych Warszawa 

- Najnowsze realizacje -

Usługi PPOŻ. | szkolenia BHP | usługi BHP
Bieg Banku BNP Paribas „Podaj zmianę
Ekoklimat - producent wózków sklepowych
Centrum Medyczne DECCLINIC
Mawawo - Depilacja Laserowa
Keemple - Technologia pracująca za Ciebie
PISKP - Polska Izba Stacji Kontroli Pojazdów
Wizytówka Tj-Gazy - Sprzedaż butli gazowych Rzeszów
Tj-Gazy - Sprzedaż butli gazowych Rzeszów
SPA - Klinika Urody Laura
Centrum medycyny Holistycznej | gd-med.pl
Apl Print - Drukarnia Online
Fitmuscle Shop - Sklep z Suplementami diety
Dynamic Motion Systems

Klienci

 

adamed        escada         podkarpackie logo            dom       grycan      champion-eu.com orange mitcar patti domtrybuna  stanica przygoda      Dr Mołas