Komputery Okna Internet

Kompletny przewodnik po zaktualizowanym algorytmie Google Penguin. Filtr Pingwin od Google - po co powstał i jak tego uniknąć. Pingwin Google co

Wydaliśmy nową książkę „Marketing treści w mediach społecznościowych: jak dostać się do głów obserwujących i sprawić, by zakochali się w Twojej marce”.

Filtr Google Penguin to jeden z najnowszych algorytmów wykorzystywanych przez firmę do pozycjonowania witryn w wynikach wyszukiwania.

Obecnie Google bierze pod uwagę ponad dwieście czynników podczas rankingu witryn. Aby uwzględnić je wszystkie, nie wystarczy jeden algorytm, potrzeba kilku, z których każdy rozwiąże własne problemy.

Głównym zadaniem filtra Penguin jest identyfikacja i blokowanie witryn stosujących nieuczciwe metody promocji, z których główną jest zakup masy linków. Algorytm jest stale udoskonalany i obecnie filtr Google Penguin jest aktualizowany niemal na bieżąco.

Historia rozwoju algorytmu Pingwina

Google Penguin został wydany światu w kwietniu 2012 roku. W ciągu kolejnych dwóch miesięcy był dwukrotnie aktualizowany, twórcy dostosowali pierwszą wersję filtrów. Prawie rok później pojawiła się druga wersja algorytmu, zaktualizowany Penguin działał subtelniej i uwzględniał nie tylko poziom spamu linkowego, ale także ogólny poziom strony.

Jesienią 2014 roku algorytm został ponownie zaktualizowany. Trzeba powiedzieć, że w tamtym czasie zachowywał się w taki sposób, że witryny, które wpadły pod jego filtry, musiały długo czekać po poprawce na wydanie kolejnej aktualizacji, aby ponownie przejść kontrolę. Sytuacja uległa zmianie w 2016 roku, po wydaniu Google Penguin 4.0, który działał w czasie rzeczywistym i był na bieżąco aktualizowany. Najnowsze wersje algorytmu działają wyjątkowo delikatnie - pod uwagę brany jest poziom serwisu, jakość stron, a linki niskiej jakości są usuwane bez wysyłania całej witryny do bana.

Za co karze Google Penguin?

Eksperci uważają, że algorytm Penguin powinien uzupełniać algorytm Google Panda, który odpowiada za sprawdzanie zawartości stron internetowych. Aby zapobiec wpadnięciu Twojego zasobu w filtr Google Penguin, musisz ostrożnie pracować z zewnętrznymi linkami do witryny i unikać tego, co eksperci nazywają manipulacją linkami. Główne metody takiej manipulacji to:

  • Linki „handlowe”, gdy właściciel witryny publikuje w swoich zasobach linki do witryn innych osób za pieniądze lub inną płatność.
  • Oczywiście sztuczna wymiana linków, gdy strony łączą się ze sobą w wyniku zmowy właścicieli, a nie ze względu na jakość treści.
  • Korzystanie z dużej liczby tekstów na stronie, które zawierają wiele „naciąganych” kotwic i słów kluczowych.
  • Korzystanie z usług, które automatycznie generują linki do serwisu.
  • Obecność na stronie linków zawierających bezpośrednie słowa kluczowe w kotwicy.
  • Używanie linków krzyżowych ze słowami kluczowymi zakotwiczonymi na pasku bocznym i stopce witryny.
  • Komentarze do materiałów witryny zawierające linki do zasobów spamowych.
  • Nadmierna ilość reklam kontekstowych na stronie głównej serwisu.

Za korzystanie z takich nieuczciwych schematów linków filtr Google Penguin szybko i niezawodnie „upuści” Twoją witrynę o wiele stron w wynikach wyszukiwania. Co więcej, bardzo trudno będzie Ci odzyskać pozycję, ponieważ Google Penguin sprawdza witrynę tylko dwa razy w roku.

Jak dowiedzieć się, czy Google Penguin zastosował sankcje

W odróżnieniu od algorytmu Google, który działa wyłącznie w trybie automatycznym, Penguin służy także do ręcznej moderacji. Jeśli zauważysz gwałtowny spadek ruchu, przejdź do Narzędzi Google dla webmasterów, w sekcji „Podjęto ręczne działania” i sprawdź, czy są tam wiadomości od moderatorów.

Jeśli jest pismo, wystarczy, że poprawisz wskazane w nim braki i wyślesz prośbę o wystawienie nowego czeku.

Najczęściej jednak algorytm działa automatycznie. W takim przypadku warto wejść na Moz.com i sprawdzić, czy nie pojawiły się jakieś najnowsze aktualizacje Penguina. Jeśli pojawiły się aktualizacje, diagnoza została postawiona prawidłowo i czas rozpocząć „leczenie” witryny. Korespondencję tę możesz również zidentyfikować korzystając z usługi PenguinTool znajdującej się na stronie internetowej Barracuda. To prawda, że ​​​​w tym celu będziesz musiał zapewnić usłudze dostęp do swojego konta Google Analytics, aby porównała okres spadku ruchu z czasem wydania nowej aktualizacji. Wynik porównania pomoże Ci zrozumieć, czy dajesz się złapać filtrom Penguina, czy nie.

Co robić? gdyby Google Penguin Cię złapał

Jeśli wpadniesz w filtry tego algorytmu, najgorsze, co możesz zrobić, to wpaść w panikę i usunąć wszystkie linki. To całkowicie zniszczy zasób.

Strona uznana przez wyszukiwarkę za kiepską jakość wymaga spokojnej i przemyślanej reorganizacji. Sam Google proponuje ponownie zdobywać masę linków, powoli, naturalnie i głównie poprzez tworzenie unikalnych treści.

Pierwszą rzeczą, którą musisz zrobić, aby wydostać się spod filtra, jest analiza profilu linków zasobu. Musisz zrozumieć, które linki pochodzą z witryn wartościowych, czyli przydatnych, interesujących i odwiedzanych, a które ze spamowych. Możesz to zrobić korzystając z usługi SEO Majestic. Linki do stron spamowych (linki wewnętrzne) należy neutralizować za pomocą banów noindex i nofollow, które zablokują indeksowanie „złych” linków i zablokują przejścia do nich. Aby usunąć linki zewnętrzne, musisz skorzystać z usługi Google odrzucania linków. Usługa nazywa się, Google Penguin po prostu nie bierze pod uwagę zawartych w niej linków.

Drugim krokiem jest zmiana kotwic linków. Wykonuje się to na dwa sposoby. Pierwsza polega na zmianie linku na link niebędący kotwicą, ale może to zrobić tylko doświadczony webmaster. Druga metoda polega na zbudowaniu profilu linku poprzez utworzenie nowych linków niebędących kotwicami.

Trzecim krokiem jest poszerzenie bazy dawców linków, czyli zadbanie o to, aby linki pochodziły z różnych źródeł: z forów, z sieci społecznościowych, z katalogów, z blogów i mediów, takich jak magazyny internetowe i portale informacyjne. Pełna sanityzacja miejsca i usunięcie filtrów trwa zwykle 3-4 miesiące.

Aby nie wpaść w filtry Google Penguin, należy przyciągać tylko linki wysokiej jakości, utrzymywać stałą dynamikę wzrostu profilu linków i nie stosować w linkach bezpośrednich kotwic. Wysokiej jakości treści i naturalne budowanie linków z różnych źródeł uchronią Cię przed sankcjami wyszukiwarek lepiej niż jakikolwiek specjalista.

Penguin to algorytm wyszukiwarki Google, którego pierwotną rolą było zwalczanie nienaturalnych (kupionych) linków. Data pierwszego wydania Penguina 1.0 to 24 kwietnia 2012 roku.

Kolejne aktualizacje:

Premiera aktualizacji Penguin 4.0 była kilkukrotnie opóźniana. Wydanie aktualizacji zaplanowano na koniec 2015 roku, jednak prace nad udoskonaleniem algorytmu trwały do ​​września 2016 roku.

Przedstawiamy tłumaczenie artykułu z oficjalnego bloga Google: https://webmasters.googleblog.com/2016/09/penguin-is-now-part-of-our-core.html

Pingwin stał się częścią podstawowego algorytmu Google

Algorytm Google wykorzystuje ponad 200 unikalnych sygnałów, czyli „wskazówek”, aby szybko znaleźć to, czego szuka użytkownik. Sygnały te obejmują określone słowa na stronach witryny, częstotliwość aktualizacji treści, region witryny i PageRank. Jednym z takich sygnałów Google jest algorytm Penguin, który został uruchomiony w 2012 roku i został zaktualizowany 23 września 2016 roku.

Po ulepszeniach i testach Google udostępnia aktualizację algorytmu Penguin we wszystkich językach. Przedstawiamy Państwu najważniejsze zmiany, które zobaczycie, były to jedne z najpopularniejszych próśb webmasterów:

  • Teraz Penguin działa w czasie rzeczywistym. Historycznie rzecz biorąc, lista witryn dotkniętych atakiem Penguin była okresowo aktualizowana. Kiedy webmasterzy ulepszali swoje witryny, wiele algorytmów Google dość szybko aktualizowało informacje na ich temat, ale algorytmy takie jak Penguin potrzebowały czasu na aktualizację danych. Teraz dane Penguina aktualizowane są w czasie rzeczywistym, co sprawia, że ​​zmiany na stronie zostaną zauważone przez Google znacznie szybciej. Z reguły zaczynają obowiązywać natychmiast po ponownym przeszukaniu i zaindeksowaniu stron przez robota. Oznacza to, że Google nie zamierza ogłaszać żadnych kolejnych aktualizacji.
  • Pingwin stał się bardziej szczegółowy. Obecnie degraduje strony zawierające spam, zmieniając rankingi na podstawie sygnałów spamowych, zamiast wpływać na ranking witryny jako całości. Oznacza to, że niedoszacowano wydanie jednej lub kilku stron, a nie całej witryny.

Internet znacząco się zmienił na przestrzeni lat, ale jak stwierdził Google w swoim pierwotnym poście, webmasterzy powinni mieć swobodę skupienia się na tworzeniu atrakcyjnych i przydatnych witryn. Należy również pamiętać, że aktualizacje takie jak Pingwin to tylko jeden z ponad 200 sygnałów wykorzystywanych przez Google do ustalania rankingu witryn.

Jeśli zastanawiasz się: jak usunąć witrynę z Penguina? Jak usunąć ręczny filtr Google? Następnie ten przewodnik pomoże Ci rozwiązać te problemy, odzyskać pozycje i ruch.

W wyszukiwarce Google istnieją dziesiątki dobrze znanych filtrów, które mogą znacząco wpłynąć na Twoją promocję, a także setki, o których wie niewiele osób.

Dzisiaj porozmawiamy o najbardziej podstawowych i powszechnych filtrach. Mianowicie:

  1. Automatyczny filtr Google dla linków zwrotnych

Wszystkie w ten czy inny sposób nawiązują do algorytmu o nazwie Google Penguin, który wszedł w życie ponad rok temu i zdążył już narobić sporo hałasu.

Objawy takiego filtra

  1. upadek stanowisk
  2. gwałtowny spadek ruchu na stronie

W praktyce będzie to wyglądać następująco:

Nie do końca przyjemna sytuacja. Zwłaszcza, gdy w większości przypadków głównym źródłem przyciągania odwiedzających jest ruch związany z wyszukiwaniem.

Przyjrzyjmy się teraz bliżej każdemu rodzajowi filtra linków zwrotnych.

Ręczny filtr Google pod kątem sztucznych linków przychodzących

Często wszystko zaczyna się od komunikatu w panelu Google Webmasterów. To wygląda tak:

Powiadomienie zawiera wiadomość tego rodzaju:

Wiadomości mogą być różne, na przykład:

Aby znaleźć wiadomości filtrowane ręcznie, wykonaj następujące czynności:

Po otrzymaniu powiadomienia o sztucznych linkach przychodzących zazwyczaj pojawiają się następujące konsekwencje:

A) W ciągu 2-3 tygodni pozycje znacząco spadają, po czym zanika ruch z wyszukiwarki Google

B) Pozycje natychmiast znikają, a ruch spada

Powody ręcznego filtra Google

Głównym sygnałem powodującym nadejście takiego powiadomienia jest link kotwiczący i jego nadmierny spam.

W przykładzie tekst linków zwrotnych do jednej ze stron, na którą miał wpływ filtr. Głównym powodem zastosowania filtra jest spam zakotwiczony.

Inny przykład:

Jeśli spojrzysz na unikalne domeny, otrzymasz następujący obraz:

Używanie linków zwrotnych z komercyjnymi lub innymi słowami kluczowymi prowadzi do ręcznego filtrowania, utraty rankingów i ruchu.

Co w takim razie robić i co robić?

Rozwiązanie jest niezwykle proste – nie używaj dużego odsetka linków zawierających słowa kluczowe.

Instrukcje krok po kroku dotyczące usuwania ręcznego filtra Google

  1. Powiadomienie Google
    Sprawdźmy, czy w Narzędziach Google dla webmasterów jest powiadomienie. Jeśli tak, przejdź do następnego punktu.
  2. Prośba o recenzję
    W pierwszej prośbie o sprawdzenie ważne jest, aby wyjaśnić, które linki naruszają zasady wyszukiwania i zapytać, co należy zrobić, aby usunąć ręczne sankcje.
  3. Dostajemy odpowiedź

    W większości przypadków odpowiedź wskazuje te linki, według których witryna narusza zasady wyszukiwania. Na przykład:

    Dzięki temu możemy określić, na które linki Google zwraca uwagę i uznaje je za spam.

  4. Wykonujemy wskazane działania

    Dalsze działania zależą w dużej mierze od profilu łącza.

    Sytuacja 1

    Istnieje duża liczba wypożyczonych linków do Twojej witryny i w większości przypadków są to bezpośrednie kotwice zawierające słowa kluczowe.

    W tym przypadku jest to konieczne:

    1. czyste linki z kotwicami (również te w przykładzie Google)
    2. przejdź do następnego punktu - nowy wniosek o recenzję

    Jeśli rzeczywiście usuniesz większość tych linków, wówczas ręczny filtr będzie można usunąć z jednego lub dwóch zapytań.

    Sytuacja 2

    W tym przypadku jest to konieczne:

    1. wyświetl wszystkie linki zwrotne (możesz skorzystać z usług sprawdzania linków zwrotnych, np.: Ahrefs, MajesticSeo, LinkPad)
    2. zrób listę niechcianych linków (główne kryteria: zakotwiczenie, niska jakość strony)
    3. dodaj linki do narzędzia Disavov - https://www.google.com/webmasters/tools/disavow-links-main?/
    4. odczekaj 1-2 tygodnie (z praktyki wynika, że ​​linki należy ponownie zaindeksować)
    Następnie przejdź do kolejnego punktu i złóż prośbę o sprawdzenie.
  5. Przesyłanie nowego wniosku o sprawdzenie

    Twoja prośba o ponowne rozpatrzenie musi:

    1. jasno opisz co zrobiłeś
    2. proste i jasne
    3. i wyjaśnij, co jeszcze należy zrobić, aby usunąć filtr

    Następnie potrzebujesz trochę czasu na zrewidowanie swojej witryny. Może to potrwać od kilku dni do 3-4 tygodni.

  6. Odpowiedź pośrednia

    Odpowiedź pośrednia zazwyczaj zawiera następującą treść:

    To powiadomienie od Google pojawia się niemal natychmiast po przesłaniu prośby o sprawdzenie.

  7. Czekamy na decyzję

    Odpowiedź zwykle przychodzi w ciągu 1-2 tygodni, czasem dłużej, a czasem szybciej.

    Zawiera odpowiedź negatywną, na przykład:

    Jeśli odpowiedź jest negatywna, To:

    1. ponownie przeglądając linki
    2. dodaj do Google Disavov
    3. lub po prostu usuń linki
    4. w każdym razie należy podjąć działania
    5. złożyć nowy wniosek o rozpatrzenie

    Ale odpowiedź może być po wykonaniu powyższych kroków pozytywny, Na przykład:

    W tym przypadku gratulacje! Ręczny filtr Google został usunięty.

W naszym przykładzie usunięcie witryny z ręcznego filtra Google przebiegało powoli; tak wygląda chronologia wydarzeń:

Ważne punkty przy samodzielnym usuwaniu filtra:

  1. Aby się nie poddać
  2. podejmij działania (a nie tylko wysyłaj prośby o sprawdzenie)
  3. jeśli zrobisz wszystko jak opisano powyżej, ręczny filtr z Google zostanie usunięty, zwrócisz pozycje i ruch

Oto informacje, które uzupełnią ten materiał i pomogą skutecznie usunąć filtr:

  1. Motywy USA
  2. Studium przypadku: jak usunąć ręczne sankcje Google za pomocą narzędzia Disavow Tool oraz zwrócić pozycje i ruch
  3. Studium przypadku: jak usunąć ręczne sankcje Google oraz zwrócić pozycje i ruch

W ręcznym filtrze nie ma nic złego, najważniejsze to nie lenić się i wykonać szereg działań, które doprowadzą do pożądanego rezultatu.

Efektem jest powrót frekwencji do poprzedniego poziomu, np.:

W tym przykładzie rozważymy kilka witryn, których filtry zostały usunięte w różnym czasie.

Według czasu usunięcia filtra:

  1. Rekord 4 dni
  2. najdłuższy okres 3,5 miesiąca

Ale w każdym razie musisz działać szybko i wziąć pod uwagę punkty opisane powyżej.

Automatyczny filtr linków zwrotnych

Dzięki automatycznemu filtrowi Google wszystko jest znacznie bardziej skomplikowane. Ponieważ nie ma o tym żadnego komunikatu.

Ważne: automatyczne sankcje mogą zostać usunięte podczas oficjalnej aktualizacji algorytmu Google Penguin, która następuje średnio raz na 2-4 miesiące.

Nieważne co zrobisz, dopóki algorytm nie zostanie zaktualizowany, nic się nie zmieni, jeśli będą to sankcje automatyczne.

Usunęliśmy automatyczny filtr więcej niż raz, ale nie zawsze wszystko dzieje się szybko.

Filtruj znaki

Wszystko jest takie samo jak w przypadku ręcznego, ale nie pojawia się żadne powiadomienie.

  1. pozycje najpierw spadają na poziomie – 30-50
  2. ruch na stronie spada

A potem długo nie wraca.

Główne powody:

  1. Bezpośrednie wprowadzenie kotwicy łącza
  2. Linki zwrotne niskiej jakości

Instrukcja krok po kroku usuwania filtra automatycznego

W tym przypadku, w przeciwieństwie do manuala, wszystko jest znacznie dłuższe i bardziej skomplikowane.


Podsumowując na temat filtra Google Penguin

Algorytm został uruchomiony w 2012 roku i jest stale udoskonalany. Jego głównym zadaniem jest zwalczanie spamu i sztucznej manipulacji wynikami wyszukiwania.

Aby uniknąć wpadnięcia pod filtr, niezbędny:

  1. nie używaj bezpośredniego arkusza kotwiącego w bardzo zauważalny sposób lub nie używaj go wcale
  2. przyciągnąć wysokiej jakości linki do witryny
  3. postaraj się skupić na produkcie i jego jakości, aby uzyskać naturalne linki (tak, jest to możliwe nawet w realiach RuNetu)
  4. utrzymuj dynamikę – Google lubi stałą dynamikę

Wtedy nie będziesz miał żadnych pytań dotyczących filtrów, a Twój ruch będzie stale rósł. Naturalnie, jeśli pracujesz nad:

  1. zawartość witryny
  2. przyciąganie naturalnych linków (nie zakupionych)

Nawet jeśli już nadepnąłeś na prowizję i otrzymałeś sankcje od Google, nie powinieneś się zawieść - zawsze jest rozwiązanie.

Mam nadzieję, że ten przewodnik krok po kroku pomoże Ci rozwiązać problem odzyskania rankingów i ruchu z wyszukiwarki Google.

Ważne: w tym artykule omówiono wyłącznie filtry związane z algorytmem Google Penguin i linkami zwrotnymi.

Jeśli Twoje rankingi i ruch gwałtownie spadły, przyczyną mogą nie być wcale linki, ale na przykład treść. Odpowiada za to algorytm Google Panda.

Powodzenia! Do zobaczenia wkrótce na stronach bloga

Możesz być zainteresowany

Anchory – co to jest i jakie znaczenie mają w promocji serwisu? Wypieraj się linków, czyli jak ustalić, któremu filtrowi Google (Panda czy Pingwin) podlega dana witryna
Terminologia SEO, akronimy i żargon Dlaczego możesz zostać wyrzucony z Yandex, podlegać AGS lub filtrowi na stopy, a także sposoby uniknięcia tych sankcji
Rel Nofollow i Noindex - jak zablokować linki zewnętrzne w witrynie przed indeksowaniem przez Yandex i Google
Zaufanie witryny – czym jest, jak je mierzyć w XTools, co na nie wpływa i jak zwiększyć autorytet swojej witryny Funkcje promocji sklepu internetowego
Metody optymalizacji treści i uwzględnienia tematyki serwisu podczas promocji linków w celu minimalizacji kosztów
GoGetLinks - wieczne linki do promocji serwisu i zarabiania na giełdzie GoGetLinks dla webmasterów
Treść serwisu - jak wypełnienie go unikalnymi i użytecznymi treściami pomaga w nowoczesnej promocji serwisu internetowego
Rozszyfrowanie i wyjaśnienie skrótów, terminów i żargonu SEO

Filtry Google może przysporzyć wielu problemów zarówno młodej witrynie, jak i dużemu portalowi o ugruntowanej pozycji. Powody wpadnięcia do filtra mogą być różne, ale efekt będzie zauważalny: ruch w witrynie znacznie spadnie.

Jak nie dać się złapać filtrowi?

Promując i optymalizując swoją witrynę w Internecie, musisz znać zasady pozycjonowania w wyszukiwarkach. Nieprzestrzeganie zasad ustalonych przez wyszukiwarki może skutkować szeregiem sankcji, których efektem najczęściej jest zablokowanie strony. Zablokowanie strony oznacza, że ​​nie będzie ona wyświetlana w wynikach konkretnej wyszukiwarki, co niewątpliwie będzie się wiązać z utratą osób odwiedzających witrynę.

Mechanizm nakładania sankcji jest filtr wyszukiwarki, który sprawdza witrynę pod kątem rażących naruszeń. Rażące naruszenia oznaczają sztuczną promocję na różne sposoby, co skutkuje zniekształceniem wyników wyszukiwania. Ten problem występuje najczęściej wśród wszystkich wyszukiwarek, ale jak widać wraz z pojawieniem się nowych filtrów Internet stał się znacznie czystszy.

W tej chwili istnieje około stu różnych filtrów samego Google - nie wszyscy o nich wiedzą, ponieważ tylko niewielka część może mieć wpływ na webmasterów. Niedawno mówiłem o stosunkowo nowym filtrze, o którym również polecam poczytać.

Filtr Google Penguin

Funkcje pingwina

Filtr został wypuszczony na rynek w 2012 roku i swoim wyglądem wywołał sporo hałasu. Po pierwszej aktualizacji wiele witryn straciło swoje pozycje, po czym pojawiło się palące pytanie: jak wydostać się z filtra?

Funkcja Google Penguin:

  • nienormalna utrata pozycji w wynikach wyszukiwania
  • na podstawie pierwszego - duże straty w frekwencji

Trudno nie zauważyć dostania się pod filtr, ale trudno zrozumieć, jaki to filtr i jakie są powody, dla których się pod niego dostał. Pingwin był wrażliwy na linki zewnętrzne i potrafił rozpoznać problemy takie jak:

  • mnóstwo słów kluczowych
  • brak wpisów w postaci adresu strony internetowej
  • brak lub niedobór darczyńców tematycznych
  • wymiana linków
  • dawców niskiej jakości lub będących spamerami
  • nierównomierny rozkład masy linków na stronach
  • zduplikowana treść

Zatem głównym zadaniem filtra było właśnie blokowanie zasobów o niskiej jakości, do których prowadzą witryny o niskiej jakości. Co więcej, te linki muszą być naturalny: Strona powinna zawierać nie tylko wpływowe linki, ale także takie, które nie niosą ze sobą żadnej wagi.

Oprócz linków zewnętrznych wymagania dotyczyły także linków wychodzących. Podając taki link, powinieneś upewnić się o jakości strony, w przeciwnym razie możesz wpaść w pułapkę Pingwina. Dotyczy to zwłaszcza projektów komercyjnych, którym poświęca się szczególną uwagę. Najprostszym rozwiązaniem problemu jest określenie .

Jak już wspomniałem, ważnym kryterium filtru jest − naturalność linków. Nie należy pozwalać na gwałtowny wzrost liczby linków - tylko w miarę rozwoju projektu. Nawet jeśli linki są wysokiej jakości, ich nagłe pojawienie się w dużych ilościach z pewnością doprowadzi do jednego - wpadnięcia pod filtr, a nawet więcej.

Aby uniknąć problemów z Penguinem, warto wziąć pod uwagę jeszcze jedno kryterium: duplikację treści. Penguin analizuje Twoją witrynę pod kątem wyszukiwania i jeśli występują duplikaty, może również nałożyć sankcje. Warto zauważyć, że Penguin przeprowadza jedynie powierzchowną analizę treści, w przeciwieństwie do następnego filtra, któremu się przyjrzymy.

Jak wyjść z filtra Google Penguin

Jeśli nadal wpadniesz pod filtr, nie rozpaczaj. Możesz i powinieneś się wydostać, to tylko kwestia czasu - najważniejsze jest, aby zrozumieć, pod jakim filtrem wpadłeś. Specjalnie do tego celu służy wygodna usługa – która będzie musiała dostarczać dane z Google Analytics. Za jego pomocą możesz porównać spadek ruchu i aktualizację określonego filtra.

Jeżeli zostaniesz objęty filtrem, webmaster Google otrzyma odpowiednie powiadomienie. Jeśli to jest Pingwin, zacząłbym od odfiltrowania linków przychodzących o niskiej jakości: właśnie o to chodzi w filtrze – aby walczyć z linkami zakupionymi. Po zidentyfikowaniu niepotrzebnych linków musisz się ich pozbyć. Specjalnie w tym przypadku Google udostępniło usługę dla domeny .

Wtedy wszystko zależy od Ciebie i wielkości masy linków: jeśli linków jest mało lub masz dużo czasu, zawsze możesz samodzielnie przeprowadzić audyt i wyeliminować spamerskie linki. W przeciwnym razie możesz skorzystać ze specjalnej usługi, która wykona całą pracę za Ciebie.

Po wejściu na stronę otwórz menu „BackLinks Checker” i pobierz otrzymany wcześniej plik w formacie CSV:

Następnym krokiem jest wybór rodzaju czyszczenia:

  • Łatwe czyszczenie- usuwane będą tylko linki zwrotne z witryn o najniższej jakości;
  • Umiarkowane czyszczenie- wszystkie strony o jakości poniżej średniej zostaną usunięte;
  • Doskonałe sprzątanie- całkowite usunięcie wszystkich podejrzanych linków;
  • Ciężkie czyszczenie- pozostaną tylko linki najwyższej jakości;
  • Potrzebujesz wszystkich opcji- uzyskaj kilka opcji czyszczenia.

Po zakończeniu operacji zostanie zaproponowany plik do zapisania w formacie tekstowym, który będzie zawierał 2 pliki:

  • lista linków wysokiej jakości
  • lista linków niskiej jakości

Następnie możesz bezpiecznie przejść do usługi usuwania linków Google, o której wspomniałem powyżej i po prostu dodać plik z linkami niskiej jakości. Najciekawsze jest to, że wszystko jest już przygotowane do działania w Google Webmasterach – linki niskiej jakości zostają doprowadzone do odpowiedniego formatu w usłudze BackLinks.

Potem pozostaje już tylko czekać na kolejną aktualizację i zniesienie sankcji.

Jeśli nie chcesz sprawdzać jakości każdej witryny, do której zainstalowałeś link wychodzący, wystarczy zabronić jej podążania za pomocą nofollow. O zakazie indeksowania mówiłem już.

Filtr Google Panda

Cechy Pandy

Filtr rozpoczął swoje istnienie w 2011 roku i wywołał ogromne poruszenie w całej sieci. Być może główne zainteresowanie webmasterów wzbudził fakt, że Panda nie zachowała się całkowicie jednoznacznie: niektóre witryny spadły na pozycje, inne wręcz przeciwnie, szybko wzrosły. Panda przez długi czas wprowadzała dysonans w rozumieniu webmasterów – stało się to naprawdę poważnym problemem.

Po pewnym czasie zaczęły pojawiać się pierwsze recenzje i domysły dotyczące algorytmu filtra i jego możliwych kryteriów. Co ciekawe, tym razem Google zaprezentowało niespodziankę w postaci szczegółowego sprawdzenia zawartości stron i zidentyfikowania takich kryteriów jak:

  • obecność kopiuj-wklej
  • ilość informacji w artykułach
  • użyteczność materiału
  • ponowna optymalizacja treści
  • duża ilość reklam na stronie

Wyjątkowość treści stała się cenniejsza niż kiedykolwiek od czasu pojawienia się Pandy. I to jest świetne – teraz w TOP wynikach wyszukiwania trudno znaleźć skopiowany materiał niskiej jakości. To samo tyczy się długości artykułu – artykuły krótkie lub bardzo długie mogą spowodować wpadnięcie filtra pod filtr (najczęściej jest to tylko dodatkowy czynnik).

Przydatność materiału określa się poprzez obliczenie opisanych powyżej kryteriów, a także współczynnika odrzuceń i czasu spędzonego na stronie. Przypomnę, że współczynnik odrzuceń jest jednym z ważnych czynników behawioralnych, według których brana jest pod uwagę jakość witryny.

Nadmierna optymalizacja treści polega na nadużywaniu w artykule słów kluczowych, tzw akademickie nudności. Częste używanie słów kluczowych jest uznawane za spam i na pewno zostanie uwzględnione w filtrze. Przypomnę, że nie należy używać słów kluczowych o gęstości większej niż 2,5%.

To właśnie Panda stała się główną bronią w eliminowaniu reklam na stronach internetowych webmasterów, którzy zmuszeni byli znacznie ograniczyć jej liczbę. Wraz z pojawieniem się tego filtra duża liczba witryn została usunięta z TOP, wśród których pozostały tylko te naprawdę wysokiej jakości lub te, które były w stanie poprawić i dostosować swój projekt do nowych warunków.

Jak wyjść z filtra Panda

Jeśli natkniesz się na filtr taki jak Panda, jest to całkowicie rozczarowująca wiadomość. Wydostanie się spod tego filtra jest dość trudne, ale całkiem możliwe. Główny problem polega na tym, że sankcje Pandy dotyczą głównie treści, których może być bardzo dużo, co komplikuje proces „rehabilitacji”.

Aby wydostać się z filtra Panda, będziesz musiał poważnie popracować nad treścią, jej jakością i charakterystyką witryny jako całości. Konieczne jest znalezienie możliwych problemów behawioralnych lub obecności irytujących reklam (jeśli występują). Jeśli problem nadal leży w samej treści, czeka nas długi proces analizy i edycji.

Najczęściej cały problem leży w nadmiernej optymalizacji tekstu, co jest traktowane jako spam. Nawiasem mówiąc, nawet jeśli są 2-3 takie strony, pociągną one za sobą całą witrynę: dlatego warto sprawdzić każdą stronę witryny pod kątem spamu.

Dlatego też radzę nie starać się wpływać na wyszukiwarkę, tylko pisać teksty dla osób używających słów kluczowych w wystarczającej ilości.

Wszyscy doskonale wiemy, drodzy przyjaciele, jak wyszukiwarki internetowe ciężko pracują nad swoimi algorytmami, filtrami itp., aby zwykłym użytkownikom Internetu dać jak najdokładniej to, czego szukają. Ale te same algorytmy jednocześnie oczyszczają sieć z tego samego spamu lub zasobów niskiej jakości, które jakimś cudem trafiły na TOP. „To tak nie zadziała” - jakoś tak myślą umysły gigantów wyszukiwarek i po raz kolejny chłopaki z Google wyszli z tą myślą.

Tak więc już drugi tydzień w części sieci webmasterskiej szumi i większość jest oburzona: „Google wprowadził coś z czymś i ta piekielna mieszanka obcięła nasze pozycje, co z kolei zmniejszyło ruch”. Tak, rzeczywiście, analizując konkurencję w interesujących mnie niszach, zauważyłem poważne zmiany. Ruch na wielu konkurencyjnych zasobach został zmniejszony o 10, 20, 50, a nawet więcej procent. Po co sięgać daleko, spójrz na niektóre blogi SEO, rzadko zdarza się, aby zobaczyć ruch 150-200 użytkowników dziennie.

Co zatem wymyśliło Google…

20 kwietnia 2012 r. w Internecie pojawiła się wiadomość od programistów Google o następującej treści:

„W nadchodzących dniach wprowadzimy ważną zmianę algorytmu mającą na celu wycelowanie w spam internetowy. Zmiany spowodują obniżenie rankingów witryn, które naszym zdaniem naruszają wymagania Google dotyczące jakości witryn”.

W nocy z 24 na 25 kwietnia wprowadzono nowy algorytm Google - Pingwin Google’a (Pingwin Google’a). Miłość Google do zwierząt wywołała wiele szumu. W tym samym wyszukiwaniu utworzono kilka tematów z ogromną liczbą stron (ponad 500) omawiających nowy algorytm Google Penguin. Niezadowolonych jak zawsze było zdecydowanie więcej niż zadowolonych, bo zadowoleni siedzą cicho i nie palą swoich osiągnięć, które Google Penguin zjadł jedynie z „Hurra”.

Zapoznajmy się najpierw z bardzo podstawowymi wymaganiami dotyczącymi jakości strony internetowej, które stawia Google:

  1. Nie używaj ukrytego tekstu ani ukrytych linków. Google i nie tylko Google od dawna maszeruje pod sztandarem filantropii. To, czego człowiek nie widzi, jest rozumiane i odbierane przez wyszukiwarki jako próba wpłynięcia na wyniki wyszukiwania, co jest porównywalne z manipulacją i jest tłumione w postaci pesymizacji lub innej „szkody”. Pamiętam, że kiedyś ukryty tekst był bardzo modny, oczywiście, bo dawał efekt. Czarny tekst na czarnym tle z pewną optymalizacją, trafiłeś na stronę i zastanawiałeś się, gdzie jest to, co wyświetla wyszukiwarka.
  2. Nie używaj maskowania ani ukrytych przekierowań. Nie ma potrzeby dostarczania robotowi wyszukującemu jednej informacji, a użytkownikowi drugiej. Treść powinna być taka sama dla wszystkich. Jeśli chodzi o przekierowania, Google postanowiło rozczarować tych, którzy lubią zarabiać na przekierowywaniu lub sprzedaży ruchu mobilnego.
  3. Nie wysyłaj automatycznych żądań doGoogle.
  4. Nie przeciążaj swoich stron słowami kluczowymi. Zasada ta od dawna jest wspierana przez Yandex, a pozycjonowanie przeciwko nadmiernej optymalizacji witryn wyraźnie zabiło pracę zwolenników wypełniania witryny kluczami. Jeśli wcześniej można było upchać artykuły słowami kluczowymi i cieszyć się ruchem z Google, to teraz jak widzisz i rozumiesz, nie wszystko jest takie proste. Ale nie zapomnij o czynnikach użytkownika lub tak zwanych czynnikach behawioralnych. Jeśli są na dobrym poziomie, to nawet niewielka nadoptymalizacja nie stanowi problemu, bo czynniki behawioralne użytkowników zawsze były, są i najprawdopodobniej będą priorytetem. Tylko tutaj wszystko jest nieco bardziej skomplikowane - wyobraź sobie, co należy podać i w jakiej ilości, aby te same czynniki behawioralne działały jak najlepiej. Sugeruje to, że treść powinna być naprawdę na wysokim poziomie i interesująca, a nie być lekkim przepisaniem z konkurencyjnej witryny lub niszowego lidera.
  5. Nie twórz stron, domen ani subdomen, które w znacznym stopniu powielają treść Twojej witryny głównej lub jakiejkolwiek innej witryny. W tym momencie Googlersi natychmiast zebrali swoje poglądy na temat powiązań, sieci witryn, drzwi, kopiuj-wklej i przepisywania niskiej jakości.
  6. Nie twórz złośliwych stron, takich jak phishing lub zawierających wirusy, konie trojańskie lub inne złośliwe oprogramowanie. Tego punktu nie należy w ogóle przeżuwać, jednym słowem walcz z wirusami.
  7. Nie twórz portali ani innych stron przeznaczonych wyłącznie dla wyszukiwarek.
  8. Jeśli Twoja witryna współpracuje z programami partnerskimi, upewnij się, że zapewnia wartość dla sieci i użytkowników. Dostarczaj mu unikalnych i trafnych treści, które w pierwszej kolejności przyciągną do Ciebie użytkowników.

Google określiło te 8 zasad jako główne. Ale są jeszcze 4, które szczególnie zostały przez nich zauważone:

  1. Twórz strony witryny przede wszystkim dla użytkowników, a nie dla wyszukiwarek. Nie używaj przebrań ani innych schematów do pracy z witrynami, bądź wyjątkowo przejrzysty.
  2. Nie próbuj używać sztuczek, aby zwiększyć ranking swojej witryny w wyszukiwarkach.
  3. Nie bierz udziału w programach budowania linków, których celem jest podniesienie rankingu Twojej witryny w wyszukiwarkach lub rankingu Google Page Rank. W szczególności unikaj linków wyglądających na spam, zrzuty linków lub złych sąsiadów na serwerze (zwracam uwagę na analizowanie i przeglądanie sąsiadujących witryn, jeśli Twoja witryna jest hostowana na zwykłym hostingu współdzielonym).
  4. Nie korzystaj z nieautoryzowanego oprogramowania do automatycznego kontaktowania się z Google. Sami programiści wyróżniają takie rozwiązania jak WebPosition Gold™.

Ale wydawało się, że wszystko jest znane każdemu, kto wcześniej interesował się tą problematyką.

W pracy nowego algorytmu Google Penguin zaskoczyło mnie rygorystyczne przestrzeganie zasady „ładowania reklam” pierwszej strony. Pamiętajcie, mówiono, że pierwsza strona (strona główna) nie powinna być przeładowana reklamami. Google Penguin wyraźnie zaczął trzymać się tej zasady. Odciął ruch w witrynach z kilkoma dużymi blokami reklam na stronie głównej, nawet jeśli te bloki były własnymi – reklamami Google Adsense. 🙂

Obserwacje na temat pracy Google Penguin

Teraz chciałbym przedstawić kilka moich własnych obserwacji. Rozumiem, że są one przybliżone i odzwierciedlają moje osobiste obserwacje i dane (wskaźniki można odbierać jako względne), ale mają swoje miejsce i mają prawo istnieć. Przeanalizowałem pracę 20 stron, zarówno moich, jak i moich partnerów. Analiza zajęła mi 3 dni i oceniłem wiele wskaźników. Jak rozumiesz, wszystkie witryny były promowane przy użyciu różnych schematów i przy użyciu różnych algorytmów, miały zupełnie inne wskaźniki, co pozwoliło na wyciągnięcie szeregu wniosków.

1. Dokładny wpis. Jeśli wcześniej, aby znaleźć się w Google w czekoladzie, trzeba było dużo dokładnych wpisów, teraz z Google Penguin (Google Penguin) wszystko jest dokładnie tak samo i odwrotnie. To może być dokładnie walka ze spamem internetowym. Yandex od dawna lubił rozcieńczać kotwice, a teraz sprawa trafiła do Google.

  • strony z linkami zewnętrznymi mają dokładny wpis 100% - wypłata wyniosła 75-90%. Średni spadek o około 38 pozycji;
  • strony z linkami zewnętrznymi dokładny wpis 50% - wypłata wynosiła 15-20%. Średni spadek o około 9 pozycji;
  • strony z linkami zewnętrznymi o dokładnym występowaniu poniżej 25% - odnotowano wzrost o 6-10%. Średni wzrost o 30 pozycji.

Na podstawie tych danych doszedłem do wniosku - rozcieńczamy kotwice i rozcieńczamy je tak interesująco i głęboko, jak to możliwe.

Uderzającym przykładem jest prośba o „gogetlinks” na tym blogu. Dokładne wystąpienia znacznie przewyższają liczbę rzadkich wystąpień, a oto wynik:

2. Kupowanie linków tymczasowych. Kupiłem tymczasowe linki do wykończenia lub szybkich wyników na wszystkich analizowanych zasobach i z różnych systemów. Należą do nich Sape, Webeffector, Seopult i ROOKEE.

Automatyczne generatory promocji Webeffector i ROOKEE dały w przybliżeniu takie same wyniki. Spadek praktycznie w ogóle nie został zauważony, na Webeffectorze jedynie niewielki, ale jest on nieznaczny i bardziej związany jest z rozwodnieniem kotwic. W innych momentach obserwuje się nawet wzrost, cóż mogę powiedzieć, oto zrzut ekranu kampanii (klikalny):

Jeśli chodzi o Sape, obraz jest zupełnie inny. Wszystkie projekty, do których łącza zostały zakupione od Sape, zatonęły. Wszystkie prośby, które poruszały się w tej wymianie, wyleciały z TOP 100 i nawet zbieranie statystyk dotyczących tego, dokąd tam poleciały, było w jakiś sposób stresujące, czego ostatecznie nie zrobiłem.

Analizując wpływ Google Penguin na promocję z Sape doszedłem do wniosku, że obecnie Google postrzega umieszczanie linków na tej giełdzie jako nienaturalne.

Tutaj zacząłem aktywnie usuwać linki. Ale sensowne jest podanie własnych przykładów, kiedy możesz pokazać jasne z naszej własnej niszy. Weźmy blog mojego przyjaciela - Siergiej Radkiewicz upgoing.ru. Mężczyzna współpracował z Sape przez kilka miesięcy i był zadowolony ze wzrostu ruchu, dopóki nie pojawił się Google Penguin. Spójrzmy:

Warto także przyjrzeć się wykresowi źródeł ruchu z wyszukiwania:

Jak widać, Google Penguin zredukował ruch z Google ponad 7-krotnie.

Wniosek w tej kwestii jest taki, że podczas pracy z linkami tymczasowymi oraz pewnymi algorytmami rozmieszczania i zakupów nadal należy stosować pewne filtry. Zautomatyzowane usługi działają według określonych schematów, w przeciwieństwie do Sape. Swoją drogą, rezultaty są oczywiste.

Ogólnie oczekuje się, że witryny z Seopultem zwiększą swoje pozycje. Tutaj użyłem algorytmu Seopult Max dla Yandex, ale jak widzę, teraz działa on również z Google.

3. Nadmierna optymalizacja treści. Tutaj również zanotowano spadek, jednak nie tak znaczący jak w przypadku poprzednich parametrów. W obrębie 10 pozycji traciło się jedynie 10-15% artykułów nadmiernie zoptymalizowanych.

Tutaj dochodzę do wniosku, że nie jest tak strasznie przesadzić z optymalizacją, dając sobie pewne gwarancje. Możesz także nadrobić mniejsze wyświetlenia, kupując linki.

4. Wieczne linki. Zapytania promowane przez wieczne linki o normalnym i naturalnym wyglądzie tylko poważnie podwyższają ich rankingi. Niektóre HF VC weszły do ​​TOP 20 bez żadnych manipulacji, ze względu na zauważalny spadek większości ich konkurentów. Tutaj po raz kolejny dochodzę do wniosku, że moja praca w kierunku promocji TYLKO z wiecznymi linkami jest słuszna.

1. Weź pod uwagę wszystkie powyższe informacje i popracuj zarówno nad treścią swojej witryny, jak i nad jej promocją.

2. Sprawdź powiadomienia od Google w Narzędziach Google dla webmasterów z komunikatami o aktywności spamowej w Twoim zasobie. Aby to zrobić, przejdź do http://www.google.com/webmasters/, Zaloguj sie. Następnie przejdź do statystyk swojej witryny i przejdź do sekcji wiadomości (klikalnej):

Jeśli nadal pojawiają się komunikaty, konieczne będzie podjęcie działań w celu rozwiązania problemów wskazanych w komunikatach. Może to obejmować usunięcie linków... Nie wszystkie jogurty są równie zdrowe... 😉

3. Sprawdź swoją witrynę pod kątem złośliwego oprogramowania w Narzędziach Google dla webmasterów:

Rozwiązanie problemu jest takie samo jak w poprzednim akapicie. Identyfikujemy programy i pliki oznaczone przez Google jako złośliwe, znajdujemy je na serwerze, podmieniamy lub usuwamy.

Jeśli wszystko jest naprawdę źle i się poddałeś, to wypełnij formularz i podpisz stworzoną petycję do Google przeciwko Google Penguin. To oczywiście niczego nie gwarantuje, ale chociaż chwila małego samozadowolenia i poczucia „zrobiłem wszystko, co mogłem” na pewno nadejdzie. W tej samej sprawie możesz skontaktować się z twórcami algorytmów za pośrednictwem formularza opinii.

Osobiście trochę straciłem, gdyż główny nacisk położono na prawdziwie SDL i promocję z wiecznymi linkami. Pozbyłem się negatywności w ciągu 2 dni i zacząłem rosnąć w tym samym tempie. Cóż, kto lubił robić wszystko szybko i łatwo - pozostaje mu głównie przeżuwanie smarków.

Jak powiedział jeden z moich znajomych: „Teraz będzie widać hackowanie. Na tych, którzy kochają szybko, tanio i łatwo, czekają duże zmiany. Ci, którzy rozbijają bank, promując w Internecie zwykłych śmiertelników, otwarcie hakując, poniosą fiasko i usłyszą wiele skarg od klientów”…

W komentarzach możesz zamieszczać swoje przemyślenia na temat Google Penguin lub wyników zmian.

Szczęśliwe i jakościowe zmiany dla wszystkich!

W szkole:
- Dzieci, wymyślcie zdanie zawierające wyrażenie „To było trochę”.
Kola:
- Nasza Olya prawie została królową piękności!
Piotr:
- W sobotę prawie spóźniliśmy się z mamą na pociąg...
Wowoczka:
- Dziś rano Lyokha i ja prawie umarliśmy na kacu, ale prawie...