Дивіться також 2 минулих великих експертних опитування на теми:

1. «Як оптимізувати сайти в 2018 році в умовах фільтрів переспама і переоптимизации»

2. «Різниця в просування під Google і Яндекс»

В цей раз я поставила 12-ти відомим SEO-фахівцям такі питання:

— Які фільтри Яндекса і Google дошкуляли найбільше в цьому році?
— Наскільки успішно вдається з ними боротися, які заходи вживали? У чому були найбільші труднощі?
— Які фільтри стали менш відчутні?
— Є якісь цінні, актуальні поради читачам – з профілактики та виходу з-під санкцій?

Дивіться нижче відповіді:

1. Сергій Кокшаров (Девака)
2. Дмитро Севальнєв
3. Олексій Волков
4. Артур Латипов
5. Михайло Шакін
6. Олексій Степанов (АлаичЪ і Ко)
7. Денис Наріжний
8. Рудник Ігор
9. Олексій Праць
10. Дмитро Шахов
11. Валентина Батрак
12. Dr. Max

Сергій Кокшаров,
SEO-аналітик, автор блогу devaka.ru

У цьому році про фільтри від пошукових систем чути менше, ніж у минулі роки. Про Мінусинськ і Пінгвін практично нічого не чути, та й Баден-Баден якось загубився на форумах. Але, на мій погляд, фільтри продовжують діяти, тільки от індикаторів цих фільтрів стало менше, і навіть в панелі не завжди відображаються, що створює складність вебмастеру, так як не зрозуміло, чому проект не зрушується з місця, якщо за нього проводяться видимі роботи.

З найчастіших зараз зустрічаю фільтр за переспам (комплексний), причому, без мітки в панелі вебмайстрів, якщо ми говоримо про Яндексі. Боротися з ним складно, так як вебмайстрам доводиться переписувати більшу частину текстів і заголовків.

Десь зіпсована посилальна карма, і в деяких випадках простіше поміняти домен, ніж шукати способи достукатися до вебмайстрів майданчиків.

Щоб не потрапляти під санкції, мої поради дуже прості:

при написанні текстів і створення структури сайту приділяйте більше уваги юзабіліті, це реально працює; не використовуйте накрутки, шукайте способи отримання посилань з допомогою контент-маркетингу.

Якщо потрібен швидкий результат — краще купити рекламу в пошуку або соцмережах. Заощадите купу часу і сил.

Якщо вже потрапили під санкції, то потрібно чиститися, інших порад дати складно.

Дмитро Севальнєв,
євангеліст проекту «Піксель Тулс»

Найбільш частими фільтрами, з якими SEO-фахівці стикаються кожен день, всі так само залишаються текстові пост-фільтри «Переспам», «Переоптімізація», «Новий» і варіації на тему (судячи з усього, ці алгоритми періодично оновлюються), певні аналоги є і в Google.

У 2018 році можна відзначити і хостовий фільтр, який знижує позиції сайтів в Яндексі «За рекламу, яка вводить в оману» і мімікрує під елементи інтерфейсу. «Так вже виявилося, що туди потрапили багато блоки реклами Google Ads на КМС, а їх заміна на близькі за типом від Яндекс.Директ призводила до зняття санкцій. Алгоритм торкнувся досить багато сайтів в інформаційній тематиці і в CPA-сегменті.

Фільтр афільованості — так, так само зустрічається, Яндекс спеціально або випадково «поламав» 3 різних способи визначення афільованості для двох доменів, які ми використовували в «Піксель Тулс». Зараз довелося залишити інструмент тільки в прихованих.

«Баден-Баден» і «Мінусинськ» — трохи зустрічалися на початку року, але зараз масових оновлень не помічено.

«Санкції за накрутку ПФ» — мають локальні прецеденти, спрямовані на пригнічення росту ряду сервісів, які пропонують такі послуги. Кількість запитів на зняття даного фільтра так само скоротилося на пару порядків.

Інші типи — https://pixelplus.ru/samostoyatelno/stati/prodvizhenie-saytov/sanktsii-poiskovykh-sistem.html скоріше мають поодинокі прояви. Підвищена частота лише у кликджекинга і настирливої / облудній / надмірної реклами.

Якщо говорити про складнощі, то тут все стандартно, головне — швидко і точно діагностувати проблему, вірно визначити причини і взятися за вирішення проблеми. У ряді випадків (з рекламою) вдається повернути видимість в термін до 7 днів.

Найскладніші кейси пов’язані з зовнішніми посиланнями і «Мінусинському», тут, часом, зняття санкцій займає до 3-5 місяців і багато-багато праці.

Грамотно диагностируйте проблеми, з допомогою інструментів розширеної діагностики на текстові пост-фільтри і комплексної перевірки на фільтри, це дозволить прискорити повернення позицій у ТОП. Удачі!

Олексій Волков,
генеральний директор агентства раціонального маркетингу Digital.Tools. Ведучий авторського курсу по SEO.

Google
Влітку в Google змінилося ранжування сайтів, пов’язаних з медичною та фармацевтичною тематикою. У наших клієнтів деякі сайти втратили позиції, причому з незрозумілої для нас причини, так як очевидних мінусів не було, сайти по багатьом запитам були в ТОП 3. Ми почали шукати залежності.

Буквально за пару тижнів до цього Google опублікував оновлену інструкцію асесорів. У цій інструкції приділялося багато уваги авторству і довірі до авторам. Така собі реінкарнація TrustRank в Google. Прийнявши за гіпотезу, що в цьому напрямку потрібно копати, влаштували мозковий штурм, придумуючи щоб такого ми могли б зробити. Ми подумали, що навряд чи Гугл проводить глибокий аналіз вторинних джерел, вишукуючи підтвердження авторитетності автора на зовнішніх ресурсах. Вважали, що спочатку треба опрацювати первинний матеріал — власне сайт. До всіх статей додали детальне зазначення авторства. Воно включало фотографію автора, ПІБ, посада, зазначення його заслуг і міні-біографію. + метатеги, які вже кілька років не вважали актуальними. В першу чергу на інформаційних сторінках. На комерційних лендингах теж вставили аналогічний блок, але вже як оформлені як цитата спеціаліста.

І що думаєте? Допомогло. Позиції і трафік повернулися через деякий час.

Яндекс
Тут навіть складно виділити фільтри, які заважають найбільше. Тому що їх багато і заважають все. На дворі 2018 рік, Яндекс — як мінне поле, обклався фільтрами з усіх боків. Мінусинськ з постійно знижують порогами обсягу посилального, Баден-Баден з необхідністю клієнтам переписати все підряд старовинні тексти, фільтр за нав’язливу рекламу на інформаційних сайтах, від якого постраждало багато наших клієнтів. Тому складно сказати, від якого фільтра Яндекса у мене трусяться руки.

Напевно найбільше мене засмучує не фільтр, а бажання Яндекса випалити органіку на першій сторінці взагалі. Причому не тільки з професійної точки зору, але і як користувача. Надто вже нав’язливо, і особисто я вже змінив пошуковик на Гугл.

Що я можу порадити з профілактики фільтрів в роботі з Яндексом?

Я б радив прийняти правила гри, що сірі методи не працюють. Аналогічно як дешеві і швидкі. «Продовжуйте розвивати сайт» нарешті стало реальним і об’єктивним call to action. Ми намагаємося акуратніше проставляти посилальне, добувати дорогі і складні (видобуваються працею) посилання. Переписуємо тексти для клієнтів. Міняємо структури посадкових сторінок з «seo онуч» на сторінки з реальною користю для відвідувачів. Інакше кажучи, дійсно доводиться вкладатися і впахивать. І це — хороша довгострокова стратегія, тому що, швидше за все, при нових змінах алгоритмах і правил гри, зроблене не втратить своєї актуальності.

Артур Латипов,
керівник рекламного агентства SEO Інтелект і веб-студії «Студія F1»

У цьому році в роботі стикалися з проблемами в Яндексі, основне це текстові постфильтры. Найчастіше це проблеми, схожі з поведінкою фільтра «Переоптімізація» і «Обмеження в ранжируванні». Після проведення робіт з оптимізації (якщо з сайтом тільки почалися роботи), коригування оптимізації з попаданням в основний интент видачі, контроль над кількістю входжень і якістю контенту, проблеми зникають.

В цьому році кілька разів «знімали» Мінусинськ, стикалися з фільтром за дорослий контент, з аффилиатами, кликджекингом, «Баден-Баденом» і фільтром переспам.

Стали більше уваги приділяти аналізу видачі, якості контенту, пост-аналізу поведінкових факторів.

У Google виникають проблеми при поганій адаптивної версії сайту, поганому ссылочном профілі і при текстовому спам на сторінках сайту. Багато часу забирає визначення проблеми. Часто проблема тягнеться бэграундом з минулого сайту.

Рішення займають багато часу з-за проводяться робіт, якщо це не просто складання списку відхилення.

В якості ради, будьте акуратніше з старими методологіями просування, обов’язково стежте за технічним станом сайту, за поведінковими факторами на документах і сайт в цілому, дотримуйтеся посилальної стратегії, не намагайтеся купувати посилання заради покупки; для комерційних сайтів проводите комерційний аудит, додатково уникайте об’ємних текстів в лістингах і слідкуйте за конверсією.

Пам’ятаєте під санкції краще не потрапляти, ніж потім боротися над виходом з-під фільтра.

Михайло Шакін,
shakin.ru

Які фільтри Яндекса і Гугла дошкуляли найбільше в цьому році?

Один з найпоширеніших фільтрів на просторах Рунета, який я зустрічаю на сайтах клієнтів – це Баден-Баден, як хостовий, так і посторінковий.

Якщо дивитися з Google, то тут з перемінним успіхом лідирують Панда і Пінгвін.

Наскільки успішно вдається з ними боротися, які заходи вживали? У чому були найбільші труднощі?

Баден-Баден досить просто визначити і вивести сайт з-під нього цілком реально.
Якщо сайт потрапив під хостовий Баден-Баден, то у вкладці «Безпека і порушення» панелі Яндекс Вебмастера з’являється повідомлення про те, що позиції сайту в результатах пошуку знижені і що на сайті розміщено переоптімізірованниє тексти.

Посторінковий Баден-Баден я визначаю серією тестів над сторінками, які просіли в позиціях і трафік. Редагую текст за кількома схемами і дивлюся, яка саме схема дала позитивний ефект.

Які фільтри стали менш відчутні?

За відчуттями, АГС та Мінусинськ від Яндекса зустрічаються досить рідко.

Mobile-Friendly від Google теж зустрічаю все рідше і рідше.

Є якісь цінні, актуальні поради читачам – з профілактики та виходу з-під санкцій?

В ідеалі треба будувати роботу по просуванню так, щоб сайт не потрапляв під фільтри. Для цього треба знати допустимі межі застосування кожного методу оптимізації і просуванні. Це приходить з досвідом.

Якщо сайт все-таки потрапив під фільтр, то потрібно грунтовно зайнятися цим питанням. В інтернеті зараз велика кількість інформації, яка допоможе вивести сайт з-під санкцій.

Безкоштовні курси SEO від Ганни Ященко – 20 PDF-уроків – Хороші, для новачків, але і не тільки, досить глибокі, актуальні. Хочете навчитися самостійному безкоштовного просування сайтів? Будь ласка.

Олексій Степанов,
Керівник seo-групи веб-студії «АлаичЪ і Ко»

Які фільтри Яндекса і Гугла дошкуляли найбільше в цьому році?

● В Яндексі це позапросный Баден-Баден, Неунікальний контент, Адалт-фільтр, Афіліат-фільтр.

● Напевно, дивно, але в Гуглі ми останнім часом не стикалися з якимись фільтрами, хіба що за мобільні редиректи, віруси і все в цьому дусі.

Наскільки успішно вдається з ними боротися, які заходи вживали? У чому були найбільші труднощі?

Якщо говорити про зняття текстових фільтрів в Яндексі, то тут все досить просто: в деяких випадках текст на сторінці не потрібен взагалі — є сотні прикладів, коли після видалення тексту сторінка потрапляла в ТОП без якихось додаткових дій.

Якщо коротко розглянути інші ситуації, то ми, в компанії АлаичЪ і Ко, перед тим як ставити текстові ТЗ копірайтеру, проводимо аналіз конкурентів з топа, оцінюємо їх тексти по ряду параметрів і пишемо тексти з урахуванням цих даних, сам процес детально описано у статті на нашому блозі. Плюс, ми завжди намагаємося писати в першу чергу для людей. Такий підхід дає успішний результат приблизно в 80 випадках з 100.

Відносно часто стикаємося з аффилированием, але тут ситуації завжди індивідуальні, тому якогось універсального рішення немає. Не так давно я писав практичний кейс з виведення сайту з під афіліат-фільтра, де на прикладі конкретного сайту докладно проаналізував ситуацію і сам процес виведення з під фільтра. Якщо ж говорити в цілому — справляємося з цією бідою досить успішно, крім тих випадків, коли з боку клієнта є обмеження, за яких ми не можемо в повному обсязі провести потрібні нам роботи.

За останній рік двічі зіткнулися з фільтром за дорослу тематику. Перший сайт надає послуги лікування венеричних захворювань, другий — пластичної хірургії інтимних місць. І що дивно — в обох випадках тех. підтримка Яндекса підтвердила, що фільтр накладено помилково. Здавалося б, проблем немає — визнали провину, значить виправлять ситуацію, правильно ж? А ось і ні, коли ми працювали по першому сайту, то Платони «годували» нас обіцянками все виправити цілих чотири(!) місяця. Але, як кажуть, «віз і нині там». З другим сайт тільки почали роботу, але пам’ятаючи перший випадок вирішили паралельно застосувати більш радикальні техніки. Якщо все вийде, то обов’язково викладемо кейс на цю тему в нашому блозі, поки ще занадто рано про щось говорити.

Які фільтри стали менш відчутні?

Як вже писав вище — менш відчутними стали санкції з боку Google, ну, або нам просто дуже щастить і вони обходять нас стороною. Щодо Яндекса виразно менш відчутними стали фільтри Мінусинськ і хостовий Баден-Баден — то їх запускали тільки для того, щоб напоумити сеошників, то всі сайти перестали порушувати. Так чи інакше, але в останній рік ми не зустрічали ні один сайт з цими фільтрами.

Є якісь цінні, актуальні поради читачам – з профілактики та виходу з-під санкцій?

На жаль, стисло не вийде дати якісь конкретні поради з профілактики та виходу з-під санкцій, але на мій погляд найважливіше — «знати ворога в обличчя», коли є розуміння за що накладаються санкції, то розуміння як їх не допустити прийде автоматично.

Денис Наріжний,
автор сервісу AskUsers.ru

Більшість фільтрів ПС, з якими доводилося стикатися, були текстовими. Дії для зняття санкції цієї групи фільтрів здебільшого схожі і однотипні. Після визначення просілих в пошуку сторінок оцінюються на спам/кількість входжень кейвордів у всі зони документа, порівнюється з аналогічними сайтами з ТОПа (частина таких питань можна на автоматі вирішувати з допомогою текстових аналізаторів), та зайві входження прибираються, контент частково або повністю переписується. Тут принципово нового нічого не змінюється з моменту появи перших текстових фільтрів. Інші групи фільтрів — смітники, поведінкові і за рекламу — нас не турбували.

Доводилося стикатися в останній рік з афіліат фільтром в Яндексі. Наші спроби зняти його через підтримку пошукової системи не увінчалися успіхом. Не допомогли навіть 2 пакету статутних документів і різних договорів оренди, при тому що це були організації в різних районах Москви з повністю різними контактними даними. Завдання вирішували одномоментним переїздом компанії на іншу адресу, зміною телефонів і переклеюванням сайту на інший домен.

Але самими не стандартними і незрозумілими для нас в цьому році стали інші санкції з боку Яндекса, які розмітили велика кількість наших сайтів у видачі грізною написом в сніппеті:

«За даними Яндекса, сайт може використовуватися зловмисниками для виманювання грошей»

При цьому сайтів в ніші выкосило більше сотні, за нашим аналізом через 6 місяців жоден не отримує порівнянного трафіку, а більше 50% на сьогоднішній день взагалі не працюють.

Якого або пониження в позиціях не було, сайти стояли на тих місцях де і до появи напису, просто різко просів трафік з Яндекса:

І тут ми відчули всю вагомість впливу поведінкових факторів — не пройшло і тижня як сайт плавно з ТОП3 перекачував по всім запитам на другу і третю сторінку.

Спроби з’ясувати справжні причини появи подібних формулювань у фрагментах наших сайтів не увінчалися успіхом.

Так, Платон підтверджував відсутність усіх можливих причин відповідних цьому формулюванні по відповідному посиланню пошуковика.

Так, у нас не було шкідливого коду, так, у нас не було навіть онлайн оплати, так, у нас був https і угода на звичайну форму зворотного дзвінка, АЛЕ…

Але проблеми на думку співробітників Яндекса сайтів були, і всі наші спроби поліпшувати сайти не приводили до результатів. Вирішити проблему вдалося лише з допомогою переїзду сайту на новий домен.

Ручні санкції — це завжди більш неприємна історія, ніж автоматичні, які можна знімати алгоритмічно системно з допомогою маси наявних на ринку інструментів, аж до автоматичної розмітки наявних на сайт посилань на погані (які слід загнати в файл disavow для зняття посилальних фільтрів в Google) і хороші спеціалізованими сервісами. Але ніколи не варто зневірятися, всі питання можна вирішити, і частенько ручні санкції можна знімати переклейками та переїздами на інші домени з повним або майже повним збереженням трафіку і позицій.

Бажаю всім не потрапляти під фільтри, багато трафіку і високих конверсій!

Рудник ігор fb.com/irudnyk, підприємець.
Проекти: referr.ru — сервіс крауд-маркетингу в СНД і на захід, seoenergy.org — семантичне проектування, new! collaborator.pro — платформа маркетингу впливу

Які фільтри Яндекса і Гугла дошкуляли найбільше в цьому році?

У Гугла за останній рік ніяких особливо оновлень не сталося, з усіма його фільтрами вже навчилися працювати.

У Яндекса фільтр «Малополезный контент, некоректну рекламу, спам» приніс трохи сюрпризів для тематичних проектів. Довелося розбиратися.

Наскільки успішно вдається з ними боротися, які заходи вживали? У чому були найбільші труднощі?

Найболючіше у фільтрах — це розмитість вимог і діагностування проблеми. Виправлення — це, як раз, самий зрозумілий і простий крок.

У разі за «Малополезный контент, некоректну рекламу, спам» дуже складно зрозуміти, не сподобалися Яндексу якісь окремі статті або ж блоки реклами, і щось виправити можна лише методом наукового експерименту.

У випадку з вищеописаним фільтром, алгоритм наступний:

1. перевірити рекламні блоки (особливо прибрати блоки-посилання);
2. порівняти кількість і розташування рекламних блоків з іншими сайтами в ніші;
3. при необхідності знімаємо;
4. робимо аудит контенту;
5. прибираємо, або дописуємо слабкі статті;
6. паралельно спілкуємося з Платоном і намагаємося отримати наведення на справжню проблему.

Після цих дій потрібно лише чекати, розвивати сайт і продовжувати спілкування з підтримкою.

Які фільтри стали менш відчутні?

Все, яким вже кілька років, так як з ними вже є зрозумілі алгоритми роботи.

Є якісь цінні, актуальні поради читачам – з профілактики та виходу з-під санкцій?

Найкраща рекомендація — робити все, щоб не потрапити під фільтри. Не потрібно намагатися обдурити пошукову систему, потрібно зрозуміти її точку зору і намагатися відповідати.

Наприклад, всім відомо, що зайва кількість анкорных посилань підводить сайт під Гугл Пінгвін і Мінусинськ. Є 2 варіанти поведінки:

1. намагатися знайти грань, коли пошукові системи карають сайт;
2. працювати з безанкорными посиланнями і невеликим процентному анкорных, який точно безпечний.

Кожен вибирає свій шлях, я більше схильний до другого варіанту. Він надійніше.

Олексій Праць,
Head of SEO в Legalbet, автор блогу alexeytrudov.com, творець сервісу глибокого аналізу сайту bez-bubna.com

Яндекс в першу чергу відзначився санкціями для статейних сайтів, ряд проектів серйозно постраждав. Хвиля зниження десктопного трафіку в кінці січня 2018. Схожа ситуація з мобільним трафіком в лютому. Нарешті розгулялася фільтр «Малополезный контент, некоректна реклама, спам».

Я детально вивчав ці проблеми на великих вибірках сайтів (див. огляд на блозі). За час, що минув, з’явилися і успішні кейси по відновленню трафіку. Основна складність в тому, що практично завжди потрібно діяти за кількома напрямами, вкладаючи значні ресурси. Скрізь потрібен комплексний підхід для поліпшення поведінкових факторів. Чарівної пігулки немає.

Деякі напрямки робіт:

● Зниження агресивності монетизації із збереженням більшої частини доходу завдяки гнучкого управління рекламою (збираємо статистику, які рекламні блоки на яких сторінках дають конверсій, прибираємо неефективні і дратівливі користувача), пошук балансу.

● Створення спеціального утягує контенту (не під пошукові запити, а для залучення уваги користувача, стимулювання переходів усередині сайту).

● Виявлення тим, недостатньо розкритих у контенті, пошук запитів, яким відповідають найгірші ПФ — і відповідні правки тексту,

Інші фільтри Яндекса продовжують працювати, але вони особливо не помітні. Наскільки я знаю, давно не було масових санкцій за накрутку ПФ або хвиль Мінусинська. Навряд чи тому, що відділ антиспаму про них забув. Скоріше вже оптимізатори стали обережнішими.

Заслуговує окремої уваги документний Баден-Баден. Пониження в ранжуванні за неприродний текст, як і раніше, досить поширене. При цьому далеко не завжди Баден-Баден легко діагностувати.

Не варто думати, що карають тільки за спам n-грамами і воду. Так, нерідко під роздачу потрапляють тексти, в яких копірайтер спробував сумлінно охопити семантику, вставивши всі можливі варіації запиту. Показники начебто індексу биграмм в порядку, тому що варіації різноманітні за складом слів, але текст все одно виходить не «людським».

У Google останнім часом не пригадаю прямо масових санкцій. Апдейтів алгоритму було чимало, але це швидше «перетрушування» чинників, ніж цілеспрямовані фільтри. Певний виняток становлять тематики, пов’язані з YMYL («Your Money or Your Life»), в першу чергу медицина. У них вищі вимоги до якості контенту; зміни алгоритму часто впливають особливо сильно.

Крім стандартних рекомендацій в дусі «робіть сайти для людей» і «не нахабнійте в пихании ключів на сторінку» в плані профілактики проблем з Google раджу стежити за чистотою індексу. Не варто пускати в пошук недостатньо якісні сторінки («zombie pages»), вони заважають отримувати трафік іншим розділам сайту. Про те, як їх знайти і знешкодити зомбі-сторінки, можна прочитати в моєму керівництві з аудиту контенту.

Дмитро Шахов,
засновник агентства REMARKA

Які фільтри Яндекса і Гугла дошкуляли найбільше в цьому році?

Ніякі. Ми намагаємося обходитися в роботі без них. Якщо, звичайно, не вважати фільтром переспам – це швидше робочий момент, ніж фільтр.

Наскільки успішно вдається з ними боротися, які заходи вживали? У чому були найбільші труднощі?

З переспамом боротися і просто, і складно. Просто – коли клієнт приходить з очевидно спамнимі текстами. Тоді треба просто переписати їх або прибрати. Інша справа, коли ти настільки наблизився у своїй роботі до межі, коли ще трохи і переспам, плюс відчутно коливається кордон спамности по топу, в ці моменти буває важко намацати той самий момент, коли треба зупинитися. Або навпаки, скільки примірників зняти, скільки води віджати, скільки посилань з анкорами прибрати, щоб позиції додали ще 2-3 пункту.

Які фільтри стали менш відчутні?

Зазвичай клієнт приходить з якимось фільтром, і ми його знімаємо. Давно вже не бачили клієнтів з фільтром за накрутку ПФ. Та й Мінусинськ останній приходив теж давненько. Ось з ББ були. І, звичайно, у портфелі є достатньо клієнтів, де трафіку по Гуглу не було ніколи – там або Панда, або Пінгвін, зняти які не виходить. А ось нові проекти, які залетіли під ці фільтри, практично не трапляються. Власники навчилися не косячить, роблячи нові сайти.

Є якісь цінні, актуальні поради читачам – з профілактики та виходу з-під санкцій?

Все просто. Робіть сайт відразу добре. Тоді і санкцій не буде. Якщо не вистачає бюджету на хороші тексти – просто не ставте їх. Не робіть порожніх сторінок, які плануєте потім наповнити. Не використовуйте безкоштовні широко поширені шаблони – відразу їх уникализируйте. Не спамите анкорами ні у внутрішньому ссылочном, ні в зовнішньому.

Якщо все-таки потрапили під хостовий фільтр – не переживайте. Працюйте так, як ніби його немає. І паралельно проводите заходи щодо усунення фільтра. А боротьба з переспамом – це частина вашої звичайної роботи. Межі спамности постійно гуляють в обидві сторони. Так що допоможе тільки регулярна перевірка сервісами оцінки середньої спамности по топу і корекція текстів і щільності анкорів в ссылочном за підсумками цього аналізу.

Валентин Батрак,
SEO-Аналітик в Rush Agency, керівник напрямку Зарубіжного SEO. Засновник SEO-курсів Rush Academy

Які фільтри Яндекса і Гугла дошкуляли найбільше в цьому році?

Фільтри Гугла в цьому році наші клієнти не отримували.

В Яндексі, була буквально пара випадків. Баден-Баден і Мінусинськ. І обидва випадки – коли клієнт прийшов до нас уже з багажем». З одним клієнтом вийшла вкрай забавна історія: він прийшов до нас буквально відразу після виходу з-під Мінусинська, і через пару днів «отримав» Баден-Баден на весь хост. Само собою, за такий короткий час ніхто не встиг би зробити аудит всіх текстів на сайті, тому довелося довго і болісно цей фільтр знімати. А чому болісно – читайте далі.

Наскільки успішно вдається з ними боротися, які заходи вживали? У чому були найбільші труднощі?

Вивели всіх клієнтів. Але з тим, про якого я розповідав у попередньому пункті, довелося повозитися. Справа в тому, що клієнт категорично не хотів повністю видаляти тексти, т. к. сторінки, на яких вони були розташовані, займали непогані позиції в Гуглі. Це найскладніша ситуація — коли тексти, які перестали подобатися Яндексу, все ще подобаються Гуглу і приносять трафік і замовлення. Переписування текстів – це в будь-якому випадку лотерея, грати в яку часу не було. У підсумку, після аналізу всіх текстів і трафіку виробили таке рішення: найбільш спамний тексти були зовсім видалені (трафік з Гугла на них після цього впав на 20-30%), а інші були замінені на зовсім «нешкідливі» коротенькі текстики «для людей». У підсумку фільтр був знятий, і повернувся трафік з Яндекса з лишком окупив втрату частини Гугла. Але ідеального рішення такого кейса просто не існує (якщо не вдаватися до клоакингу), т. к. у Яндекса і Гугла тепер дуже різні погляди на поняття «релевантний текст», в залежності від тематики.

Які фільтри стали менш відчутні?

У нашій компанії клієнти під фільтри в принципі не потрапляють. Але в цілому по ринку, напевно, Мінусинськ – оптимізатори навчаються безпечно працювати з посиланнями.

Є якісь цінні, актуальні поради читачам – з профілактики та виходу з-під санкцій?

Насамперед, ворога треба знати в обличчя. Вивчати антиспам-алгоритми і за що конкретно вони «карають». Правила гри відомі, і з ним треба грати. Про Мінусинську було оголошено за місяці до початку масових розстрілів» (перші показові страти не в рахунок), і все одно деякі оптимізатори (в т. ч. ті, кого знаю особисто) боялися відразу знімати всі покупні посилання і в результаті отримували фільтр. Яндекс, на відміну від Гугла, анонсує нові фільтри сильно заздалегідь, і навіть пояснює, за що вони будуть накладатися, так користуйтеся цим.

Лайфхак 1. Раджу періодично чекати у системах веб-аналітики не тільки «загальний трафік проекту» а ще і вибірку з популярним в пошукових системах посадковим сторінок, щоб вчасно помітити, якщо якісь з них починають втрачати трафік.

Лайфхак 2. Як тільки прийшов новий проект на просування, відразу біжимо викачувати з панелей вебмастера Яндекса і Гугла самі трафиковые запити, хоча б 1000 штук і ставити їх на відстеження збирача позицій.

Dr.Max,
Провідний вітчизняний оптимізатор і аудитор сайтів. Працює з приватними і найбільшими світовими компаніями. Ведучий SEO блогу drmax.su. Автор більше 20 книг по просуванню сайтів.

Аня, добрий день. Хочу відразу попередити, що мова в нашій розмові піде тільки про Google, бо Яндекс — не та ПС, на яку варто орієнтуватися, і це відбувається з кількох причин:

1. Постійне зниження частки Яндекса на ринку. Якщо в Росії це ПС зараз займає 40-45% і спадний тренд постійно, то в Білорусії – 25%-30%, в Казахстані 14%, а в Україні частка Яндекса прагне до нуля. Тобто, якщо орієнтуватися на російськомовних відвідувачів у світовому масштабі, то Яндекс можна не розглядати зовсім. Однак, якщо ваші сайти пов’язані з регіональним SEO і з Росією, то деяке можна приділяти увагу і цій ПС. Отже, в наявності стагнирование Яндекса як ПС. Також це посилюється практично повної комерціалізацією першої сторінок органічної видачі.

2. Технологічне відставання Яндекса від Google, мінімум на 2-3 роки. Постійно спостерігаю цю гру в догонялки, коли давно впроваджені у Google речі, через кілька років з’являються у Яндекса і видаються за якесь ноу-хау. Навскидку – ті ж LSI стали використовувати для оцінки Google в 2011 році, в Яндексі – в минулому/позаминулому.

3. Жоден з розсудливих оптимізаторів не буде робити нічого для просування в Яндексі, якщо це принесе шкоди позиціям в Google. І навпаки. Якщо ви змогли зайняти гідні місця в Google, з 80% ймовірністю ви потрапите в Топ Яндекса автоматично.

Отже, сьогодні варто розглядати єдину ПС – Google. Однак, з приводу фільтрів, як таких, говорити зараз некоректно. Всі, так звані фільтри, стали складовою частиною пошукової системи. У цьому й відмінність від класичних фільтрів – які були надбудовою на алгоритмами і запускалися епізодично, выкашивая сайти з поганим SEO. Зараз все це відбувається нальоту. Неякісні сайти мають менше шансів навіть пробитися в Топи. Якщо раніше за криків в співтоваристві, узревшим просідання тисяч сайтів, можна було зрозуміти, що ПС викотили якийсь новий фільтр, зараз це зробити складніше, бо вплив алгоритмів на погані сайти рівномірно розмазане і здійснюється постійно.

Так що, Ганно, давай говорити не про фільтрах, а про значущі зміни алгоритму пошукової системи.

Щоб зрозуміти, які зміни ядра ПС найбільше вплинули, я підготував невелику ретроспективу події в Google за 2018 рік.

Отже:

• Січень – сталося 2 оновлення алгоритму Google, пов’язані з оцінкою якості сторінок

• Лютий – оновлення по висновку зображень в Google (знову можна збирати трафік з Google картинок). Також було одне оновлення алгоритму, пов’язане з якістю контенту.

• Березень — п’ять оновлення алгоритму, пов’язаних з оцінкою якості контенту.

• Квітень — оновлення, пов’язане з E-At (по суті, те ж саме якість), далі кілька технічних апдейтів і велике оновлення ядра алгоритму, знову-таки пов’язаний з якістю контенту.

• Травень – три оновлення алгоритму, пов’язаних з якістю контенту, і одне оновлення, пессимизирующие неякісне посилальне і PBN.

• Червень – три оновлення алгоритму, пов’язаних з якістю, далі потужна хвиля ручного бана PBN сіток (виконана асесорами), мабуть пов’язана з недостатньо чітко відпрацьованим травневих алгоритмом автоматичного бана PBN.

• Липень — початок переходу на Mobile First Index. В кінці місяця – розгортання алгоритму, де швидкість доступу до сторінки є фактором ранжирування. Крім того, протягом місяця 3 зміни в алгоритмі, безпосередньо пов’язані з якістю контенту.

• Серпень – критичне оновлення алгоритму, пов’язане з E-At для YMYL сайтів (по суті – песимізація неякісних сайтів). Далі – триває перенесення сайтів на Mobile First Index. Після цього знову оновлення алгоритму, що стосується якості фарма (медичних) сайтів.

Отже, було два найважливіших оновлення ядра алгоритму Google – це розгортання фактора швидкості і розгортання Mobile First Index. Як підготуватися я ретельно розписував в моїй книзі SEO Гуру 2018, яка була випущена навесні. Ряд матеріалів є на сайті drmax.su.

Відповідно, сайти, які не підготувалися до впровадження Mobile First Index просідають в мобільній видачі (а це, на сьогоднішній день – більше 60% відвідувачів), але більш-менш тримаються в десктопної. З деяким допущенням це можна назвати впливом фільтра.

Розгортання Mobile First Index поки ще триває, і ще не всі сайти відчули на собі її «благотворний» вплив. До речі, сайти, багаті Java скриптами та/або Flash вставками, можуть відчувати труднощі при переході до Mobile First Index. Це доповів Джон Мюллер – фахівець з якості пошуку Google. З-за наявності такого контенту Google не може перевести їх на нове індексування.

Третім найважливішим трендом розвитку ПС Google стала боротьба за якість контенту. Це підтверджується десятками великих і дрібних змін алгоритму, що дозволяють поліпшити якість видачі. При цьому робота над якістю органічної видачі ведеться планомірно, протягом багатьох років. Свідчення цьому — періодичний випуск посібників з оцінки якості для асесорів. У липні цього року вийшла вже четверта (або п’ята версія, і кожен бажаючий може ознайомитися з вимогами до якості сайту. Там же є сотні прикладів, як оцінювати цю якість, і чому ті чи інші сайти потрапляють в Топи, а інші сидять на задвірках, незважаючи на всі вкладення в линкбилдинг, контент та інші засоби маніпуляції видачею.

А Яндекс зате намалював нову пузомерку якості Ікс. Молодці!

Далі, в цьому році в черговий раз постраждали так звані PBN-мережі (тупа абревіатура, ми завжди їх називали сайтами на дропах, протягом 15 років). Власне, всі розумні люди відмовилися від таких сіток ще в 2013-2014 році і ось з чим це було пов’язано.

Розквіт мереж, зібраних на дропах був у 2000-х роках. О так, тоді це було круто. Сітками виштовхували в Топи, з них продавали посилання. Захапав собі дроп попиаристей, можна було продати з десяток посилань з морди по парі штук баксів в рік кожна.

Під цю справу ми з тов sNOa написали мега софт з перехоплення дропов, по автоматичному їх відновленню та наповненню з вебархивов і т. д. До 2009 року у нас вже була сітка під сотню таких сайтів (причому практично не линкованная, раскиданная за десятками серверів). Власне про цьому методі можна почитати в моїх старих довідниках і книгах, датованих 2010 і 2011 роками.

А потім прийшов 2012 рік з його Пінгвіном і народ (з тих що поразумней) поприбирали посилання з таких сіток. А потім прийшов 2013 – 2014 рік, коли PR був заморожений, і містити сітку дропов стало вже зовсім безглуздо.

Так що всі ці PBN сітки на сьогоднішній день – повна нісенітниця і анахронізм, займатися ними можна тільки від недоумкуватості, бо все одно і самі мережі та їх клієнти легко обчислюються і в обов’язковому порядку пессімізіруются.

На завершення можу сказати: боріться за якість сайтів. Почитайте інструкцію для ассесоров за якістю, виконайте технічний аудит сайту (обов’язкова складова якості), перевірте мобільну версію сайту і готовність до переходу на Mobile First Index, наповнюйте сайти якісним, експертного рівня контентом, будуйте посилання по розуму і забудьте про фільтри.

Всіх благ.

Пишіть коментарі, задавайте питання експертам!