Ситуація: власник сайту замовляє послугу SEO-просування й особливо не контролює цей процес. Позиції ростуть, сторінки поступово наближаються до топу пошукової видачі, все начебто просувається просто чудово. Аж раптом щось йде не так і сайт буквально «випадає» з пошукової видачі…
Що ж трапилось?
Якщо ви вже маєте бодай базові знання про методи просування сайту, то здогадуєтеся в чому річ. Сайт, вірогідно, потрапив під фільтри пошукової системи через використання SEO-спеціалістами «сірих» або «чорних» методів SEO. І це насправді серйозна проблема, яку доволі складно виправити.
Отже, сьогодні, продовжуючи тему просування сайтів, ми з вами поговоримо про фільтри Google, розглянемо декілька з них, а також спробуємо зрозуміти, чи можна вивести сайт з-під санкцій, якщо він вже під них потрапив.
Google фільтри — це алгоритми та методи, які використовує система для фільтрації результатів пошуку й надання користувачам найбільш релевантної та корисної інформації у відповідь на їхні пошукові запити.
Простіше кажучи, за допомогою таких фільтрів Google бореться з неякісним, неунікальним контентом і недобросовісними методами SEO-просування, такими як клоакінг, дорвеї, прихований текст, посилальний спам чи накрутка поведінкових факторів.
Річ у тім, що подібні методи просування дійсно можуть дати швидкий результат, проте він буде короткостроковий. Рано чи пізно (і скоріше саме рано) алгоритми Google виявлять подібні порушення і накладуть санкції на сайт. І тоді вже вивести його з-під цих санкцій буде вкрай складно (інколи дешевше зробити та просувати з нуля новий сайт). До цього питання ми ще повернемось, а зараз розглянемо головні фільтри Google.
Panda — один з найстаріший та водночас найважливіших фільтрів Google. Він працює з 2011 року й відстежує в першу чергу якість контенту на сайті. Для Panda головні критерії оцінки контенту — це:
Окрім того, Panda також аналізує те, як користувачі взаємодіють з сайтом. Тому важливу роль в оцінці відіграє юзабіліті, адаптивність, функціональність, дизайн тощо. Якщо на сайт буде накладено саме санкції через фільтр Panda, це призведе до падіння позицій в пошуковій видачі й, відповідно, до зменшення трафіку.
Цей фільтр аналізує зовнішні посилання. Тобто беклінки, згадки на інших ресурсах, надмірне використання SEO-анкорів і тому подібне.
Тут варто зауважити, що Penguin не «карає» сайт у прямому сенсі цього слова, а просто анулює вплив «проблемних» зовнішніх посилань та згадок. З пошуку сайт не випаде, але його позиції все ж можуть суттєво просісти. Якщо спостерігаєте щось подібне, радимо зайти в Google Search Console — там може зʼявитися відповідна інформація. Проблемні лінки та згадки за можливості варто видалити, відхилити чи обнулити їхню вагу.
До речі, деякі недобросовісні конкуренти можуть використовувати спам зовнішніми лінками, щоб загнати чужі сайти під фільтр Penguin. Подібні дії потрібно регулярно відстежувати й вживати відповідних заходів (відхиляти посилання за допомогою Google's Disavow Tool).
Даний алгоритм покликаний аналізувати більш складні та довгі пошукові фрази та визначати релевантність ресурсів пошуковим запитам. Простіше кажучи, Колібрі аналізує, наскільки контент на сторінці відповідає пошуковій фразі, яка на неї веде.
Сайт може потрапити під фільтр, якщо ви використовуєте популярний пошуковий запит для збільшення вхідного трафіку на сторінку, але сам контент на сторінці не відповідає цьому запиту. Наприклад, в тексті використовується фраза «завантажити Google Chrome», але сторінка в реальності просуває якусь букмекерську контору. В такому разі потрапляння під фільтр — лише питання часу.
Насправді в Google відкрито не підтверджують існування цього фільтру, проте досвід доводить, що «молоді» сайти просуваються гірше, перебуваючи в такій собі «пісочниці». Сторінки індексуються повільніше, ріст позицій на перших порах мінімальний навіть при активному SEO-просуванні, вийти в топ пошукової видачі по високочастотних та середньочастотних запитах практично неможливо.
Щоб вийти з «пісочниці», по-перше, потрібен час. І з цим нічого не вдієш. Це База. По-друге, навіть у цей час необхідно активно працювати над сайтом: оптимізувати його, створювати якісний контент, нарощувати зовнішню посилальну масу, просуватися в соцмережах тощо. Згодом це дасть результати, але досягти їх так само швидко, працюючи з новим веб-ресурсом, як із доменом, якому вже декілька років, практично неможливо. Така вже політика Google.
YMYL — це алгоритм, що визначає експертність контенту. Особливо коли це стосується тематик, котрі можуть безпосередньо вплинути на фінансове положення, здоровʼя чи життя користувача. Тобто мова йде в першу чергу про сайти медичної, фінансової тематики тощо.
Фільтр YMYL може бути застосований у відношенні сайту, якщо в ньому:
Це вкотре підтверджує той факт, що якість контенту на сайті грає одну з вирішальних ролей в його ранжуванні та позиціях у пошуковій видачі. Тому економити на створенні контенту точно не варто. Особливо якщо ви працюєте саме в зазначених вище тематиках. У відношенні до них Google вкрай прискіпливий.
Цей фільтр, як нескладно здогадатися, стосується різноманітного піратського контенту — фільмів, серіалів, музики, програмного забезпечення тощо. Розміщуючи на сайті піратський контент, ви маєте чітко усвідомлювати можливі наслідки таких дій.
Тут варто зауважити, що сам Google не аналізує та не відстежує піратський контент напряму. Накладення фільтрів Pirate у більшості випадків ініціюється через скарги DMCA щодо авторського права. Якщо таких скарг всього декілька, санкції взагалі можуть не накладатися і сайт продовжить працювати як і раніше. Проте коли кількість скарг зростає, це рано чи пізно призведе до накладення санкцій.
І тут найголовніше! Якщо з-під попередніх фільтрів ресурс все ж можна вивести, то потрапляння під фільтр Pirate — це раз і назавжди. Ви можете видалити хоч увесь піратський контент, але сайт вже не вийде з-під фільтра. Тому варто декілька разів подумати перш ніж розміщувати на сторінках піратський контент.
Насправді єдиного правила для виведення сайту з-під фільтрів Google не існує, адже кожен випадок індивідуальний і потребує серйозного комплексного підходу. Але ми можемо надати базовий алгоритм дій, який можна використовувати:
Ці пʼять кроків виглядають доволі просто «на папері». В реальності ж виведення сайту з-під фільтрів Google — це зазвичай тривалий та трудомісткий процес, який не завжди гарантує результат. Тому головне правило SEO-просування в сучасних реаліях — запобігати виникненню подібних ситуацій, щоб не доводилося розв'язувати проблеми в майбутньому.
Саме правильному просуванню веб-сайтів присвячений наш курс SEO. Ви дізнаєтесь, які методи SEO варто використовувати, як запобігти потраплянню сайтів під фільтри Google, на що звертати особливу увагу та як не довести ситуацію до критичної.
Як і завжди, пробний урок курсу доступний безкоштовно. Приєднуйтесь!