Багато вебмайстрів часто забувають той факт, що мета всіх пошукових систем полягає не в тому, щоб забезпечити сайтам високі місця в пошуку і, як наслідок, дати великий трафік, а в тому, щоб користувачі отримали якісні та релевантні результати пошуку. Як показує досвід, ці цілі часто не збігаються. У пошукових систем є безліч критеріїв
фільтрації сайтів, через які багато ресурси, часом цілком якісні і зроблені для людей, не потрапляють на перші місця пошуку, а часто і взагалі виключаються з видачі.
На жаль, багато фільтри далекі від досконалості, тому під них потрапляють і цілком нормальні релевантні сайти, створені для людей, і на яких на перший погляд відсутні прийоми, заборонені правилами пошукової системи.
Найголовніший фільтр - це бан, повне виключення сайту з індексу. Теоретична узагальнена причина - порушення ліцензії пошуку яндекса. Але реальних причин може бути безліч, і далеко не всі вони очевидні на перший погляд. Ситуація посилюється тим, що немає відкритих і чітких "правил гри", а служба підтримки яндекса (Платон Щукін) украй рідко дає конкретні поради і вже точно ніколи не вказує причин накладення бана.
Найбільш ймовірна і поширена причина - пошуковий спам. Найчастіше зустрічається випадок пошукового спаму це перенасиченість сторінок сайту ключовими словами. Це може бути як умисно, так і через незнання. Є старе оману, згідно з яким чим більше щільність і кількість ключових слів на сторінці, тим краще для позицій сайту. Ця "істина" неактуальна вже багато років. І не просто неактуальна, а ще й дуже шкідлива.
Раніше був поширений прийом заповнення мета-тегів різними ключовими словами, у тому числі не відносяться до тематики сайту, але які є популярними (секс, порно і т. п.). Внаслідок цього вплив мета-тегів на пошук було мінімізовано.
Отже, найпоширеніші прийоми внутрішньої оптимізації, які яндекс може прийняти за пошуковий спам і забанити сайт:
- Банальне перенасичення тексту ключовими словами і фразами. Найчастіше це буває умисно, людина пише, вираховує щільність, додає ключові слова; в підсумку виходить, що щільність начебто і, теоретично, прийнятна, а текст виходить нечитабельним. Іноді бувають випадки, коли автор сайту, захоплюючись темою, про яку він пише, ненавмисно перенасичує текст ключовими словами. Тому після написання статтю потрібно обов'язково віднімати, бажано вголос. А перевіряти щільність різними сервісами не варто, це неінформативне показник. Але є й такі, хто як і раніше вважає, що щільність 5% - це запорука присутності у топі ...
- Публікація на сторінках сайту списків ключових слів. Було дуже поширене кілька років тому. Зараз, на щастя, багато хто усвідомлює марність і весь негатив цієї дії. Зазвичай ці списки розміщуються внизу сайту, ледь видним або взагалі невидимим кольором, що, звичайно, ускладнює ситуацію. Деякі "просунуті" вебмастера розміщують їх вище шапки і заголовків сайту, вважаючи (знову ж таки, слідуючи поширеній помилці), що чим вище знаходяться ключевики, тим більший від них ефект для просування. І отримують заслужений бан. Інші ж використовують сучасні методи верстки і розміщують ключевики в div-ах, або просто невидимих (display: none), або зі зміщенням за межі екрану. Але робот дивиться код сторінки, а з коду ключевики не сховаєш - тому такі методи неминуче призводять до бану.
- Публікація списків пошукових запитів. Зазвичай пишуть "на наш сайт заходять за такими запитами" або "цю сторінку можна знайти в Яндексі за запитами". Це класичний варіант пошукового спаму! Так робити категорично не можна. Деякі движки дозволяють робити це дуже просто, відстежуючи переходи з пошукових систем і автоматично виводячи списки запитів, за якими відвідувачі перейшли на сайт. Цю функцію потрібно відразу відключати. Або, в крайньому випадку, закривати ці блоки від індексації, а посилання в них - від переходів по них пошукових роботів.
- Перенасиченість ключовими словами тегів і атрибутів title, h1-h6, alt, meta keywords, meta description і т. п. Не в кількості щастя! І навіть навпаки - переспить може привести до бану.
- Наявність на сайті сторінок, створених спеціально для просування по позиціях і не містять корисної для відвідувачів інформації, а також численних сторінок з перенаправленням на інші ресурси.
- Наявність взагалі будь-якого прихованого тексту, в тому числі і з посиланнями, створеного не для зручності використання, а для маніпуляції результатами пошукової видачі.
Ознака бана - повне випадання сайту з пошукової видачі. Але не всяке випадання однозначно є баном. Бувають ситуації, коли сайт просто вилетів через проблеми з хостингом, через недосконалість алгоритмів яндекса, через помилкового коду і т. п. Якщо раптом сайт пропав з пошукової видачі, потрібно почекати 2-3 апдейта і, якщо сайт не повернеться, написати в службу підтримки яндекса і питанням про причини випадання. І якщо відповідь буде про порушення на сайті - потрібно ці порушення усунути і знову написати їм. Часто ці порушення бувають неочевидними навіть для самого вебмастера, так що листування може затягнутися. Якщо пощастить, то служба підтримки натякне на конкретну причину або навіть прямо вкаже на порушення. Якщо ні, то потрібно довго думати і уважно аналізувати сайт, бажано із залученням сторонніх фахівців.
Раніше бан від простого випадання можна бути відрізнити, додавши сайт в addurl яндекса - він видавав помилку; зараз це неактуально, всі сайти додаються туди без помилки.
Інший, не менш популярний і не менше, якщо не більше, небезпечний фільтр яндекса - АГС (іноді це назва розшифровують як АнтіГовноСайт). Основний симптом - в індексі залишається від 1 до 10 (рідко 30) сторінок. І стандартну відповідь служби підтримки - "Наші алгоритми прийняли рішення не включати сайт в пошук. Розвивайте сайт, і він повернеться у видачу". Причому ця відповідь можуть надсилати навіть тоді, коли сайт змінився, і робот новий сайт навіть і не відвідував, тому в саппорт потрібно писати довго і активно, детально і без емоцій пояснюючи ситуацію.
Основною причиною цього фільтра (якщо мова йде про сайти для людей, звичайно) є дублювання контенту усередині сайту. Практично всі популярні движки створюють сторінки з однаковим контентом - це можуть бути сторінки тегів, сторінки розбивки по днях, місяцях і роках, сторінки розділів з анонсами статей, що містять фрагменти текстів самих статей і т. п. Логічніше, звичайно, було б виключити з пошуку тільки дублі і залишити контент, але Яндексу, мабуть, простіше відфільтрувати практично весь сайт, чим займатися детальним аналізом його структури та вмісту.
Інші причини:
- Сайт, що складається на 100% з неунікальний контент може потрапити під АГС, якщо він не являє собою нічого цікавого для відвідувачів;
- "Бредоконтент" - генеровані тексти, поганий сінонімайзінг або авторерайт, автоматичний переклад і т. п. Всі такі сайти досить швидко потрапляють під фільтр. Також під нього можуть потрапити і сайти з безграмотними текстами.
- Відсутність контенту на сторінках сайтах або його дуже мала кількість. Втім, сайт, що складається з одних тільки відеороликом і фотографій, може взагалі не проіндексована.
- Сайт, створений під продаж реклами. Якщо вебмастер не витрачає час і сили на те, щоб надати сайту "людиноподібний" вигляд, то такий сайт практично стовідсотково потрапить під АГС.
- Сайт, що складається з виключно "продажних" статей. Існує думка, що продаж посилань це смерть для сайту, а ось продаж місць під статті безпечна. Насправді все навпаки - погані статті куди швидше "вб'ють" сайт, ніж розумна продаж посилань, яка взагалі безпечна.
Існує безліч міфів і помилок з приводу АГС. Наприклад (пам'ятаєте, це МІФИ):
- Якщо посилань продано більше, ніж сторінок на сайті;
- Якщо сайт прогнати по купі каталогів відразу;
- Якщо у сайту низька відвідуваність;
- Якщо сайт рідко оновлюється;
- Якщо сайт побудований на стандартному шаблоні;
- Якщо на хостингу або на одному айпі багато говносайт і т. п.
Вийти з-під АГС вкрай складно, найчастіше простіше змінити домен. Можна спробувати закрити всі дублі, перевірити сайт на унікальність контенту і, якщо знайдуться неунікальні статті, замінити їх новими унікальними. Можна наповнити сайт великою кількістю нових статей. Можна змінити структуру сайту.
Песимізація - це відключення посилання ранжирування для конкретного сайту. Куплені та природні посилання перестають працювати, і, як наслідок, позиції різко падають. Падіння зазвичай відбувається на кілька сотень позицій, коливання в кілька десятків позицій зазвичай не пов'язані з накладеними на сайт санкціями. Всі сторінки сайту залишаються у видачі та знаходяться в пошуку, але просунути на перші позиції його неможливо, так як не працює відключено вплив посилання ранжирування.
Основна причина - присутність на сайті "посилальних смітників", каталогів посилань, не призначених для людей, а розміщених виключно з метою маніпуляції видачею. На щастя, час великих немодерованих каталогів посилань на сайтах вже пройшло, а був час, коли песимізація косила багатьох.
Якщо ви вирішили реєструвати сайт в каталогах, то ні в якому разі не можна розміщувати у себе зворотні посилання або банери на ці каталоги! Толку від них буде рівно нуль, а от шанс потрапити під пессимізації дуже відчутний.
Цілком імовірна песимізація за наявність великого числа продажних посилань (в тому числі і в статтях) - не варто розміщувати їх більше 4-5 на сторінку.
Дуже часто сайти пессімізіруют за розміщення занадто нав'язливою і заважає відвідувачам реклами. Наприклад, спливаючі вікна або занадто великі кількість тізерів на сторінках. При пессимізації часто можуть обнулити тиц.
Цілком можливо, що на зміну пессимізації прийшов фільтр "Ти останній", так як не можна провести чітку грань між ними.
Фільтр "Ти останній" схожий на Supplemental results в Гуглі. Сайт пропадає з пошуку, залишаючись проіндексованим. У пошуку його можна знайти тільки за унікальним фразам з текстів, які на ньому розміщені, і навіть по запитом, що містить адресу сайту, він може бути не на перших місцях. При цьому підтримка яндекса відповідає, що ранжування відбувається нормально, відповідно до його релевантність.
Для сайту відключається як посилальне ранжирування, так і вплив статичної ваги (внутрішньої перелінковки, в тому числі). Як показує досвід, основна причина - це неунікальний контент на сайті, який призначений для заробітку. Причому під "Ти останній" може потрапити і першоджерело, у якого скопіювали більшу частину статей. У такому разі доведеться або замінювати стали неунікальність статті, або шерстити інтернет і змушувати вебмайстрів видаляти копії.
Вийти з нього можна лише повністю змінивши сайт, його структуру, дизайн і т. п.
Фільтр аффіліатов. Під нього може потрапити декілька сайтів, що належать одній і тій же компанії, присвячених одній і тій же тематиці. Яндекс вважає, що в топі повинен бути тільки один сайт однієї фірми і, в теорії, це правильно. Мало того, за некоректної роботи цього фільтру з перших місць можуть випасти всі сайти, а не всі, окрім одного. Фільтр аффіліатов також стосується і контекстної реклами, директ - там теж відстежують рекламу афілійованих сайтів.
Як і всі фільтри яндекса, фільтр аффіліатов часто працює некоректно - деякі компанії займають своїми сайтами весь топ, а іноді буває, що "склеюються" сайти зовсім різних підприємств.
Зараз не виходить відловлювати сайти однієї і тієї ж фірми ні по дизайну, ні за структурою ... вебмастера розумні і давно вже враховують ці фактори. Навіть на одній cms можна зробити декілька абсолютно різних за структурою сайтів. Я вже не кажу про дані whois для доменів - їх багато вебмастера роблять різними, навіть якщо сайти ніяк не пов'язані один з одним.
Під нього однозначно потрапляють партнерські сайти, які створені виключно для перенаправлення трафіку на магазини або партнерки. Визначити аффіліатов, крім усього іншого, можуть по пересічних семантичним ядрам сайтів.
Якщо є необхідність просунути в топ кілька сайтів, то потрібно їх зробити максимально несхожими друг від друга:
- Whois, айпі;
- Різні cms, дизайни, структури сайтів;
- Різні контакти, зазначені на сайті;
- Постаратися зробити різними семантичні ядра (крім ключових запитів);
- Відсутність взаємних посилань між цими сайтами.
На жаль, на даний момент немає достовірних способів визначення цього фільтра, так як невідомий сам алгоритм. Все це - лише припущення.
Фільтр "Ти спамний". Офіційної інформації про його існування немає, однак прояви його були помічені і класифіковані. Він накладається не на весь сайт або домен, а на конкретну сторінку по конкретному запиту. Замість спеціально оптимізованої під даний запит сторінки видається абсолютно інша, набагато менш релевантна.
Придуманий він, як передбачається, для боротьби з "порятунком" (як їх іноді завуальовано називають "сео-текстами") - довгими текстами, насиченими ключевіков, які були створені виключно для просування сторінок за запитами; користь їх для людей була мінімальною. Один із способів перевірки попадання під фільтр "ти спамний" - ввести в пошук відповідний запит до зміненої словоформі. Якщо в пошуку (не обов'язково на перших позиціях) буде видана потрібна сторінки, значить, вона під фільтром. Можна також зробити пошук яндексом по своєму сайту - якщо по потрібному запиту просувається сторінка не перша, значить, ймовірно, на неї накладено цей фільтр.
Вийти з-під фільтра непросто. Потрібно переписати весь текст, прибравши спамность ключевіков, переписавши і оформивши його для людей і взагалі зменшивши його кількість. Бути може, буде потрібно після цього перемінити просувається сторінку, її адресу.
Деякі виділяють також різновид фільтра, яка накладається за "переспить" анкор-листа. Лікується його розведенням. Швидше за все, при накладанні фільтру враховуються і внутрішні фактори (пошуковий спам на сторінці), і зовнішні фактори (Переспа анкор-листа).
Непот-фільтр полягає в тому, що вага посилань з сайту (або, ймовірно, з певних його сторінок) обнуляється. Причина - велика кількість вихідних посилань, продажних або обмінних. Фільтр сайтів для дорослих (адалт-фільтр) накладається, як зрозуміло з назви, на сайти з еротичним або порнографічним змістом. Причому ця еротика може бути не в самому контенті сайту, а в рекламі, особливо в Тізерна блоках. Через таких тізерів самий пристойний сайт може потрапити під фільтр. Висновок - слід серйозно ставитися до реклами, що розміщується на сайті. Втім, були випадки накладення подібного фільтра за статті про секс в медичному чи психологічному ключі ...
Є безліч міфів і помилок, пов'язаних з фільтрами яндекса.
Наприклад, вважається, що якщо сайт активно нарощує кількість посилань, то він потрапить в бан. Здавалося б, дуже зручний спосіб валити конкурентів. На щастя, за це сайти не банять і не фільтрують. Немає також фільтра за редирект за допомогою java-script - якщо сайт, звичайно, не створений спеціально з метою перенаправляти трафік.
Багато хто думає, що неунікальні тексти не індексуються або ж такі сайти відразу потрапляють в бан. Шкода, що вони не зметикували піти у видачу і подивитися, що там більшість сайтів не мають унікального контенту.
фільтрації сайтів, через які багато ресурси, часом цілком якісні і зроблені для людей, не потрапляють на перші місця пошуку, а часто і взагалі виключаються з видачі.
На жаль, багато фільтри далекі від досконалості, тому під них потрапляють і цілком нормальні релевантні сайти, створені для людей, і на яких на перший погляд відсутні прийоми, заборонені правилами пошукової системи.
Найголовніший фільтр - це бан, повне виключення сайту з індексу. Теоретична узагальнена причина - порушення ліцензії пошуку яндекса. Але реальних причин може бути безліч, і далеко не всі вони очевидні на перший погляд. Ситуація посилюється тим, що немає відкритих і чітких "правил гри", а служба підтримки яндекса (Платон Щукін) украй рідко дає конкретні поради і вже точно ніколи не вказує причин накладення бана.
Найбільш ймовірна і поширена причина - пошуковий спам. Найчастіше зустрічається випадок пошукового спаму це перенасиченість сторінок сайту ключовими словами. Це може бути як умисно, так і через незнання. Є старе оману, згідно з яким чим більше щільність і кількість ключових слів на сторінці, тим краще для позицій сайту. Ця "істина" неактуальна вже багато років. І не просто неактуальна, а ще й дуже шкідлива.
Раніше був поширений прийом заповнення мета-тегів різними ключовими словами, у тому числі не відносяться до тематики сайту, але які є популярними (секс, порно і т. п.). Внаслідок цього вплив мета-тегів на пошук було мінімізовано.
Отже, найпоширеніші прийоми внутрішньої оптимізації, які яндекс може прийняти за пошуковий спам і забанити сайт:
- Банальне перенасичення тексту ключовими словами і фразами. Найчастіше це буває умисно, людина пише, вираховує щільність, додає ключові слова; в підсумку виходить, що щільність начебто і, теоретично, прийнятна, а текст виходить нечитабельним. Іноді бувають випадки, коли автор сайту, захоплюючись темою, про яку він пише, ненавмисно перенасичує текст ключовими словами. Тому після написання статтю потрібно обов'язково віднімати, бажано вголос. А перевіряти щільність різними сервісами не варто, це неінформативне показник. Але є й такі, хто як і раніше вважає, що щільність 5% - це запорука присутності у топі ...
- Публікація на сторінках сайту списків ключових слів. Було дуже поширене кілька років тому. Зараз, на щастя, багато хто усвідомлює марність і весь негатив цієї дії. Зазвичай ці списки розміщуються внизу сайту, ледь видним або взагалі невидимим кольором, що, звичайно, ускладнює ситуацію. Деякі "просунуті" вебмастера розміщують їх вище шапки і заголовків сайту, вважаючи (знову ж таки, слідуючи поширеній помилці), що чим вище знаходяться ключевики, тим більший від них ефект для просування. І отримують заслужений бан. Інші ж використовують сучасні методи верстки і розміщують ключевики в div-ах, або просто невидимих (display: none), або зі зміщенням за межі екрану. Але робот дивиться код сторінки, а з коду ключевики не сховаєш - тому такі методи неминуче призводять до бану.
- Публікація списків пошукових запитів. Зазвичай пишуть "на наш сайт заходять за такими запитами" або "цю сторінку можна знайти в Яндексі за запитами". Це класичний варіант пошукового спаму! Так робити категорично не можна. Деякі движки дозволяють робити це дуже просто, відстежуючи переходи з пошукових систем і автоматично виводячи списки запитів, за якими відвідувачі перейшли на сайт. Цю функцію потрібно відразу відключати. Або, в крайньому випадку, закривати ці блоки від індексації, а посилання в них - від переходів по них пошукових роботів.
- Перенасиченість ключовими словами тегів і атрибутів title, h1-h6, alt, meta keywords, meta description і т. п. Не в кількості щастя! І навіть навпаки - переспить може привести до бану.
- Наявність на сайті сторінок, створених спеціально для просування по позиціях і не містять корисної для відвідувачів інформації, а також численних сторінок з перенаправленням на інші ресурси.
- Наявність взагалі будь-якого прихованого тексту, в тому числі і з посиланнями, створеного не для зручності використання, а для маніпуляції результатами пошукової видачі.
Ознака бана - повне випадання сайту з пошукової видачі. Але не всяке випадання однозначно є баном. Бувають ситуації, коли сайт просто вилетів через проблеми з хостингом, через недосконалість алгоритмів яндекса, через помилкового коду і т. п. Якщо раптом сайт пропав з пошукової видачі, потрібно почекати 2-3 апдейта і, якщо сайт не повернеться, написати в службу підтримки яндекса і питанням про причини випадання. І якщо відповідь буде про порушення на сайті - потрібно ці порушення усунути і знову написати їм. Часто ці порушення бувають неочевидними навіть для самого вебмастера, так що листування може затягнутися. Якщо пощастить, то служба підтримки натякне на конкретну причину або навіть прямо вкаже на порушення. Якщо ні, то потрібно довго думати і уважно аналізувати сайт, бажано із залученням сторонніх фахівців.
Раніше бан від простого випадання можна бути відрізнити, додавши сайт в addurl яндекса - він видавав помилку; зараз це неактуально, всі сайти додаються туди без помилки.
Інший, не менш популярний і не менше, якщо не більше, небезпечний фільтр яндекса - АГС (іноді це назва розшифровують як АнтіГовноСайт). Основний симптом - в індексі залишається від 1 до 10 (рідко 30) сторінок. І стандартну відповідь служби підтримки - "Наші алгоритми прийняли рішення не включати сайт в пошук. Розвивайте сайт, і він повернеться у видачу". Причому ця відповідь можуть надсилати навіть тоді, коли сайт змінився, і робот новий сайт навіть і не відвідував, тому в саппорт потрібно писати довго і активно, детально і без емоцій пояснюючи ситуацію.
Основною причиною цього фільтра (якщо мова йде про сайти для людей, звичайно) є дублювання контенту усередині сайту. Практично всі популярні движки створюють сторінки з однаковим контентом - це можуть бути сторінки тегів, сторінки розбивки по днях, місяцях і роках, сторінки розділів з анонсами статей, що містять фрагменти текстів самих статей і т. п. Логічніше, звичайно, було б виключити з пошуку тільки дублі і залишити контент, але Яндексу, мабуть, простіше відфільтрувати практично весь сайт, чим займатися детальним аналізом його структури та вмісту.
Інші причини:
- Сайт, що складається на 100% з неунікальний контент може потрапити під АГС, якщо він не являє собою нічого цікавого для відвідувачів;
- "Бредоконтент" - генеровані тексти, поганий сінонімайзінг або авторерайт, автоматичний переклад і т. п. Всі такі сайти досить швидко потрапляють під фільтр. Також під нього можуть потрапити і сайти з безграмотними текстами.
- Відсутність контенту на сторінках сайтах або його дуже мала кількість. Втім, сайт, що складається з одних тільки відеороликом і фотографій, може взагалі не проіндексована.
- Сайт, створений під продаж реклами. Якщо вебмастер не витрачає час і сили на те, щоб надати сайту "людиноподібний" вигляд, то такий сайт практично стовідсотково потрапить під АГС.
- Сайт, що складається з виключно "продажних" статей. Існує думка, що продаж посилань це смерть для сайту, а ось продаж місць під статті безпечна. Насправді все навпаки - погані статті куди швидше "вб'ють" сайт, ніж розумна продаж посилань, яка взагалі безпечна.
Існує безліч міфів і помилок з приводу АГС. Наприклад (пам'ятаєте, це МІФИ):
- Якщо посилань продано більше, ніж сторінок на сайті;
- Якщо сайт прогнати по купі каталогів відразу;
- Якщо у сайту низька відвідуваність;
- Якщо сайт рідко оновлюється;
- Якщо сайт побудований на стандартному шаблоні;
- Якщо на хостингу або на одному айпі багато говносайт і т. п.
Вийти з-під АГС вкрай складно, найчастіше простіше змінити домен. Можна спробувати закрити всі дублі, перевірити сайт на унікальність контенту і, якщо знайдуться неунікальні статті, замінити їх новими унікальними. Можна наповнити сайт великою кількістю нових статей. Можна змінити структуру сайту.
Песимізація - це відключення посилання ранжирування для конкретного сайту. Куплені та природні посилання перестають працювати, і, як наслідок, позиції різко падають. Падіння зазвичай відбувається на кілька сотень позицій, коливання в кілька десятків позицій зазвичай не пов'язані з накладеними на сайт санкціями. Всі сторінки сайту залишаються у видачі та знаходяться в пошуку, але просунути на перші позиції його неможливо, так як не працює відключено вплив посилання ранжирування.
Основна причина - присутність на сайті "посилальних смітників", каталогів посилань, не призначених для людей, а розміщених виключно з метою маніпуляції видачею. На щастя, час великих немодерованих каталогів посилань на сайтах вже пройшло, а був час, коли песимізація косила багатьох.
Якщо ви вирішили реєструвати сайт в каталогах, то ні в якому разі не можна розміщувати у себе зворотні посилання або банери на ці каталоги! Толку від них буде рівно нуль, а от шанс потрапити під пессимізації дуже відчутний.
Цілком імовірна песимізація за наявність великого числа продажних посилань (в тому числі і в статтях) - не варто розміщувати їх більше 4-5 на сторінку.
Дуже часто сайти пессімізіруют за розміщення занадто нав'язливою і заважає відвідувачам реклами. Наприклад, спливаючі вікна або занадто великі кількість тізерів на сторінках. При пессимізації часто можуть обнулити тиц.
Цілком можливо, що на зміну пессимізації прийшов фільтр "Ти останній", так як не можна провести чітку грань між ними.
Фільтр "Ти останній" схожий на Supplemental results в Гуглі. Сайт пропадає з пошуку, залишаючись проіндексованим. У пошуку його можна знайти тільки за унікальним фразам з текстів, які на ньому розміщені, і навіть по запитом, що містить адресу сайту, він може бути не на перших місцях. При цьому підтримка яндекса відповідає, що ранжування відбувається нормально, відповідно до його релевантність.
Для сайту відключається як посилальне ранжирування, так і вплив статичної ваги (внутрішньої перелінковки, в тому числі). Як показує досвід, основна причина - це неунікальний контент на сайті, який призначений для заробітку. Причому під "Ти останній" може потрапити і першоджерело, у якого скопіювали більшу частину статей. У такому разі доведеться або замінювати стали неунікальність статті, або шерстити інтернет і змушувати вебмайстрів видаляти копії.
Вийти з нього можна лише повністю змінивши сайт, його структуру, дизайн і т. п.
Фільтр аффіліатов. Під нього може потрапити декілька сайтів, що належать одній і тій же компанії, присвячених одній і тій же тематиці. Яндекс вважає, що в топі повинен бути тільки один сайт однієї фірми і, в теорії, це правильно. Мало того, за некоректної роботи цього фільтру з перших місць можуть випасти всі сайти, а не всі, окрім одного. Фільтр аффіліатов також стосується і контекстної реклами, директ - там теж відстежують рекламу афілійованих сайтів.
Як і всі фільтри яндекса, фільтр аффіліатов часто працює некоректно - деякі компанії займають своїми сайтами весь топ, а іноді буває, що "склеюються" сайти зовсім різних підприємств.
Зараз не виходить відловлювати сайти однієї і тієї ж фірми ні по дизайну, ні за структурою ... вебмастера розумні і давно вже враховують ці фактори. Навіть на одній cms можна зробити декілька абсолютно різних за структурою сайтів. Я вже не кажу про дані whois для доменів - їх багато вебмастера роблять різними, навіть якщо сайти ніяк не пов'язані один з одним.
Під нього однозначно потрапляють партнерські сайти, які створені виключно для перенаправлення трафіку на магазини або партнерки. Визначити аффіліатов, крім усього іншого, можуть по пересічних семантичним ядрам сайтів.
Якщо є необхідність просунути в топ кілька сайтів, то потрібно їх зробити максимально несхожими друг від друга:
- Whois, айпі;
- Різні cms, дизайни, структури сайтів;
- Різні контакти, зазначені на сайті;
- Постаратися зробити різними семантичні ядра (крім ключових запитів);
- Відсутність взаємних посилань між цими сайтами.
На жаль, на даний момент немає достовірних способів визначення цього фільтра, так як невідомий сам алгоритм. Все це - лише припущення.
Фільтр "Ти спамний". Офіційної інформації про його існування немає, однак прояви його були помічені і класифіковані. Він накладається не на весь сайт або домен, а на конкретну сторінку по конкретному запиту. Замість спеціально оптимізованої під даний запит сторінки видається абсолютно інша, набагато менш релевантна.
Придуманий він, як передбачається, для боротьби з "порятунком" (як їх іноді завуальовано називають "сео-текстами") - довгими текстами, насиченими ключевіков, які були створені виключно для просування сторінок за запитами; користь їх для людей була мінімальною. Один із способів перевірки попадання під фільтр "ти спамний" - ввести в пошук відповідний запит до зміненої словоформі. Якщо в пошуку (не обов'язково на перших позиціях) буде видана потрібна сторінки, значить, вона під фільтром. Можна також зробити пошук яндексом по своєму сайту - якщо по потрібному запиту просувається сторінка не перша, значить, ймовірно, на неї накладено цей фільтр.
Вийти з-під фільтра непросто. Потрібно переписати весь текст, прибравши спамность ключевіков, переписавши і оформивши його для людей і взагалі зменшивши його кількість. Бути може, буде потрібно після цього перемінити просувається сторінку, її адресу.
Деякі виділяють також різновид фільтра, яка накладається за "переспить" анкор-листа. Лікується його розведенням. Швидше за все, при накладанні фільтру враховуються і внутрішні фактори (пошуковий спам на сторінці), і зовнішні фактори (Переспа анкор-листа).
Непот-фільтр полягає в тому, що вага посилань з сайту (або, ймовірно, з певних його сторінок) обнуляється. Причина - велика кількість вихідних посилань, продажних або обмінних. Фільтр сайтів для дорослих (адалт-фільтр) накладається, як зрозуміло з назви, на сайти з еротичним або порнографічним змістом. Причому ця еротика може бути не в самому контенті сайту, а в рекламі, особливо в Тізерна блоках. Через таких тізерів самий пристойний сайт може потрапити під фільтр. Висновок - слід серйозно ставитися до реклами, що розміщується на сайті. Втім, були випадки накладення подібного фільтра за статті про секс в медичному чи психологічному ключі ...
Є безліч міфів і помилок, пов'язаних з фільтрами яндекса.
Наприклад, вважається, що якщо сайт активно нарощує кількість посилань, то він потрапить в бан. Здавалося б, дуже зручний спосіб валити конкурентів. На щастя, за це сайти не банять і не фільтрують. Немає також фільтра за редирект за допомогою java-script - якщо сайт, звичайно, не створений спеціально з метою перенаправляти трафік.
Багато хто думає, що неунікальні тексти не індексуються або ж такі сайти відразу потрапляють в бан. Шкода, що вони не зметикували піти у видачу і подивитися, що там більшість сайтів не мають унікального контенту.
Немає коментарів:
Дописати коментар