Переходимо до штучної роботі?

У травні Гугл вніс зміни в алгоритми ранжирування, які торкнулися сайти з великою кількістю не рідкість сторінок. Тепер щоб бути в топі сторінка повинна давати щось більше, ніж просто відповідати тайтлов і контентом запитом.

Зараз вже можна робити деякі висновки по апдейт і роботі в нових умовах. Судячи по форумах, відгуками колег і свою практику, каталоги товарів, мп3 каталоги, сервіси закладок, новинні соціалки і т.д. - на багатьох подібних ресурсах помічено зменшення трафіку. На своїх російськомовних ресурсах я зрушень не помітив, а англомовні (судячи за симптомами - в результаті цього апа) одні постраждали, інші навпаки додали в трафіку. Спробуємо розібратися?



Які мої ресурси втратили в трафив. Новинна соціалка, мп3 каталоги, сгенеренной шопи під Амазон. Які додали: блоги з унікальним контентом, невеликі експериментальні ресурси в основному складені з коментарів користувачів.

Раніше добре працювала така схема: робимо сайт з купою сторінок, накачуємо морду і розділи хорошими піаристів (або з часто оновлюваних сторінок) посиланнями і трохи посилань (наприклад з жж, соціалок і т.п.) ставимо рандомно на сторінки товарів / mp3 альбомів м т.д. (В залежності від тематики). Підсумок - швидке індексування, трафік.

Що тепер? А нічого нового: контент і посилання і раніше рулять, тільки контент і посилання будуть потрібні всім сторінкам. Менше вплив прокачаності морд і внутрішньої перелинковки при ранжрованіі інших сторінок під нізкочастотку.

Більш конкретний приклад: звичайний, яких тисячі, мп3 каталог. Загнати в індекс, отримати трафік - НЕ проблематично.

Але, додамо до сторінок каталогу по кожному артистові вижимки з вікі + фотки з Фліка або пошуку по картинках, по кожному альбому у вигляді коментів додамо инфу з серпів і соціалок (в розумних дозах), відео з ютуба. Правильно перелінкуем все це добро + додамо блог (який будемо періодично оновлювати) і RSS, можливість користувачам додавати коменти, використовуємо свій шаблон, зробимо відмінну від конкурентів головну сторінку (замовимо у копіарайтера рекламну статтю), налаштуємо трансляцію з RSS в мікроблоги і соціалки, обов`язково згенерувати xml карту сайту і додамо в webmasters tools. В результаті: набагато більше трафіку (але через сграбленного / сгенеренной контенту - більш швидкий виліт з індексу). Це працювало до апу, працює (можливо, гірше) і зараз.

В ідеалі під кожен товар - окрема стаття, реальні відгуки користувачів, фото і відео матеріали і т.д. Але якщо товарів тисячі, і в тому числі сотні - уявіть скільки вам обійдеться така робота. Ну а зовнішні посилання на кожен товар? Мабуть в повній мірі це під силу тільки Амазонії.

Гугл зробив ще один крок в бік «краще менше, та краще». ІМХО, цей ап - ще один аргумент на користь більш акуратною, поштучного роботи зі сторінками сайтів.

Поділися в соц мережах:
Cхоже

Увага, тільки СЬОГОДНІ!