google_panda_sovety_seo_latviyaВ статье подобраны ответы на основные вопросы возникающие при работе с алгоритмом Google Panda 4.2. Как правильно диагностировать работу алгоритма после его нового апдейта? Какие изменения необходимо внести на сайт? Как сделать пользователя счастливым?

Google Panda 4.2 станет одним из самых долгих апдейтов в Google-истории. Для того чтобы возвратить трафик на ресурсы под Panda 4.1 и наложить новые санкции, понадобится не один день или месяц. Не исключается, что данный апдейт — последний перед введением непрерывных обновлений Panda. Глобальный апдейт затронет более 105.000.000 различных сайтов (2%-3% всех запросов). Google Panda 4.2 осуществляет постраничный анализ сайтов, по этой причине каждая страница может ранжироваться совершенно по-разному, но в целом действие алгоритма касается всего сайта.

Мы выделили несколько практических советов помогающих определить коснулось ли действие алгоритма отдельно взятого сайта и как быть, если опасения подтвердятся.

1. Определяем причину падения трафика

Существует достаточно много способов провести диагностику Google Panda 4.2: от проверки ранжирования по текстовым фрагментам и низкачастотным запросам, до проверки источников трафика с использованием Google Analytics. Также, можно воспользоваться Panguin Tool, показывающим апдейты Google -алгоритмов в наложении на трафик по Google-Analytics. Сервисы типа Mozcast также неплохо используются, указывая степень изменения выдачи.

2. Исключаем технические проблемы

Одной из самых важных деталей, является исключение вовремя не обнаруженных технических проблем на сайте. Не исключается, что падение трафика связанно именно с ними. Для этого необходимо наверняка знать какие именно работы были проведены на ресурсе в течении последних нескольких месяцев. Помимо этого, стоит воспользоваться Google Search Console и проверить не наложены ли на сайт ручные санкции. От такого вида санкций избавляться достаточно легко, тем более что причина их наложений всегда указанна.

3. Следим на новостями

По причине того, что падение трафика затронет лишь некоторые страницы ресурса, для точной диагностики вполне может понадобится «коллективный разум» SEO-сообществ. В свое время, тематические ресурсы зафиксировавшие массовые изменения в выдаче, позволили разобраться с периодами активности Penguin 3.0. Действие вышедшего в октябре апдейта, проявилось массовыми изменениями выдачи лишь через несколько месяцев.

4. Выявляем и обрабатываем проблемные страницы

Для того чтобы определить «проблемность» той или иной страницы, достаточно просто зафиксировать страницы с максимальным падением трафика. Как правило, в зону риска попадает:

  • низкокачественный лендинг;
  • дублирующийся контент;
  • малое количество текста (менее 400 слов);
  • глубоко «посаженные» страницы (более 4-х кликов после главной);

Работы с проблемной страницей являются неотъемлемой частью рутинной работы по поисковой оптимизации, неспециалист должен четко осознавать, что действие фильтра может распространятся на все не удовлетворяющие запросам пользователя страницы.

Главным сигналом Panda считает пользовательское поведение после клика на расположенную на странице выдачи ссылку. В случае возврата пользователя на страницу выдачи в первые несколько секунд, риски попасть под действие фильтра значительно увеличиваются. Соответствие сайта, или отдельных его страниц поисковому запросу пользователя можно проверить используя новую функцию — Prodvigator.

Рассчитывая релевантность страниц Prodvigator будет учитывать:

  • частоту ключевых слов заданных поисковым запросом;
  • использование тегов ‘i’ или ‘strong’ при выделении ключевиков в точном вхождении;
  • ключевые слова на страницах перехода;
  • длину страницы;
  • словосочетания заданные в поисковом запросе и соответствие их очередности в тексте.

А также многие другие параметры, позволяющие увидеть релевантность каждой отдельно взятой страницы.

Ранее регулярная генерация качественного контента (включая блоги) указывалась в качестве основного метода профилактики Google Panda. Теперь, чуть ли не каждый выпуск «Whiteboard Friday» говорит о многозначительности старого текста и «второй жизни» давнишних постов.

5. Пишем оптимальный текст

Брайн Питман (специалист PR Daily) считает, что оптимальной длиной текста на странице является 600-800 слов. В зону риска, по его мнению, попадают страницы с текстами объемом менее 400 слов.

С помощью простого плагина Word Count (для Chrome), можно без труда замерить количество использованных на странице слов. Кстати, данный плагин по сути своей является незаменимым для анализа представленного на сайте контента. Как впрочем и множество других полезных плагинов в Chrome.

В случае возникновения сложностей в «выжимании» интересного и релевантного текста по теме (допустим тема слишком узкопрофильная), потрудитесь по меньшей мере проставить внешнюю ссылку на авторитетный тематический ресурс.

6. Контент редактируем особо тщательно

Google Panda очень требовательный алгоритм. Тексты он вычитывает очень тщательно, причем на любом языке. К примеру, в исследованиях проведенных Searchmetrics, четко видно как при ранжировании поисковиком используется индекс удобочитаемости («Формула Флеша»).

От удобочитаемости в соответствии с индексом, напрямую зависит позиция страницы:

  • «80» — текстовый уровень примитивен, может быть усвоен даже ребенком;
  • ниже «30» — цифра указывающая на серьезный, научный уровень текста.

Давно известно, что синонимы прекрасно различаются Google. По этой причине текст сайта необходимо насытить синонимами в максимальных количествах. Выписывать одно и тоже, но всегда по разному.

7. Увеличиваем количество фото и видео

В выдачу Google, на сегодняшний день, включается более 40% — фото и 55% — видео. По этой причине необходимо максимально наполнять сайт самым разнообразным контентом. Разумеется с прописыванием релевантных ключевых слов с ‘alt’ и ‘title’. Размещение большого количества тематического видео- и фото- положительно скажется на результатах выдачи.

8. Облегчаем сайт

Большие сайты (10.000-100.000 страниц) прежде всего пострадали от действия Google Panda. Виной всему сложности в нахождении информации. В случае наличия тысяч страниц на сайте, его необходимо облегчать с помощью:

  • блокировки страниц, используя Robots.txt;
  • деиндексации страниц, используя метатег noindex;
  • удаления и комбинирования отдельно взятых страниц;
  • указания Google на желаемые для индексации страницы, используя тег canonical;
  • перенос некоторых страниц на поддомен.

Легендарный совет данный специалистом Internet-Marketing-Ninjas Джимом Бойкиным, звучит примерно так: «Если потери трафика от действия Google Panda достигают 80 %, то сайт необходимо упростить и облегчить на те же 80 %».

9. Занимаемся оптимизацией внутренней перелинковки

Следует обратить внимание на работу всех внутренних ссылок сайта. Чтобы проверить открываются ли по каждой из них страницы, можно воспользоваться Netpeak Spider.

К другим этапам работы связанной с внутренней перелинковкой следует отнести:

  • расширение основного меню (достаточное количество внутренних ссылок на главной странице сайта — 150);
  • добавление дополнительной навигации (интересные статьи, топ-списки и т.д.), это особо эффективно в интернет-магазинах;
  • наличие минимального количества «сквозняков» (повторяющиеся ссылки, к примеру, боковое меню обозреваемое после перехода с главной).

10. Правильно распространяем контент

Panda очень внимательно следит за взаимодействием пользователя со страницей. Особую важность здесь имеет не только создание качественного контента, но и правильная его «продажа» читателю. Оптимальным соотношением времени создание-распространение контента должна стать цифра 1 к 7. В среднем, на создание контента специалистами тратится около 2-х часов в неделю, а на его распространение около 14-и часов в неделю, включая поддержку бренда, создание альтернативного формата, распространение постов.

Стоит помнить, что репосты от авторитетных сайтов, далеко не всегда способствую повышению трафика на сайте. Недавно был случай, когда блог почти все свои хорошие посты дублировал в авторитетных изданиях. Поначалу наблюдался значительный прирост в размере около 10.000 пользователей. Но, под действием апдейта Google Panda, ресурс стал терять из поиска до 225.000 пользователей. Как оказалось, падение сайта было продиктовано тем, что алгоритму не удавалось определиться с первоисточником текста (а им был блог), поскольку в ссылках других сайтов, на которых частично или полностью происходил репост текстов, не было указанно ни одного тега с указанием на блог. Для выхода из сложившейся ситуации блог:

  • переписал посты для сторонних сайтов и попросил заменить тексты;
  • обратился к владельцам сайта с просьбой добавить в ссылки тег rel=”canonical”, а также прописал добавление тега в обязательных условиях репоста;
  • предложил разместить уникальные посты сайтам инфлюенсерам.

Позиции блога были восстановлены после следующего Panda-апдейта, хотя так и не смогли вернуться к прежнему темпу прироста трафика.

11. Даже не пытаемся «прогонять» Panda

Апдейт начался 18 июля 2015 года, после этого вносить какие-либо изменения стало поздно. Изменения внесенные поле указанной даты не будут учитываться алгоритмом. По словам специалистов Google: попавшим под фильтр страницам, придется заниматься внедрением доработок и 10-месячным ожиданием завершения апдейта, а затем еще примерно год ждать запуска нового обновления.

Остается надеяться, что Penguin и Panda стали инфоповодом в последний раз. Тем более, что алгоритм вышедший четыре года назад не очень отличается от Panda-2015. Учитываемые алгоритмом сигналы, уже давненько стали частью общих формул ранжирования, а при создании и продвижении сайтов учитывается рекомендация «не злить Panda». Кстати, в интернете не нашлось ни одной фотографии исследователя Google по имени Navneet Panda, хотя алгоритм поисковика назван его именем.