алгоритмы google-поиска

алгоритм гугла

В ночь с 24 на 25 апреля был введен новый алгоритм Google – Google Penguin (Гугл Пингвин). Любовь к животным Google вызвала много шума.

С момента написания моей прошлой статьи много чего изменилось. И старые знакомые (точнее, заклятые враги) типа Панды и Пингвина эволюционировали, и новые зверушки-хищники появились в зоопарке Гугла. Стала ли лучше выдача от этого? - однозначно нет. Проблемы добавились как вебмастерам, так и обычным людям, о которых якобы заботится "корпорация добра". Как всегда, это выгодно кому-то третьему. Но не это цель моей статьи. Мы разберем, какие бывают фильтры в настоящее время, как с ними бороться и как дальше жить. Прошлая статья была полна горечи, яда и критики. Здесь будет больше конструктива.
Суть всех фильтров Гугла (да и, по сути, всех поисковых систем) сводится к одному неутешительному для многих вебмастеров выводу - ужесточение критериев для индексации сайтов вообще и для попадания на первые места выдачи в частности. Перфекционистские попытки улучшить сайт, приблизить его к гугловскому идеалу, приводят зачастую к обратному эффекту, а именно к фильтрам и санкциям.
Благая цель на первый взгляд. Но только на первый, только теоретически. На практике все эти критерии, предъявляемые к качественным по мнению гугла сайтам, являются неписанными. Конечно, есть многостраничные рекомендации от самого гугла, но, как показывает опыт, они далеко от практики. Наоборот, бездумное следование этим "полезным" рекомендациям может привести именно к санкциям и фильтрам.
Итак, проведем историческую ретроспективу санкций и фильтров, которые накладывает Гугл, прикрываясь заботой о простых пользователях его поиска.
Самый, наверное, распространенный и спорный фильтр - песочница. Суть его заключается в отсеивании молодых сайтов; они просто не допускаются в топ до достижения каких-то показателей (собственно, возраст, количество страниц, посещаемость и т. п.) С одной стороны, вполне логично, что на первых местах показываются старые и проверенные сайты. С другой - откуда ж молодым сайтам брать средства на развитие, если Гугл не дает им получить качественный поисковый трафик? В общем, фильтр неприятный, но неизбежный. Ничего страшного в нем нет, это просто логичный этап в развитии многих сайтов.
Песочница - срок, в течение которого нужно спокойно развивать сайт. Добавляйте хороший уникальный контент, приобретайте тем или иным способом качественные ссылки, делайте внутреннюю оптимизацию, работайте над поведенческими факторами. Все эти действия дадут эффект после выхода сайта из песочницы. Срок - от месяца до года.
В это время можно получать трафик с других поисковых систем - у Яндекса, Mail.ru, Bing.com и т. п. песочницы или аналогичного фильтра для молодых сайтов нет. Там вполне реально выйти на первые позиции по низкочастотным запросам уже в первый месяц жизни ресурса.

Алгоритмы и фильтры поиска Google.  Хочу отметить вот этот источник: moz.com/google-algorithm-change - существенно помог в составлении списка.

После этого было множество безымянных фильтров - за переоптимизацию, за плохие ссылки, за быстрый прирост внешних ссылок, за низкую скорость загрузки сайта, за дубли контента в пределах сайта и т. п. Все это затмили новые звери - Панда и Пингвин. Также есть санкции, накладываемые вручную, но о них ниже.
Панда стала первым серьезным ужесточением отбора сайтов в топе. По сути, это новый алгоритм ранжирования, как заявляет сам Гугл. Но мы-то знаем... алгоритм алгоритмом, но в итоге получается именно серьезный фильтр для некачественных (по мнению роботов Гугла) ресурсов.
Первое, на что надо обратить внимание, это на контент. Очевидно, не так ли? Гугл анализирует контент с точки зрения доверия к конкретным статьям и к сайту целиком. Например, важна уникальность контента (не формальные циферки, выданные программами проверки на плагиат, а реальная уникальность), грамотность, качество подачи информации, ее достоверность и т. п. Комплексный анализ позволяет отсеять качественные и полезные людям материалы и, соответственно, сайты, на которых таких материалов большинство.
Так называемые "сео-статьи" сразу отсеиваются; собственно, уже никто и не пишет тексты, напичканные ключевыми словами до предела. С копипастом ситуация сложнее. Так, Гугл заявляет, что за неуникальные тексты, например, законов или стандартов (то есть, то, что по определению невозможно уникализировать) санкции накладываться не будут. Наверняка подразумевается, что помимо этого сайт будет содержать еще и уникальные материалы, а скопированные будут служить дополнением. Необходимо также исключить дублирование материалов внутри сайта, закрыть от индексации все дубли контента, которые могут создавать различные движки. Закрыть также надо служебные страницы (теги, поиск по сайту, профили пользователей и т. п.)
Первым признаком Панды может быть падение трафика, которое связано с выпадением из индекса большинства страниц сайта. Причем не факт, что выпадут именно некачественные материалы - критерий отбора остается загадкой. Новые страницы при этом тоже не индексируются; все это отлично видно на графиках в статистике Гугл Аналитикс. Сайт может пропасть из выдачи по самым низкочастотным запросам, в том числе и по прямым вхождениям по фразам из статей. Если это случилось с вашим сайтом - поздравляю, у вас Панда.
Но это лечится. Собственно, из вышесказанного понятно, как избавиться от фильтра. Первое - привести в порядок контент. Бывают неприятные ситуации, когда ваш уникальный самописный контент скопировали; в таком случае лучше его переписать заново, чтобы он снова стал уникальным. Контент желательно регулярно добавлять на сайт. Второе - упорядочить индексацию, закрыв для поисковых систем служебные страницы сайта. Смело закрывайте все, что не нужно пользователям в поисковой выдаче. В идеале, они должны получать только релевантный контент. Для всех популярных CMS существуют готовые файлы robots.txt, на их основе можно сделать свой фильтр.

Основные алгоритмы Google.  Page Layout Algorithm — наказывает сайты за чрезмерное количество рекламы.

Сайт должен стать интерактивным. Разместите на нем кнопки социальных сетей (не забудьте и Гугл+), поддерживайте комментарии и обсуждения, побуждайте посетителей подольше оставаться на сайте и совершать на нем активные действия. Собственно, поведенческие факторы (о них у нас на сайте есть моя отдельная статья) набирают все больший и больший вес как фактор ранжирования, и не только в гугле, так что обращайте на них основное внимание.
Реклама на сайте должна быть именно рекламой, а не основным контентом. Она должна быть полезной для посетителей (да-да, такое бывает!), должна занимать минимум места и быть в тему. Гугл Адсенс с правильно настроенным таргетингом идеально подходит, не правда ли? Впрочем, аккуратная продажа ссылок тоже никому не мешает. А вот попапы, тизеры, фэйковые новости в стиле "Пугачевой оторвало ногу" и прочая мусорная реклама отправляется в топку, это верный путь под фильтры не только в Гугле.
Панда - не единоразовый апдейт поискового алгоритма. Она регулярно "нападает" на выдачу, фильтруя все больше и больше сайтов. Всего, по утверждению Мэтта Катса, было 25 версий Панды. Последняя вышла в марте 2013 года, и с тех пор она стала постоянной. Можно на этом завершить обсуждение этого малоприятного фильтра и перейти к не менее разрушительному алгоритму - Пингвину.
Пингвин появился весной 2012 года. Его цель, в отличие от Панды, внешние факторы ранжирования, а именно ссылки. Пресловутые сео-ссылки, которые много лет являлись чуть ли не единственным способом продвижения при условии наличия хоть какого-то бюджета. В коммерческих тематиках именно бюджеты и определяли топ. Все попытки бороться с этим были бесполезными, но пришел Пингвин и все решил. Как всегда, по-гугловски, решительно, масштабно - и криво.
Под Пингвина попали, в том числе, и сайты, отлично оптимизированные в условиях Панды - с хорошим контентом, перелинковкой, поведенческими факторами и многим другом. Причина простая - внешние ссылки, которые Гугл вдруг посчитал плохими.
Ключевые слова в анкорах ссылок... что может быть логичнее, казалось бы? Ан нет, оказывается, именно такие сайты, у которых большинство ссылок содержало ключевики, попали под этот фильтр. Попали за накрутку выдаче, мол, естественные ссылки бывают или безанкорные, или с какими-то нейтральными текстами, но уж никак не с ключевыми фразами.
Суть простая - чтобы избежать Пингвина, необходимо анкор-лист делать максимально естественным. Ключевые фразы в виде "телевизор купить москва дешево" остались в далеком прошлом. Анкор-лист надо разбавлять, например, безанкорными ссылками (содержащими сам адрес сайта или домен), а также ключевыми фразами без прямого вхождения. Ключевики должны быть в читаемой форме, по правилам языка. Не "пластиковые окна урюпинск установка", " Установка пластиковых окон в Урюпинске". Возможно, какой-то процент прямых вхождений можно и оставить, но чем их больше, тем больше шанс попасть под фильтр.
Второй, вполне очевидный, критерий - это совпадение тематики донора и акцептора. Это, конечно, сложный вопрос, каким образом определять близость тематики, определять ли тематику сайта вообще или каждой конкретной страницы в частности, и вообще, насколько узко углубляться в тематическую близость. Например, будет ли тематична страница-акцептор "Продажа деревянных дверей" странице-донору "Продажа металлических дверей"? Не стоит залазить так далеко. По моему мнению, достаточно общего совпадения темы.
Как ни парадоксально, но можно и нужно покупать ссылки с атрибутом nofollow. Да, Гугл по ним переходить вроде как не должен, но в ранжировании он их учитывает, причем считает вполне естественными.
Быстрый рост внешних ссылок также вреден. Раньше ведь как было - накупил пачку ссылок, и ждешь роста. И был рост. А теперь наоборот, накупил кучу ссылок и попал под фильтр. Ибо неестественно! Ссылки надо покупать постепенно, делая упор на качественные и тематические. В любом случае, они будут недешевые, так что много и не купишь.
Что самое неприятное, так это то, что, в отличие от Панды, из-под Пингвина вылезти практически невозможно. Чаще всего необходимо не только устранить все недостатки ссылочной массы сайта, а и перенести его на новый домен, поставив 301 редирект со старого.
Исходящие ссылки тоже являются предметом анализа сайта Пингвином. Критерии те же - если ссылка сформулирована не для людей, если адекватно не вписана в контекст страницы, если она не

8 июня 2010 в 12:55. Эксклюзив: Как алгоритм Google управляет интернетом перевод. 8 июня 2010

История изменений алгоритма Гугл Панда  Все обновления публикуются на англоязычном ресурсе seomoz, страница moz.com/google-algorithm-change.


Google обычно тестирует свои алгоритмы от пары месяцев до полугода.  Алгоритм Google Penguin (Гугл Пингвин).14 января 2013

Алгоритмы Google: история развития. 09.12.2013Автор: Серов ИгорьРаздел: SEO учебник. Алгоритмы Google, основа работы поисковой системы Google.


Главная — Перевод — Как изменялись алгоритмы Google — 7 мая 2011.  Гугл, в этом смысле, самый актуальный поисковику. 7 мая 2011

26 сентября 2013 года алгоритм Hummingbird (Колибри) заменяет алгоритма Google Caffeine.  Так Гугл отличает мобильную версию сайта от адаптивного сайта.


Получивший среди оптимизаторов прозвище Google Payday Loan Algorithm – алгоритм по ранжированию

Я ненавижу Гугл! Это всё равно, что гадание на кофейной гуще!" А Google?  1. Как вы считаете, имел ли алгоритм Pigeon положительный эффект для бизнеса и


Все считали, что это “Пингвин”, однако, в последнее время у гугла было множество глобальных  Последний антиспам-алгоритм Google” (см. также на SlideShare).

Предлагаю вашему вниманию статью из блога ContentMonster про наиболее значимые изменения алгоритмов Google. 7 ноября 2015


Известно множество алгоритмов Google, которые пользовались популярностью в свое время.  Алгоритмы Google. Подробности. 30 Ноября 2014.

Есть еще и менее популярные алгоритмы Google. Рассмотрим и их изменения.  Продвижение web сайтов в гугле зекслер. 6 января 2015


Я пришел в Google в 2000 году и с тех пор работаю над алгоритмами ранжирования Google. Ранжирование Google — это набор взаимосвязанных алгоритмов

Смотрите сами подробности по новому алгоритму Google Mobile-Friendly из первых рук  Просто проверить с помощью специального онлайн-сервиса от Гугла.


 

Меню