Tweet
Как хорошо жилось вебмастерам ещё лет 10 назад, никаких проблем с продвижением (купи побольше ссылок или прогони по каталогам) или наращиванием ТИЦ (те же каталоги и базы сайтов) не было. Потом поисковые системы начали изощряться, придумывая все новые и новые алгоритмы, работа которых должна была оставить в ТОПе только лучшие и качественные сайты. Ну, а вебмастера, естественно, ищут, как это обойти.
Правда, ничего-не-делание мне быстро надоедает и я вновь приступаю к работе. Вот и сейчас, писала статью и чуть отвлеклась
Вернемся к нашей теме.
Очередную «пакость» придумал гугл, который не так давно Google запустил еще один алгоритм Freshness. С того времени за ним наблюдал и анализировал его Крис Шебен-Иди (эксперт СЕО). В результате он смог найти 11 факторов, которые учитывает алгоритм при ранжировании:
- дата присвоения авторского права и создания документов;
- последние изменения в документе;
- использование языков программирования: html5 или css3;
- применение микроразметки с датой;
- история изменения уровня трафика сайта и показателей CTR;
- прошлые позиции в поисковой выдаче, а также их ротация;
- «реакция» страницы по популярным запросам;
- наличие интернет-ресурса в пользовательских закладках и упоминания о нем в соцсетях;
- поведенческие факторы;
- тема страницы и актуальные данные пересекаются;
- ссылочная масса: скорость и изменение количества.
Крис Шебен-Иди сообщил в своем блоге о том, что раньше поисковик Google говорил, что затронет 35% запросов, но сейчас алгоритм отобразился на 10% запросов. Однако такая ситуация может быть связана с тем, что Freshness только недавно запустился и поэтому не добрался до обещанной суммы запросов. Но, как бы там ни было, а алгоритм будет направлять свои силы на то, чтобы определять сайты, которые будут самыми важными для пользователей Сети.