Универсальный чудо ключ Snap’n Grip – следующий шаг в разработке разводных ключей. В отличие от предшественников, он имеет надежный хват и меньше повреждает

Универсальный чудо ключ Snap’n Grip – следующий шаг в разработке разводных ключей. В отличие от предшественников, он имеет надежный хват и меньше повреждает поверхность. Профиль зубцов и устройство ключа свели вероятность проскальзывания до нуля.

Беспроводные Bluetooth-наушники JBL Purebass T65BT с поддержкой проводного подключения и исключительно комфортными амбушюрами позволяют наслаждаться музыкальным контентом

Беспроводные Bluetooth-наушники JBL Purebass T65BT с поддержкой проводного подключения и исключительно комфортными амбушюрами позволяют наслаждаться музыкальным контентом в любом месте в любое время. Воспроизводят высококачественный звук с мощным фирменным басом, широкой сценой и великолепной детализацией, а благодаря аккумулятору на 350 мАч вы сможете прослушивать музыку до 10 часов от одной зарядки.

Комфортные, прочные и теплые ботинки известного европейского бренда с качественной отделкой из натуральных материалов. Система Gore-Tex создает надежную защиту от

Комфортные, прочные и теплые ботинки известного европейского бренда с качественной отделкой из натуральных материалов. Система Gore-Tex создает надежную защиту от проникновения влаги. Натуральный мех позволит чувствовать себя комфортно в самую холодную погоду. Технологическая подошва с массивным протектором имеет повышенную износостойкость и обеспечивает идеальное сцепление с любой поверхностью.

Модель выполнена из натуральной кожи, оформлена в черном цвете. Перфорированный верх обеспечивает циркуляцию воздуха, а текстильная подкладка поддерживает

Модель выполнена из натуральной кожи, оформлена в черном цвете. Перфорированный верх обеспечивает циркуляцию воздуха, а текстильная подкладка поддерживает оптимальный микроклимат.

Это революционное водоотталкивающее покрытие, которое придает уникальные свойства таким материалам, как натуральная и искусственная ткань, замша, нубук и другие.

Это революционное водоотталкивающее покрытие, которое придает уникальные свойства таким материалам, как натуральная и искусственная ткань, замша, нубук и другие. Данное средство не токсично, не содержит органических растворителей и абсолютно прозрачно.

Джет-бальзам – это крупнейшее открытие в сфере медицины, результат более 20-ти лет непрерывных научных исследований. В отличие от других похожих средств, он

Джет-бальзам – это крупнейшее открытие в сфере медицины, результат более 20-ти лет непрерывных научных исследований. В отличие от других похожих средств, он эффективно борется с морщинами, пигментными пятнами и другими дефектами кожи.

Ножи известной фирмы Berlinger Haus сочетают в себе качество товара, острые, хорошо заточенные лезвия, эстетичный внешний вид, удобство хранения. Все ножи выполнены из

Ножи известной фирмы Berlinger Haus сочетают в себе качество товара, острые, хорошо заточенные лезвия, эстетичный внешний вид, удобство хранения. Все ножи выполнены из высококачественной нержавеющей стали, острые, отлично справляются со своей задачей, их удобно держать в руке.

9 типичных SEO-ошибокВ последнем материале про SEO на этапах разработки мы пробежимся по основным подводным камням веб-дева, которые могут серьезно помешать продвижению сайта.

Вся серия:

В идеальном мире команды, которые работают над созданием сайтов, знают все рекомендации поисковиков и аккуратно им следуют. На практике, как я уже говорил в разделе «Когда нужно работать с внутренними факторами SEO», ни заказчикам, ни разработчикам обычно нет дела до SEO, поскольку это задача из серии «важные, но не срочные» — примерно как заняться спортом или бросить курить. Вроде надо, но не сейчас, когда так много неотложных дел!

Итог — целый букет простых, но досадных ляпов. Уберечься от них легко, а вот их исправление стоит дорого: это месяцы потерянного SEO-трафика, повторные переделки сайта и т.п. Вот 9 главных ошибок такого рода.

1. Контент подгружается динамически

Почему это плохо

Подгружать тексты и картинки на лету кажется хорошим решением — ускоряется загрузка первой части страницы, снижается нагрузка на хостинг и клиентское устройство. С точки зрения SEO это катастрофа: поисковый робот просто не видит такой динамический контент и ваш сайт не индексируется по нужному запросу.

Решение

Лучше вообще не делать динамического контента, а решать задачу как-то иначе. Если вам остро необходима динамика, нужно настроить схему индексации и кэширования AJAX-контента: делаются статические HTML-снимки, которые отдаются с сервера при видоизменении адреса страниц. Подробности — в инструкции Яндекса.

2. Красивые страницы без контента

Почему это плохо

О том, как рождаются мертвые сайты без контента и почему контент важен, я уже в подробностях рассказал. Важно понимать, что сайты делаются для клиентов, а не для подачи на конкурс. Какой бы красивой ни была оболочка, без содержимого сайты не работают — не продают и не собирают SEO-трафик.

Решение

Все участники процесса — и заказчик, и разработчики — должны понимать, что контент надо готовить как можно раньше, а не откладывать на вырост. Такой подход позволит вам получить удобный сайт быстрее, а SEO-трафик вы приобретете как приятный бонус. При этом не надо писать тексты-простыни и думать о количестве вхождений — алгоритмы давно ушли вперед, теперь достаточно небольшого текста с добавками фото, видео и т.п. Желательно также использовать заголовки и списки — так вы повысите читаемость материала, а вместе с этим улучшатся и поведенческие метрики вашей страницы (снизятся отказы, повысится до разумного предела время на странице и т.п.)

3. Мобильная версия потом

Почему это плохо

См. раздел «Адаптив/мобайл». Мобильный трафик растет, десктопный стоит на месте или падает. Кроме того, мобильная версия — один из важных факторов ранжирования, поэтому и с точки зрения SEO упускать этот момент нельзя.

Решение

Пора менять приоритеты и либо начинать с версии под малые экраны, либо включать адаптивную версию в первый же вариант сайта. Учитывайте, что для того, чтобы получить SEO-бонус за мобильную версию, ее нужно дополнительно настраивать — подробности в инструкции Google.

4. Закроем сайт, откроем новый на новом домене

Почему это плохо

Непонятно почему, но эта идея приходит в голову каждому второму владельцу сайта — старый сайт устарел-надоел, давайте сделаем современный на новом домене. Это опасный бред в духе «новых детей нарожаем или этих отмоем». Бросив старый домен, вы потеряете:

  • Драгоценную историю домена в теме. Статические факторы ранжирования, в том числе возраст домена — это роскошь, от которой нельзя отказываться. Даже если домен под санкциями, проще его вывести, чем двигать с нуля.
  • Прямой трафик с визиток, закладок, старых email-ов и бог еще знает откуда, т.е. вы сделаете старым клиентам неудобно. Не надо так обращаться со старыми клиентами.

Чаще всего «брошенный» сайт еще и не закрывают от индексации, в результате чего он начинает конкурировать в поиске с новым и часто побеждает — просто за счет возраста домена. Вместо обновления вы получите кашу из двух доменов. Старый потеряет позиции, новый не получит, а по бренд-запросам будет выше ранжироваться старый сайт.

Решение

Подумайте десять раз, надо ли менять домен. Смена ради смены — это точно ерунда. Но, предположим, это неизбежно — у вас ребрендинг и без смены домена не обойтись. В этом случае вам нужно выполнить аккуратный перенос:

5. Смена структуры без учета старых результатов

Почему это плохо

Еще одна беда — бездумная смена структуры, которая приводит к потере результатов SEO. Обычно это приходит вместе со сменой CMS. Разработчики из лучших побуждений предлагают, скажем, сменить самописную поделку на универсальное решение вроде Битрикса. Естественно, логика URL у Битрикса отличается от старой CMS. В результате переезда все страницы вроде бы на месте, но по новым адресам. Если сайт обновлялся более радикально — у вас вообще новые страницы на новых адресах.

Робот не находит страниц по привычному адресу и выкидывает сайт из индекса по данному запросу. Когда-нибудь он найдет и новую страницу, но когда и с каким результатом — еще вопрос. Итог: по чужому недомыслию вы теряете SEO-трафик.

Решение

Структуру можно и нужно менять — смотрите раздел «Семантическое ядро». Но делать это следует аккуратно. Вы должны отчетливо понимать, что смена структуры делается для увеличения SEO-охвата, а не просто ради новой CMS. Обязательно настройте 301 редирект со старых страниц на новые.

6. Не закрывается от индексации тестовая версия

Почему это плохо

Тестовая версия попадает в индекс и начинает затем конкурировать с основной. Контент с тестовой версии опознается поисковиком как первоисточник (логично, он опубликован раньше именно там). Основной домен получает минус к ранжированию как сайт с дублированным контентом. Это классический пример копеечной ошибки, для устранения которой могут потребоваться месяцы.

Решение

Нужно закрыть отладочный домен от индексации в файле robots.txt. Там должно быть всего две строчки:

User-Agent: *
Disallow: /

Если вы отлаживаете новый сайт на основном домене, не забудьте открыть его для индексации после запуска. «Забыли открыть роботс» — первый ответ на вопрос, почему новый сайт работает, но не индексируется.

7. Не устранены типичные проблемы Битрикса

Почему это плохо

Битрикс не случайно стал ведущей CMS на российском рынке. Он гибок, для него есть масса шаблонов и готовых решений. Он хорошо интегрируется с 1С. Однако, как и у любого старого универсального продукта, в коде и логике Битрикса скопилась масса костылей. Эти заплатки мешают жить как разработчикам, так и seoшникам. Проблемы Битрикса с точки зрения технического специалиста хорошо описаны тут. А SEO-отрасль должна быть благодарна Битриксу, баги которого обеспечили искусственно созданной работой не одну сотню человек :)

Решение

Битрикс из коробки плохо подходит и для SEO. Нужно как можно быстрее устранить несколько главных багов, связанных с дублированием контента:

  • Аккуратно настроить SEO-модуль, чтобы можно было задавать уникальные мета-данные и делать шаблонизацию. По умолчанию все метаданные внутри разделов дублируются.
  • В интернет-магазинах нужно устранить еще одну ошибку дублирования: на страницах пагинации разделов текстовые блоки с описаниями по умолчанию дублируются.
  • Настроить ответы сервера, так как из коробки добавление любого параметра в URL отдает ответ «200 ОК», из-за чего поисковый робот может проиндексировать большое количество дублированных страниц.

В зависимости от версии Битрикса и/или использованного вами шаблона может потребоваться исправление и других SEO-ошибок, это только основные.

8. Ошибки в верстке: использование заголовков <h1> — <h6> в чисто оформительских целях

Почему это плохо

К сожалению, разработчики иногда ленятся писать дополнительные стили для врезок и подобных декоративных элементов, не содержащих основного запроса, используя для этого стили заголовков. При этом заголовки h1-h6 — важный элемент верстки, передающий поисковому роботу информацию о содержимом страницы. Если вы использовали эти теги для того, чтобы выделить части текста, которые не содержат ключевой информации, вы серьезно понизили шансы на правильную индексацию страницы.

Решение

Решение: заголовки h1-h6 можно использовать только в контентной части страниц или при обозначении заголовков типовых элементов (отзывов, комментариев, рекомендованных товаров и т.д.)

9. Ошибка: сайт после выкатки доступен по нескольким адресам

Почему это плохо

Если не подумать об этом специально, после публикации сайта вы получите набор конкурирующих между собой копий (зеркал). Версии сайта — с www и без, по протоколу http и https, site.ru и site.nichost.ru — лежат на одном хостинге, но  будут индексироваться независимо. Если вы купили несколько доменов для одного сайт, к примеру, ru и .рф, умножьте ад дублирования версий на количество доменных зон. Конечно, проиндексированная таким образом каша из недосайтов получит плохие позиции.

Решение

Решение: сайт должен быть доступен для индексации только по одному адресу. Другие варианты должны перенаправлять посетителя на основное зеркало. Для этого надо как можно быстрее настроить редиректы, инструкция тут.

Удачи при разработке новых сайтов! Если вы еще не видели первые две части этого материала, посмотрите на них:

Как делается SEO на этапах разработки

Это второй материал из серии про SEO на этапах разработки сайта. Вся серия:

Внутренние факторы и их оптимизация в процессе разработки сайта

Улучшать сайт под SEO можно в разных направлениях. В сухом виде все они описаны в рекомендациях для разработчиков: версия Гугла, версия Яндекса. Я расскажу о том же, но подробнее и в первую очередь для менеджеров, а не для технарей. Итак, на что стоит обратить внимание при редизайне сайта?

Цикл разработки

Говоря о том, когда нужно делать те или иные операции относительно цикла разработки, я использую схему, принятую в нашем агентстве Nimax. С некоторыми вариациями этот процесс повсеместно принят на российском рынке. Основные этапы цикла:

  • Информационная архитектура.
  • Прототип сайта и графическая концепция.
  • Дизайн.
  • Верстка.
  • Программирование.

Этапы разработки сайта

Некоторые агентства начинают с дизайна, минуя ИА и прототипы — этот подход годится только для самых маленьких проектов, для средних и крупных сайтов он непригоден. Подробнее о цикле разработки можно почитать, к примеру, на сайте Nimax.

Семантическое ядро — основа структуры сайта

Что это

Карта поискового спроса, организованная в виде дерева запросов. Отражает реальную структуру спроса, отвечает на вопрос «Как вас ищут». Позволяет понять, какие ключевые пункты должны быть у вас в навигации, как организовать каталог, какие страницы должны собирать трафик и так далее. Вам не обязательно придется использовать точные формулировки запросов в текстах — поисковики сегодня хорошо распознают синонимы и в любом случае поймут, о чем ваши страницы. Но картировать поисковый спрос нужно обязательно.

Как соотносится с циклом разработки, сроки

Сбор семантики — одна из первых операций, которую нужно делать параллельно с информационной структурой. Поисковый спрос должен найти отражение в готовой архитектуре и прототипах. Отводите на эту задачу от недели до трех.

Почему это важно

Любую маркетинговую активность, будь то новый сайт или вирусный спец-проект, полезно начать с анализа, беглого исследования. Уверены ли вы, что ваши представления о ЦА — реальность, а не отраслевая фантазия? Не пытаетесь ли вы продавать клиентам так, как удобно вам самим?

Вспомните, пожалуйста, типичный сайт со сложным оборудованием, который заказывали инженеры: структура каталога будет отражать внутреннюю номенклатуру, принятую на заводе-производителе, а вовсе не задачи, которые клиенты решают с помощью приборов.

Чтобы не повторять эту ошибку, перед созданием сайта нужно оценить, как ищут ваши товары и услуги потенциальные клиенты. Скорее всего, они по-своему классифицируют ваш ассортимент.

Как это делается

Для того, чтобы это выяснить, нужно собрать все более-менее популярные запросы, относящие к вашей теме, и собрать их в иерархическую структуру, которая на seo-сленге называется семантическое ядро или просто семантика. Пример такого структурированного семантического ядра показан на скриншотах:

good_semantics_00good_semantics_01

Вручную это делается с помощью сервиса Wordstat для Яндекса и гугловского KeyWord Planner. Для обширных тематик вручную справиться сложно, поэтому используются сначала средства автоматизации, к примеру, KeyCollector или его аналоги/заменители: RushAnalytiсs, готовые базы MOAB.pro или Just Magic . Затем нужно вручную почистить собранный список запросов и организовать его в осмысленную структуру. Автоматические средства для организации семантической структуры работают неидеально, целиком полагаться на них не надо — слишком важна эта задача.

Технические факторы

Что это

Совокупность настроек, которые улучшают индексацию сайта, страхуют от ошибок индексации и повышают видимость страниц по целевым запросам. Среди наиболее важных технических факторов:

  • Общая логика CMS — есть/нет дубли в структуре, как устроены URL-адреса, как создается карта сайта, можно ли независимо редактировать метаданные для страниц и разделов.
  • Настройки файла robots.txt — инструкция о том, какие страницы нужно индексировать, какие нет.
  • Настройки сервера — версии с www/без www, редиректы со старой версии.
  • Скорость загрузки страниц.
  • Чистота кода.
  • Защищенность CMS — устойчивость перед вирусами, заражающими сайты.

Как соотносится с циклом разработки

Технические элементы закладываются на этапе верстки и программирования. Большинство технических факторов связаны с настройками CMS (системы управления сайтом). Некоторые CMS более дружелюбны к SEO и требуют меньше внимания, некоторые, наоборот, из коробки плохо соответствуют опубликованным и предполагаемым требованиям поисковиков. WordPress — пример SEO-friendly системы (с поправкой на проблемы с безопасностью), Bitrix — пример плохо оптимизированной CMS (подробности о технических проблемах Битрикса можно узнать в статье «Исповедь Битрикс-хейтера»).

Почему это важно

Плохо настроенная CMS и прочие нерешенные проблемы технического характера в состоянии если не уничтожить, то серьезно испортить все текущие и будущие результаты оптимизации. К примеру:

  • Плохая логика адресации — с кашей из лишних параметров в адресе — не позволит поисковому роботу нормально проиндексировать ваши страницы.
  • Дубли — скажем, какие-то служебные копии основных страниц, которые попадают в индекс — приведут к понижению позиций для основной страницы, так как роботу будет непонятно, где именно на сайте нужная информация.
  • Низкая скорость загрузки, вызванная грязным кодом и/или слабым хостингом, понижает шансы вашего сайта при сравнении с конкурентами, у которых все грузится быстро.
  • Защищенность CMS и хостинга: зараженный серверным вирусом сайт получает в поисковиках пометку «распространяет вредоносное ПО», после чего все основные браузеры вообще перестанут отправлять к вам людей; такая ситуация может сохраняться до 90 дней после удаления вируса.

Пример сообщения Chrome о сайте, зараженном вирусомПример сообщения Chrome о сайте, зараженном вирусом.

Пример пометки о взломанном сайтеПример пометки о взломанном сайте.

Как это делается

Перечисление всех деталей, связанных с оптимизацией технических факторов, требует отдельной статьи. Некоторые важные моменты перечислены в разделе про типичные ошибки, которые допускают разработчики. Общая схема работ выглядит так:

  • SEO-специалисты как можно раньше выдают разработчикам документ, описывающий требования поисковиков, а менеджеру проекта рекомендуют подобрать подходящий хостинг.
  • Программисты создают тестовую версию сайта, закрытую от индексации в robots.txt (в 90% разработчики забывают это сделать, потому что им это не нужно, и «рыбный» сайт попадает в индекс, причем тестовая версия индексируется раньше, чем основная — в результате получаем проблему дублей).
  • Во время настройки сервера и развертывания CMS SEO-специалисты мягко напоминают разработчикам о том, какие ошибки не стоит совершать.
  • После окончания программирования, но до публикации сайта (т.е. до того момента, когда сайт открывается для индексации в robots.txt), SEO-шники донастраивают сайт, отчасти работая как тестировщики, отчасти как консультанты.

Поведенческие факторы

Что это

Сражаясь со ссылочными накрутками (см. историю вопроса в первой части), поисковики нашли новую схему, которая позволяет измерять качество сайтов почти без учета внешних ссылок. Вот какой процесс лежит в основе этого измерения:

  • Пользователь переходит на сайт из поиска по запросу X.
  • На сайте с вероятностью 95% стоит Google Analytcis, в России также Яндекс.Метрика.
  • С помощью этого «доброго троянского коня» поисковик получает всю информацию о визите: время, количество просмотренных страниц, количество и качество интерактивных взаимодействий — времени до первого клика, количество нажатий на кнопки, просмотров видео и т.п.
  • Ваши данные сравниваются с бенчмарками — средними показателями по вашей тематике/сфере бизнеса.
  • Если показатели лучше, позиции сайта по запросу X улучшаются, если хуже — падают.
  • Если после посещения вашего сайта пользователь вернулся в поиск и/или ввел измененную форму запроса, вам тоже засчитывается жирный минус (очевидно, человек не нашел то, что хотел).

Таким образом, благодаря оптимизации текстов, метаданных и в какой-то степени ссылок вы временно получаете хорошие позиции. Дальше они проверяются с помощью анализа поведения пользователей. Если у вас все хорошо, хорошие результаты закрепляются. Если у вас неудобный сайт, не помогут никакие трюки — трафик упадет. Чем выше конкуренция в тематике, тем выше вес поведенческих факторов при оценке сайта. Аналогично на позиции влияют технические факторы — ведь они тоже в конечном итоге влияют на качество пользовательского опыта.

Как соотносится с циклом разработки

Опыт использования сайта, качественный интерфейс, продуманный путь пользователя по сайту — все это закладывается отчасти на этапе информационной архитектуры, но в большей степени на этапе прототипирования.

Почему это важно

Поведенческие факторы — одна из тех вещей, которые «нельзя просто взять и улучшить» постфактум, когда сайт уже запущен. Хорошая оптимизация поведенческих факторов требует переделки сайта: нужно менять и структуру, и логику работы элементов, и дизайн страниц. Именно поэтому поведенческие факторы — осиновый кол, который поисковики забивают в гроб SEO-накруток.

При этом поведенческие факторы тоже пытаются накручивать — почему бы и нет, можно написать роботов или нанять студентов, чтобы те кликали по ссылкам и правильным образом ходили по сайту. К сожалению для накрутчиков и к счастью для всех остальных, поведение робота или «наймита» алгоритмически легко отличить от поведения нормального пользователя. Известны прецеденты, когда за накрутку поведенческих из выдачи понижались все сайты клиентов крупного SEO-агентства.

Как это делается

Бенчмарки, на которые ориентируются поисковики, не публикуются, поэтому нельзя сказать точно, каких показателей нужно достигнуть, чтобы попасть в список лучших (кое-что известно благодаря утечкам из wiki Яндекса, но ценность этой информации невелика). Накручивать конкретный параметр, скажем, времени до 1 клика — тупиковая затея.

Лучше идти долгим, но более результативным и надежным путем — проектировать интерфейс так, чтобы пользователям было удобно, чтобы они находили кнопки и формы заказа, читали тексты и совершали покупки. Вся индустрия UX/UI занимается решением этой задачи с помощью пользовательских сценариев (customer decision journey), прототипов, тестов и непрерывного улучшения сайтов по данным веб-аналитики.

Роль SEO-специалистов в этой задаче — анализ сайтов-конкурентов (нужно понять, какие решения дадут средний для вашей тематики результат) и обратная связь для проектировщиков/дизайнеров (нужно оценить, насколько внедренные решения влияют на поисковый трафик).

Коммерческие факторы

Что это

Группа факторов, влияющих на ранжирование интернет-магазинов и сайтов услуг (не работают для информационных ресурсов). Общая идея: некоторые детали делают предложение более привлекательным для пользователя, следовательно, и поисковику полезно поднять такой сайт в выдаче, чтобы пользователь остался доволен ответом на запрос. Среди этих факторов:

  • Широкий и хорошо индексируемый ассортимент товаров/услуг.
  • Удобные, легко индексируемые контакты.
  • Разнообразие способов оплаты.
  • Наличие бесплатной доставки (повышает позиции для домашнего региона) и разнообразие способов доставки: самовывоз со склада, курьер, пункты выдачи и т.п..
  • Цены средние по рынку или ниже.
  • Работающие калькуляторы (граничит с поведенческими факторами).

Как соотносится с циклом разработки

Коммерческие факторы во многом лежат вне разработки и скорее касаются общей бизнес-стратегии: и ассортиментная политика, и доставка, и ценовые решения не меняются специально для сайта. Что касается структуры каталога товаров или услуг, то этот момент закладывается на самом раннем этапе, еще до создания информационной архитектуры (см. пункт про семантическое ядро). Правильно разместить контакты важно на этапе прототипа, сверстать их с помощью микроразметки Schema (вот стандарт для контактов) — естественно, на этапе верстки.

Почему это важно

Все коммерческие факторы — это просто здравый смысл, а не какое-то требование поисковиков, полезное только для роботов. Люди любят покупать там, где удобно, дешево, быстро и разнообразно. Проблема здесь может быть только для тех бизнесов, модель которых в другом — скажем, эти стратегии могут не подходить luxury-сегменту. Но для этих компаний и SEO-трафик в целом вряд ли будет важным источником покупателей. Всем остальным надо стремиться к этому золотому стандарту просто потому, что это хорошо для клиентов.

Как это делается

Работа с коммерческими факторами — в первую очередь труд закупщиков, маркетологов, логистов внутри компании. При создании сайта важно отразить все достижения этих специалистов наиболее выигрышным образом.

Контент

Что это

Наполнение сайта. Для SEO в первую очередь важны тексты, далее следует графика, видео и прочие виды содержимого страниц.

Как соотносится с циклом разработки

Традиционно о контенте сайта принято думать в последнюю очередь. Считается, что главное — это дизайн и программная часть. «Был бы шаблон, а чем его заполнить, придумаем по ходу» — примерно так рассуждают заказчики сайтов и их подрядчики.

Многолетняя практика нашей компании и других агентств, заботящихся о качестве продукта, показывает, что это порочный путь. Тексты либо слишком коротки, либо не помещаются в шаблон. Картинок и видео запланировано столько, что заказчик не в состоянии их сделать хорошо. Ему приходится покупать скучные заглушки в фотобанках или копировать фото/видео из стандартных каталогов — все это не помогает отстроиться от конкурентов.

На самом деле контент нужно готовить с учетом SEO-требований еще на первом этапе — этапе информационной архитектуры. Тогда сайт станет логичным контейнером для содержимого и будет построен так, чтобы информация выглядела понятно и убедительно.

С точки зрения SEO нужно сначала собрать семантическое ядро и построить структуру, а затем посмотреть на контент-план и понять, как они соотносятся. Для крупных проектов SEO часто диктует увеличение контент-плана (если нужно сделать страницы под дополнительные группы запросов вроде бытовых названий услуги). Для малых проектов обычно бывает достаточно страниц, предложенных информационным архитектором — нужно будет только уточнить требования к расположению блоков на них.

Почему это важно

Вопрос риторический. Контент — это то, ради чего создан ваш сайт. Если ваш сайт создан не вокруг контента, у вас большие проблемы и о SEO вам думать рано.

С точки зрения SEO-проектирования контент важен по двум причинам:

  • Он обеспечивает первичную индексацию по нужному запросу.
  • Он поддерживает хорошие поведенческие показатели после индексации.

Как это делается

Тексты. Еще недавно коммерческие сайты были поголовно наполнены «текстами для марсиан» — наивными описаниями продуктов и услуг, единственной целью которых было обеспечить правильное количество вхождений (упоминаний ключевого слова) на странице. Благодаря тому, что поисковики научились лучше распознавать синонимы и в целом оценивать качество и тематику сайта по косвенным признакам, такой необходимости больше нет.

Тексты нужно писать для людей. Да, вхождения по-прежнему важны, но вы добьетесь результата, просто упоминая название вашего продукта в заголовках и текстах. Если же у вас в заголовке на коммерческой странице не упоминается продукт, у вас проблемы со смыслом, а не только с SEO.

Картинки. В идеале картинки нужны оригинальные и в хорошем разрешении — поисковики легко определяют заимствования (при этом первоисточник, к сожалению, определяется плохо) и качество картинки. Вы получите плюс к поведенческим и коммерческим за хорошие фото. Также нужно давать подписи к картинкам как в тексте, так в метаданных (параметр alt), чтобы ваши фото находились по нужным запросам.

Естественно, поисковый трафик по картинкам в разы хуже, чем из строки поиска, т.к. люди чаще всего ищут картинки в некоммерческих целях — для презентаций и рефератов, для отрисовки по образцу и т.п. Однако есть и коммерческие поводы для поиска по картинкам. К примеру, если человек хочет понять, как выглядит продукт, о котором он только слышал, переход на ваш сайт может начаться с картинки, а закончиться заказом.

Видео, презентации, автоматически обновляемые графики и т.п. Интерактивный контент и SEO — тема для еще одной огромной статьи. Достаточно сказать, что он а) дорог в производстве, но б) при прочих равных увеличивает ваши шансы на хорошие позиции для основного запроса на странице.

Важно понимать, что многие площадки для размещения такого контента — YouTube, Slideshare и т.п. — либо принадлежат поисковикам, либо имеют собственный огромный SEO-вес. Поэтому всегда надо думать, кто же в итоге получит поисковый трафик — страница, на которой опубликовано видео или презентация, или страница этого видео/презентации на площадке.

В случае YouTube ответ очевиден — вам достанутся объедки трафика, а первое место в поиске получит ваше видео на YouTube (оттуда тоже можно направлять людей на сайт, но это куда сложнее). Чтобы такого не случилось, видео нужно размещать на платном хостинге типа Vimeo PRO и закрывать от показа на площадке.

Адаптив/Мобайл

Что это

Версия сайта, рассчитанная на смартфоны и прочие устройства с небольшими экранами. Одновременно со стремительным ростом мобильного трафика из дополнительной версии становится основной. Есть несколько способов создания мобильных версий (их сравнение смотрите в нашей статье), но адаптив — единая адресация и разная верстка под разные экраны — является наилучшим вариантом.

Как соотносится с циклом разработки

Элементы адаптива можно закладывать на этапе прототипа. Основная работа делается на этапе дизайна, когда интерфейсные и смысловые решения из прототипа превращаются в несколько версий под разные разрешения.

Почему это важно

С весны 2015 Google ранжирует выше сайты, адаптированные для смартфонов. Оборотная сторона — сайты без адаптированных версий теряют видимость на поиске. Кроме того, в результатах поиска у вашего сайта будет дополнительная пометка «для мобильных», что хорошо сказывается на кликабельности вашей ссылки (как и любое другое расширение). Яндекс ввел подобные принципы зимой 2016 вместе с алгоритмом «Владивосток».

Как и многое другое в этом обзоре, мобильная версия— не чисто SEO-шная история. Если ваш сайт плохо выглядит со смартфонов, ваш бизнес страдает независимо от того, откуда к вам придут клиенты. Не делать мобильную версию — глупо.

Как это делается

Есть несколько подходов к тому, как сделать мобильную версию:

  • Мобильная версия на отдельном поддомене (m.yoursite.ru).
  • Редиректы на разные версии с помощью динамического показа (подробнее в инструкции Google)
  • Единые URL, разная верстка — чем меньше экран, тем проще элементы интерфейса и тем меньше дополнительных блоков видит пользователей, тем больше сайт похож на узкую ленту.

Практика показывает, что наилучшие результаты при наименьшем числе ошибок дает именно адаптивная верстка при единых URL — это, как минимум, обеспечивает однозначную индексацию страниц без риска получить минус за дубли на домене и поддомене для мобильных. Подробнее о плюсах и минусах этих методов смотрите в нашей статье про пессимизацию в мобильном поиске.

В третьей части материала мы погловорим о типичных SEO-ошибках, которые (чаще всего невольно) совершают разработчики сайтов.

О чем эта серия: разворот от накруток к тяжелой борьбе за качество в SEO

Борьба за SEO

Благодаря новым алгоритмам Яндекса и Google ссылки перестали стабильно работать как инструмент продвижения. Конечно, полностью ссылочное ранжирование не отменяется, но его ROI резко упал. Основная работа, которой теперь занимаются SEO-специалисты — это консалтинг по улучшению сайтов и веб-аналитика. В этой серии материалов я рассказываю про новое SEO в трех частях:

Немного теории: внутренние и внешние факторы SEO

Что имеют в виду специалисты и заказчики, когда говорят о продвижении на поиске? С результатом все примерно понятно — сначала хочется хороших позиций. Затем, когда вы лучше поймете суть SEO, вам захочется поискового трафика с высокой конверсией. А вот по поводу того, как достичь результата, холивар не прекращается ни на минуту. Чтобы упростить все до предела, надо понять три вещи:

  • SEO — это попытка активно влиять на алгоритм поисковика. В худшем случае это грубая накрутка, в лучшем — аккуратная подстройка.
  • Поисковики исторически измеряют три вещи. Во-первых, это внешние факторы — кто и как ссылается на ваш сайт.
  • Во-вторых, внутренние факторы — качество сайта, т.е. насколько ваш сайт радует пользователей.
  • В-третьих, кликовые факторы на поиске — как пользователи кликают на ваши сниппеты (описания сайта) в сравнении со сниппетами конкурентов (для улучшения сниппетов используется микроразметка, отзывы и рейтинги на сторонних сайтах и т.п.)

Пример расширенного и обычного сниппетовПример расширенного сниппета c рейтингом и обычного сниппета

Влиять можно либо на внешние факторы, либо на внутренние. Оформление сниппетов — тоже важная история, но она добавляет лишь последние несколько процентов к вашему SEO-трафику, поэтому в этой серии мы про них не говорим.

Немного истории: почему время работы с внешними факторами прошло

На заре поисковых технологий именно работа с внешними факторами привела к успеху сначала сами поисковики, а затем и оптимизаторов, которые боролись за хорошие позиции на поиске.

Откуда взялся индекс цитирования

Революционная идея PageRank, которую придумали основатели Google Ларри Пейдж и Сергей Брин, позаимствована из академической среды. Чем больше ученых ссылаются на своего коллегу, тем выше его индекс цитирования и авторитет. Вес научных журналов измеряется с 1960-х годов сходным образом: чем чаще цитируются статьи из журнала, тем выше его импакт-фактор. Кстати, это имеет прямое отношение к деньгам — у кого выше индекс цитирования и больше статей в изданиях с высоким импакт-фактором, тому скорее дадут грант, поэтому ученые внимательно следят за этими вещами.

Молодые аспиранты Стенфорда взяли старую идею и прикрутили ее к новой задаче — построению автоматического веб-поиска. Действительно, логично: чем больше ссылок куда-то указывает, тем интереснее и полезнее ресурс. Гипотеза сработала, Google рванул вверх. В России Яндекс независимо пришел примерно к той же концепции.

Золотое время ссылочного спама

Когда стало понятно, что поиск — это источник заказов, владельцы сайтов начали борьбу за место под солнцем. Вскоре стало понятно, что ссылками можно манипулировать, создавая видимость авторитета. В ученой среде так не принято, но в бизнесе подобных этических барьеров не было. Обмен ради обмена и прямая закупка ссылок стали повсеместным методом продвижения. Действительно, ссылки закупать легко, конкурентов анализировать удобно, процесс во многом автоматизируется либо выполняется дешево с помощью стажеров. Разница между бюджетами/трудозатратами на покупку ссылок и отдачей в виде клиентов из поиска была колоссальной — сотни, иногда тысячи процентов ROI.

Особенно пышно закупка ссылок расцвела на российском рынке в тени Яндекса — сразу несколько ссылочных бирж, подобных Sape, превратились в площадки с огромными оборотами и сделали своих владельцев долларовыми миллионерами.

Поисковикам это не нравилось — страдало и качество поиска, и прибыль. В интересах поисковика сделать так, чтобы в обычные результаты поиска (естественную выдачу) попасть было сложно, а в рекламные результаты — легко. Началась гонка по принципу снаряда и брони — поисковики усложняли требования к ссылкам, оптимизаторы придумывали новые способы их закупки.

Алгоритмы Минусинск и Пингвин

Окончательное решение проблемы с точки зрения поисковиков состояло в том, чтобы либо вообще отказаться от измерения ссылочного веса, либо сильно снизить роль этого фактора. Именно это и произошло c введением алгоритмов Минусинск (Яндекс) и Пингвин (Google).

В частности, в течение всего 2015 года Яндекс полностью перестал учитывать ссылки для коммерческих запросов (товарные группы, запросы с добавкой «купить» и подобные) для Москвы. Это привело к тому, что сайты, сделавшие ставку только на ссылочное продвижение, резко потеряли и уже не восстановили позиции.

Что происходит со ссылками сегодня

Внешние факторы по-прежнему влияют на позиции сайта. Но манипулировать ими стало сложнее. Вместо учета всей ссылочной массы поисковики теперь ориентируются на качественные ссылки. Это могут быть, к примеру, «сигналы» из соцсетей — свежие ссылки на ваш сайт в постах, которые написаны живыми людьми (отличить реального человека от бота — решаемая задача для AI поисковиков). Еще один пример — упоминания на сайтах авторитетных СМИ, которые априори не участвуют в ссылочной торговле.

Да, можно получить ссылку со СМИ, купив там статью на правах рекламы, или накрутить «живые сигналы» из соцсетей, проведя акцию, условием которой будет ссылка на ваш сайт. Но ROI этих затей будет на порядок ниже, чем мега-возврат, который можно было получить в старые-добрые времена ссылочных накруток. Поэтому про массовую закупку ссылок можно забыть, лишь изредка используя ее в качестве дополнительной стратегии.

Что же делать? Ответ прост и сложен одновременно — нужно следовать рекомендациям поисковиков и строить действительно хорошие сайты.

Внутренние факторы — дорогая основа успеха нового SEO

Оптимизаторы всегда знали, что работа с сайтом — это тоже важно. Скажем, нелепые SEO-тексты в стиле «смартфон XXX прочно вошел в нашу жизнь. Купить смартфон XXX в Москве можно у нас» долго были любимым приемом базовой оптимизации. Но если раньше «оптимизировать сайт» можно было за месяц, а ссылками заниматься из года в год, то теперь акценты сместились: ссылками заниматься вообще не надо, а вот сайт нужно и сделать хорошо, и развивать постоянно.

Проблема здесь в том, что работа с сайтом — это более сложная и дорогая история, чем ссылочная раскрутка. Дорогая по той причине, что требуется работа проектировщиков, дизайнеров, программистов, копирайтеров, фотографов и других специалистов по интерфейсам и контенту. Сложная потому, что ссылки можно было закупать «без ведома пациента» — заказчику нужно было только заплатить seo-шникам — а вот работа с сайтом всегда затрагивает интересы ключевых людей внутри компании. Из-за этого успех современного SEO завязан на долгие согласования с директором, маркетологами, продажниками, IT-отделом и другими заинтересованными сторонами.

Эту работу тяжело запустить просто так, в режиме «SEO-кампании» (такие формулировки до сих пор можно встретить в тендерных заданиях). Но есть один момент, когда сравнительно легко сделать все правильно.

Когда нужно работать с внутренними факторами SEO

Совет в стиле Капитана Очевидность — работать над улучшением сайта нужно в тот момент, когда все заинтересованные стороны внутри компании готовы к изменениям. То есть во время редизайна либо создания сайта с нуля.

Однако на практике о SEO всегда забывают. Причин тому две. Во-первых, заказчикам сложно избавиться от старых мифов о SEO как о комбо из простенькой оптимизации и закупки ссылок постфактум — слишком велика инерция. Во-вторых, всем хотелось бы SEO-трафика когда-нибудь в будущем, но никто не готов за это бороться в процессе работы над сайтом. Вот чего хотят стороны.

  • Руководитель, директор: хочет модный сайт дешево и быстро. О SEO не думает, предложения усложнить структуру и доработать навигацию, даже если кто-то их выдвигает, воспринимает в штыки — это затягивает сроки.
  • Маркетолог на стороне компании: хочет крутой сайт, чтобы отчитаться перед боссом и добавить проект в резюме. Хочет внедрить на сайте модные фишки, о которых слышал на конференциях — колл-трекинг, скрытый сбор данных об аккаунтах посетителей в соцсетях, автоматические рекомендации, Коллбэкхантер и т.п. Не уверен, что SEO работает (ссылки-то не работают), не готов бороться за удорожание сметы.
  • IT-специалист на стороне компании: делал SEO сам в 2008 году и точно знает: сайт ни при чем, нужны ссылки, да побольше. Очень скептически относится к любым попыткам внешних подрядчиков влезть в его зону ответственности.
  • Подрядчик (студия или фрилансер): Хочет заработать денег и реализовать крутой проект для портфолио — в идеале все бы сделать динамическим и на одной странице, как у модного стартапа.

Через некоторое время после сдачи сайта в эксплуатацию директор спрашивает у маркетолога, почему мало клиентов из поиска. Тут все хлопают себя по лбу — про SEO забыли! А ведь оно важно для всех:

  • Директору нужны клиенты из поиска для сокращения издержек на маркетинг.
  • Маркетологу нужны клиенты из поиска, чтобы высвободить бюджет на новые интересные задачи.
  • IT-специалисту неудобно, что он посоветовал что-то не то и тоже хочется клиентов из поиска для того, чтобы строить CRM-систему на основе большой базы контактов.
  • Репутации студии вредит тот факт, что она собирает кривые сайты, которые не индексируются, не приводят трафик и требуют бесконечного вливания из платных каналов, поэтому студия тоже не против, чтобы клиенты из поиска все же пошли.

Тут заказчик идет в SEO-агентство. Плохое SEO-агентство начинает закупать ссылки и загоняет сайт под санкции. Хорошее SEO-агентство разводит руками и предлагает программу переделки сайта. Директор в трауре: только что потрачены деньги на сайт, и вот опять нужно тратить деньги на сайт!

Чтобы избежать перерасхода, о SEO нужно думать еще до работы над сайтом. Даже больше: если в вашей теме есть SEO-трафик, именно с его анализа нужно начинать любую веб-разработку. О том, как это делается, мы поговорим во второй части материала.