Русский
Русский
English
Статистика
Реклама

Seo-оптимизация

SEO-friendly HTML для верстальщика

27.01.2021 18:04:51 | Автор: admin

В этой статье не будет подробного разбора всех аспектов SEO-friendly сайта. Я собрал здесь лишь тот объем информации, с которым мне необходимо было познакомиться для решения SEO-задач в компании.


В компанию ВсеИнструменты я попал больше года назад. До того момента мне еще не приходилось так тесно заниматься задачами поисковой оптимизации, а возраст и размер проекта лишь прибавляли волнения при решении seo задач. Так или иначе тот период прошел, и я не испортил своими правками уровень сайта в выдаче, благо мне помогали коллеги из SEO-подразделения.

Наш сайт, без преувеличения, состоит из огромной кодовой базы, и каждый день мы планомерно улучшаем его, добавляя новые фичи и исправляя существующие баги. Еще в начале своего пути я получил несколько крупных задач по улучшению текущей верстки проекта с использованием validator.w3.org. После окончания работ над этими задачами у меня возникла мысль собрать некоторую информацию по написанию валидной и SEO-пригодной верстки в одну небольшую статью с указанием ссылок на дополнительную и более подробную информацию.

Вы познакомитесь с несколькими важными областями валидной SEO-верстки и найдете примеры работы с validators.w3.org. Дополнительные материалы, указанные ниже, будут весьма полезны в повседневной работе верстальщика.

Семантические теги

Семантическая верстка - это html элементы со смыслом понятные разработчику, браузеру и поисковым роботам. К таким относят: header, footer, main, article, section, nav, aside и тд. Использование перечисленных тегов описывается по спецификациям W3C или WHATWG. Короткую вводную можно получить в цикле видео\статей HTML шорты от Вадима Макеева. Приведу описание к нескольким тегам.

Section - определяет раздел в документе. В соответствии со спецификацией W3C по HTML5: "Раздел это тематически сгруппированный контент, как правило с заголовком."
Article - определяет независимый, самодостаточный контент. Контент, помещенный в этот элемент, должен иметь смысл сам по себе, т. е. он должен быть понятен в отрыве от остальных частей веб-сайта.
Подробнее о article, а так же section написано здесь.
Header - предназначен для определения заголовочного блока или "шапки" документа или раздела. Подробнее здесь.
Footer - предназначен для определения "подвала" документа или раздела.
Nav - Предназначен только для основного блока навигационных ссылок.
Aside - определяет некий контент, находящийся в стороне от контента, внутри которого он расположен (как боковой блок страницы, "сайдбар").

В целом, тема доступности сайтов довольно обширна. Со всеми нюансами предлагаю ознакомиться в этой статье и еще советую пройтись по всей серии HTML шорты. Еще могу посоветовать ресурс Веб стандарты, некоторые статьи писали авторы спецификации HTML5 (переводы на русский). И для понимания, можно ознакомиться с контентной моделью HTML.

Микроразметка Schema.org

Чаще всего инструкции по включению микроразметки в HTML-код вы будете получать от SEO-специалистов. Но для понимания немного осветим эту тему.

Schema.org - стандарт семантической разметки данных, который помогает поисковикам лучше понимать данные, представленные на сайте. Например, с помощью разметки можно явно указать поисковым роботам, что на странице site.ru/product_page1 находится товар, и передать основные параметры: название, цену, артикул, производителя и т.д. На основе этих данных поисковики формируют расширенные сниппеты в поисковой выдаче.

Сайты с разметкой отличаются от остальных тем, что в поисковой выдаче их сниппеты более информативны и привлекательны. Они включают в себя больше полезного контента для пользователя. Если конкурент окажется в выдаче выше, но, допустим, у него не будет микроразметки либо там будут реализованы не все фичи, наш сниппет может оказаться больше и привлекательнее. Впоследствии это может выразиться в большем количестве переходов и, соответственно, повышении поведенческих факторов, что в итоге поднимет позиции в выдаче.

Подробно о микроразметке написано в вики Яндекса. Документация Schema.org. Так же стоит обратить внимание и на гайд от Google.

Как проверить свой HTML

Так как один из критериев к SEO - это валидная верстка, необходимо прогонять написанный код через ранее упомянутый валидатор. К слову, помимо него есть валидатор от Google - в нем необходимо следить за выбранным роботом (Компьютер/Смартфон) и инструмент от Яндекса. Эти инструменты помогут Вам в задачах связанных с микроразметкой. Следует сравнивать новый и старый код, удостовериться, что ошибок нет и все существующие ранее сущности правильно считываются.

В целом, работа с ними сводится к тому, чтобы скопировать HTML код из браузера и вставить его в соответствующее текстовое поле валидатора. Можно копировать куски кода сразу из вашего IDE, но это должен быть чистый HTML с готовыми данными. После прохождения проверки вы будете получать уведомления о различных ошибках в коде. Warning можно опустить. Но от всех Error необходимо избавиться, чтобы верстка удовлетворяла принципам валидной HTML-страницы. В процессе работы могут возникнуть нерешаемые проблемы. Такое стоит гуглить и принимать во внимание, что валидаторы могут не поспевать за всеми нововведениями.

Перейдем к нескольким конкретным примерам (не)валидной верстки и их проверке с validator.w3.org.

Списки

К спискам относятся теги ul и ol (маркированные и нумерованные соответственно).
Выглядит это так:

<ul><li>item 1</li></ul><!-- или --><ol><li>item 1</li></ol>

Внутри открывающего и закрывающего тегов ul могут стоять только элементы li, а уже внутри самих этих элементов (пунктов) можно вставлять любой контент (текст, картинки, заголовки, абзацы, ссылки и даже другие списки). То есть, <ul><div></div></ul> является не валидной версией, и https://validator.w3.org/nu/ явно об этом напишет в выводе ошибок (Рис 1).

Рис 1. Ошибка спискаРис 1. Ошибка списка

Ссылки

В использовании тега <a> тоже есть нюанс, в href недопустимы пробелы. То есть, <a href="tel:+7 (967) 321-22-33">phone</a> не является валидным вариантом (Рис. 2), однако <a href="tel:+7(967)321-22-33">phone</a> соответствует всем критериям.

Рис 2. Ошибка ссылкиРис 2. Ошибка ссылки

Атрибуты

У каждого html тега есть свой набор валидных атрибутов. Часть из них можно увидеть здесь, остальное можно найти тут.
При использовании атрибутов необходимо помнить, что существуют устаревшие.

Таблицы

Часто приходится немного корректировать базовые стили таблицы. Раньше такое реализовывалось через соответствующие атрибуты.

<table border="1" cellpadding="0" cellspacing="0" width="400"></table>

На данный код мы получим сразу 4 ошибки об устаревших атрибутах (Рис. 3).

Рис 3. Устаревшие атрибуты таблицыРис 3. Устаревшие атрибуты таблицы

Это можно спокойно переписать с использованием стилей и классов.

Резюмируя вышеописанное получим примерно такой код:

<style>.table {  border-collapse: collapse;    width: 400px;    border-spacing: 0;   }.column {    padding: 0;    border: 1px solid #333;  }</style><table class=table>  <tr>  <td class=column></td>  </tr></table>

Подобное решение относится ко всем атрибутам, влияющим на стили элементов. Но есть такие, которые относятся к логике DOM-элементов. Чаще их реализация полностью падает на браузеры. Остальное можно реализовать с помощью JavaScript.

Атрибут id

Этот атрибут является неотъемлемой частью HTML. На нем часто завязаны стили и клиентский JavaScript. Данный подход уже давно не используется ввиду усложнения поддержки написанного кода. Используя id в браузере, часто можно наткнуться на проблему отсутствия уникальности значений этого свойства. Поэтому чаще всего чистый id заменяют на data-id или более специфичные названия. У нас часто используются data-атрибуты data-behavior и data-selector. Первый подходит для взаимодействия с пользователем, второй чаще используется для манипуляций с DOM. Однако, насколько я знаю, это необязательное правило. Помимо этого, в css можно писать код с обращением в любые из свойств элементов, будь то data-* или любой другой атрибут.

Пример микроразметки

Помимо примеров валидной верстки хотелось бы привести небольшой кейс использования микроразметки Schema.org. Используя микроразметку, желательно размечать верстку, которая видна на странице и никоем образом не скрывается от пользователя при помощи opacity, visibility, display или top/left/right/bottom: -100500px. Поисковики не жалуют скрытый контент. Иногда бывают исключения, но их стоит уточнять у SEO специалистов.

Перед тем, как мы продолжим хотелось бы описать значение используемых атрибутов:

Itemscope - задает область действия словаря в структуре данных. Как правило, работает совместно с атрибутом itemtype и задаёт пределы, где itemtype будет активен. У этого атрибута нет значений.

Itemtype - указывает адрес словаря, который будет применяться для определения свойств элемента в структуре данных. Яндекс и Google поддерживают стандарт разметки Schema.org. Соответственно, в качестве значения itemtype указывается адрес словаря на этом сайте. К примеру, для разметки организаций используется значение https://schema.org/Organization.

Itemprop - используется для добавления свойств словаря микроданных к элементу. Имя свойства определяется значением itemprop, а значение свойства определяется содержимым HTML-элемента, к примеру, текстом который располагается внутри элемента.
Приведем пример микроразметки Article.

<div itemscope="" itemtype="http://personeltest.ru/aways/schema.org/Article"><...>         <div class="article-meta">     <div       itemprop="author"       itemscope=""       itemtype="http://personeltest.ru/aways/schema.org/Person"     >       <span         itemprop="name"         class="meta-item"       >         ВсеИнструменты.ру       </span>     </div>     <time       itemprop="datePublished"       class="datetime meta-item"       datetime="{{ article.getUpdatedTimeObj().format('Y-m-d') }}"     >       {{ article.getUpdatedTimeObj().format('d.m.Y') }}     </time>   </div>   <meta      itemprop="description"      content="{{ article.getShemaOrgDescription() }}"   />   <div     itemscope     itemprop="image"     itemtype="http://personeltest.ru/away/schema.org/ImageObject"   >     <img       itemprop="url"       src="{{ article.getShemaOrgImageUrl() }}"       alt=""       class="d-none"     >   </div>   <...></div> 

В данном примере представлена микроразметка статьи. Действие микроразметки ограничено дивом с атрибутами itemscope, itemtype = Article. Внутри включает микроразметку автора статьи и дату публикации. Включает в себя также краткое описание статьи и изображение. В данном кейсе при помощи бэкенда на этапе публикации парсится весь список изображений и выдается фронтенду при помощи метода getShemaOrgImageUrl().

Я не хотел бы сильно погружаться в детальные гайды по микроразметке, поэтому просто укажу несколько полезных статей на эту тему.
1. Микроразметка для сайта интернет-магазина: как настроить разметку Schema.org для товаров и категорий
2. Микроразметка товаров

Итог

Хотелось бы, чтобы этот материал был вам полезен. Я старался предоставить информацию для работы с SEO-версткой максимально сжато. Надеюсь, я смог достичь этой цели. Данной информации не хватит для формирования по-настоящему SEO-friendly сайта, поэтому я рекомендую использовать дополнительные материалы при разработке своих страниц. Эта тема сложна и обширна. Для плодотворного продвижения и удержания позиций сайта в поисковой выдаче необходимо работать в паре с SEO-специалистом и постоянно вести работы над улучшениями своих продуктов. Спасибо за уделенное время!

Подробнее..

SEO-оптимизация сайта на React или как добиться конверсии от поисковиков если у вас Single Page Application

30.11.2020 14:07:23 | Автор: admin
SEO-оптимизация сайта на React или как добиться конверсии от поисковиков если у вас Single Page ApplicationSEO-оптимизация сайта на React или как добиться конверсии от поисковиков если у вас Single Page Application

Смоделируем ситуацию: Вы являетесь членом команды веб-разработчиков, занимающихся созданием frontend-части молодого интернет-ресурса на базе React. И вот, когда уже начинает казаться что ваша разработка достигла определенной функциональной, качественной и эстетической кондиции, вы сталкиваетесь с достаточно сложным и не менее интересным вопросом: А что делать с SEO? Как добиться качественной конверсии от поисковых систем? Как сделать так, чтобы о вашем ресурсе узнал весь мир, не вкладывая в это огромного количества денег за платные рекламные компании либо сил в крупномасштабную дополнительную разработку? Как заставить контент вашего Single Page Application работать на вас в поисковых выдачах и приносить клиентов? Интересно? Тогда поехали

Привет! Меня зовут Антон и я являюсь full-stack-разработчиком со стажем работы более 12 лет. За время своей трудовой деятельности я работал над проектами различной сложности и с разнообразными стеками технологий. Последние 6 лет я сосредоточил scope своего внимания в большей мере на frontend, который стал в итоге профильным направлением, так как привлек у меня больший интерес по сравнению с backend-ом (не хочу при этом сказать, что backend в целом менее интересен. Просто дело вкуса и особенности развития карьеры исключительно в моём личном случае).

В данный момент я являюсь team-лидером команды разработчиков на проекте Своё.Жильё - это экосистема Россельхозбанка с помощью которой можно выбрать недвижимость, рассчитать стоимость кредита, подать заявку и получить ответ в режиме онлайн. Уже сейчас в экосистеме есть возможность оформить заявку на ипотечный кредит и выбрать недвижимость из более чем 1,2 млн вариантов жилья. Набор онлайн-сервисов позволяет сократить количество посещений офисов банка до одного непосредственно для подписания кредитного договора и проведения расчетов с продавцом.

Проект на момент написания данного материала является еще достаточно молодым, но уже начал приносить заметную конверсию в общую бизнес-модель банка.

Используемый стек и преследуемые цели

Не буду заострять внимание на полном стеке frontend технологий, используемых экосистеме Своё Жилье, а опишу лишь то, что действительно важно для дальнейшего рассказа, чтобы стало понятно, с чем в результате мы имеем дело. А именно:

  • Webpack

  • React

  • Redux

Из вышеперечисленного сразу становится ясно, что на выходе мы получаем Single Page Application на React, что влечет за собой как безграничное количество возможностей и плюсов данного стека, так и ряд подводных камней, связанных с реализацией SEO-friendly ресурса, который сможет в конечном счёте выполнить ряд задач, важных для продвижения в поисковых системах, социальных сетях и так далее:

  • Поисковой робот должен видеть все ссылки на страницы сайта;

  • Контент каждой из страниц должен быть доступен для индексирования поисковым роботом, дабы попасть в итоге в выдачи результатов поиска;

  • Контент страниц для корректной индексации должен содержать все необходимые элементы, важные для создания SEO-оптимизированного сайта.

В данном списке я не затрагиваю задачи, которые необходимо решать на стороне backend (такие как поддержка last-modified, оптимизация скоростных показателей и т.п.), чтобы искусственно не раздувать общий материал и не отвлекаться от основной темы.

Казалось бы, перечень задач не так велик и решался бы практически из коробки на любом обычном относительно стандартном интернет ресурсе Но тут нужно вернуться к тому, что мы имеем дело не с привычным веб-сайтом, у которого все страницы с их контентом отдаются с backend-а, а с Single Page Application, у которого контент страничек рендерится (отрисовывается средствами js) на стороне браузера. А ведь львиная доля поисковых роботов не умеет выполнять js-код при обходе интернет-ресурсов, и поэтому они попросту не увидят наш контент (Google умеет, но делает это пока недостаточно корректно и эффективно. Да и кроме Google, есть еще множество других целевых поисковых систем и кейсов, при которых голый SPA не сможет решить поставленные задачи).

Поэтому давайте нальём тёплого чайку и поэтапно пройдемся по целям и тому, что в них должно включаться для понимания и подбора оптимальных решений поставленных задач.

Для того, чтобы поисковые роботы увидели страницы сайта, им необходимо иметь возможность прочесть контент страницы, в том числе содержащий ссылки на другие страницы (при этом подход с sitemap я тут описывать не буду, но упомянул, на случай если кому-то станет интересно, можете погуглить. Мы пока обходимся без карт). Из этого вытекает, что поисковой робот всё же должен по старинке загрузить html-разметку, содержащую контент страницы с web-сервера. Ну и конечно же, каждая из страниц, запрашиваемых с web-сервера, должна отдавать код 200 (случаи с необходимостью переадресаций с кодом 301 я тут также рассматривать не буду) и приходить в виде стандартного html-документа, содержащего текстовый и медиа-контент данной страницы, а так же ссылки на другие страницы и, конечно же, необходимые для SEO-оптимизации элементы, такие как ряд обязательных meta-тегов, заголовков и так далее. Общий список необходимого SEO-тюнинга любого веб-ресурса достаточно велик и про него можно написать отдельный материал и не один. Затронем тут обязательный план минимум, который включит в себя следующие пункты:

1 - Каждая из страниц ресурса должна в блоке <head> включать в себя:

  • Meta-тег title (заголовок страницы)

  • Meta-тег description (описание страницы)

  • Meta-тег keywords (перечень ключевых фраз)

2 - Каждая страница должна иметь в блоке <body> основной заголовок внутри html-элемента <h1> расположенный как можно выше перед началом текстового контента.

3 - Каждое изображение, которое присутствует на странице в виде html-элемента <img>, должно иметь атрибут alt, описывающий содержимое данного изображения.

Ну и конечно же, на сайте не должно быть битых ссылок отдающих с web-сервера код ошибки 404 (либо иной) или какой-либо пустой контент вместо ожидаемого.

И тут снова вспоминаем, что у нас SPA (Single Page Application) и с backend-а приходит лишь пустая часть разметки html-документа, включающая в себя информацию для загрузки js и css кода, который после загрузки и выполнения отрисует нам контент запрошенной страницы.

Вот тут мы и начнем наши танцы с бубном. Перед началом хочется отдельно отметить, что на момент моего прихода в проект, он уже был частично написан с минимальным функционалом. И конечно хотелось реализовать SEO-оптимизацию с минимальным затрагиванием общей архитектуры приложения.

Подбор решения и реализация

Что же делать, если у Вас уже есть готовый SPA, либо просто отточенный архитектурный подход, нарушать который ради SEO было бы кощунством?

Ответ: Реализация пререндеринга, как конечного шага сборки приложения. Пререндеринг это процесс выполнения js-кода после его основной сборки и сохранение получившихся html-копий отрисованных страниц, которые в последствии и будут отдаваться с web-сервера при соответствующих запросах.

Пререндеринг

Для реализации данного кейса есть ряд готовых решений и инструментов с различными ограничениями, подходящих для разных стеков frontend-технологий и с разным уровнем сложности внедрения.

Конечно есть такие решения как Next.Js и ему подобные (а также другие способы реализации того же SSR). И я не могу не упомянуть об этом. Но изучив их, я пришел к выводу, что они вносят ряд ограничений (либо усложнений) в процесс конфигурации основной сборки и имеют крайне заметное влияние на архитектуру приложения. Также, есть сторонние внешние сервисы пререндеринга, но для закрытой экосистемы банка лишний внешний инструмент был бы крайне нежелателен (и опять же, зачем перекладывать зону ответственности на внешний инструмент, если можно реализовать его функционал внутри проекта).

После анализа, я пришел к максимально подходящему нам инструменту для покрытия описанных кейсов, реализующему проход по страницам SPA на React (и не только) и создание html-копий страниц.

Выбор пал на React-Snap.

Если в двух словах, то данный инструмент позволяет после сборки осуществить запуск Chromium-а и передать ему получившееся приложение. Затем пройти по всем его страницам, используя пул найденных ссылок так, как сделал бы это поисковой робот. При этом html-копии отрисованных средствами js страниц будут сохранены в выбранный каталог с сохранением иерархии путей, из которых они были получены относительно корня проекта.

Важной отличительной чертой данного подхода и инструмента является то, что для реализации его работы не важна специфика архитектуры самого приложения, так как он абсолютно стандартным образом будет запускать Ваш заранее собранный SPA в практически обыкновенном браузере.

Установка React-Snap не вызывает никаких дополнительных вопросов, так как его пакет доступен для скачивания стандартным образом из npm (и yarn).

Что же касается его настройки, тут, пожалуй, стоит проговорить несколько основных моментов, чтобы упростить быстрый старт тем, кто ранее не сталкивался с данным инструментом.

Конфигурация запуска React-Snap описывается в корневом файле package.json проекта. Давайте рассмотрим пример минимальной конфигурации:

"scripts": {    // Необходимые команды запуска hot-а, сборки и т.п.    "build:production": "webpack --mode production && react-snap"    // Другие необходимые команды},"reactSnap": {    "source": "dist", // Каталог собранного приложения    "destination": "dist", // Каталог для сохранения html-копий    "include": [ // Список энтрипоинтов для обхода страниц        "/",        "/404",        "/500"        // Другие необходимые энрипоинты    ]}

На самом деле, полный перечень доступных настроек достаточно широк, но лучше не стану его расписывать, чтобы вы смогли осознанно выбрать только необходимое конкретно в вашем случае.

К примеру, запуск React-Snap можно осуществить, просто добавив в блок scripts команду:

"postbuild": "react-snap"

Но тогда он будет запускаться после каждого билда, а в проекте их может быть несколько вариантов (например, для production и тестового стенда, где на последнем нам наоборот, может быть не нужен SEO и какой-либо еще функционал, такой как инструменты аналитики типа Google Analytics и т.п.).

Что касается блока include, его желательно описать, иначе, например, html-копия для странички ошибки (500, либо другая техническая страница, при наличии) не будет создана, так как не на одной из страниц сайта не фигурирует ни одной ссылки на нее. Как следствие, React-Snap не узнает о её наличии. В теории и поисковик на них ходить не должен, но бывают случаи, когда страница создается для распространения ссылки за пределами сайта, а на сайте на нее ссылки может и не быть (к примеру, баннеры для рекламных компаний и тому подобное). Это как раз тот самый случай. Тут стоит проанализировать, нет ли у вас еще каких-то (возможно аналогичных технических) страничек, на которые прямые ссылки на сайте отсутствуют.

Далее, для нормальной работы самого React-приложения у конечного пользователя, поверх DOM который придёт с web-сервера, нам потребуется внести небольшую правку в корневой render:

import { hydrate, render } from "react-dom";//  Ваш кодconst rootElement = document.getElementById("root"); // (или ваш id при олтличии)if (rootElement.hasChildNodes()) { // Если в корневом элементе есть контент, то  hydrate(<App />, rootElement); // "цепляем" приложение на существующий DOM.} else { // Иначе рендерим приложение стандартным образом  render(<App />, rootElement);}

Вот и всё что нам потребуется для начала (а возможно в ряде случаев и в принципе всё что необходимо будет сделать). Уже можно попробовать выполнить build с созданием html-копий страниц вашего ресурса. На выходе (с приведенным выше конфигом) в каталоге /dist вы получите тот же набор js и css файлов (а также других ресурсов), что и ранее, index.html, плюс файл 200.html и другие html-файлы с копиями контента ваших страниц.

Для полноты картины сразу опишу небольшой подводный камень с пояснением, для понимания, что при таком подходе на реальном production-web-сервере вам нужно будет позаботиться о следующем нюансе

Ранее у вас скорее всего по умолчанию на любой запрос, если ресурс отсутствует физически на сервере, отдавалась index.html, которая запускала приложение. Далее, в соответствии с запросом из адресной строки, приложение отрисовывало необходимую страницу, либо страницу 404, если не находило соответствие. Теперь же, наш index.html уже не является пустым, а содержит контент главной страницы. Но страничка с пустой html-разметкой для случая попытки запуска страницы без html-копии всё же существует. Это та самая вышеупомянутая 200.html. Таким образом, на web-сервере необходимо перенастроить дефолтный ресурс для случая 404 с index.html на 200.html, чтобы избежать открытия кривых страниц (с контентом главной страницы поверх которого будет пытаться запуститься наш SPA) при обращении на страницы, html-копий для которых нет, либо просто при некорректном обращении на несуществующую страницу.

И вот у нас есть готовое приложение, страницы которого доступны для любого поисковика.

Meta-теги, заголовки, описания

Если с вышеописанным разобрались, то перейдем к реализации следующей части нашей задачи, а именно к необходимым meta-тегам и другим SEO-нюансам на страницах.

<!doctype html><html lang="ru">  <head>    <meta charset="utf-8">    <!-- ...и т.д. -->    <title>Контент meta-тега Title</title>    <meta name="description" content="Контент meta-тега Description">    <meta name="keywords" content="ключевые фразы для meta-тега keywords">  </head>  <body>    <div id="root">      <div className="content">        <h1>Заголовок страницы H1</h1>        <p>Текстовый контент страницы...</p>        <img alt="Описание изображения" src="...">        <!-- ...и т.д. -->      </div>    </div>    <script src="http://personeltest.ru/aways/habr.com/application.js"></script>  </body></html>

На заголовки <h1> и alt-ы для картинок особое внимание заострять не буду. Тут всё просто: идем по существующему js-коду react-компонентов страниц и добавляем там, где этого нет (а также не забываем это делать в дальнейшем для новых компонентов). А вот относительно meta-тегов title, description и keywords стоит немного поговорить отдельно. Они должны быть уникальными для каждой страницы. О том, зачем нужен каждый из них и как его стоит формировать, будет полезнее почитать более профильные материалы по SEO. Для нас же стоит более прагматичная задача реализовать средствами js изменение контента данных тегов при навигации между страницами (таким образом у каждой html-копии страницы они будут разными как и положено, а при дальнейшей навигации по приложению после его запуска, они так же будут меняться в зависимости от текущей странички, но уже силами js приложения).

В целом, для реализации данного функционала есть готовый инструмент:

React-Helmet

Можно использовать его, либо на его основе написать что-то своё. Суть дела не изменится. Предлагаю просто перейти по ссылке и изучить то, что делает данный React-компонент и воспроизвести у себя необходимый функционал с его помощью либо написав собственное решение.

В итоге мы добавили необходимые для эффективного SEO элементы на страницы нашего интернет-ресурса.

Подводные камни, нюансы реализации и советы

Хочу в первую очередь затронуть один нюанс, знать о котором будет полезно при дальнейшей разработке. Как правило, при создании html-копий рано или поздно появятся кейсы, при которых поведение приложения для пререндера должно будет отличаться от поведения приложения в браузере у реального пользователя. Это может касаться случаев, начиная от наличия каких-либо прелоадеров, которые не нужны в html-копиях или статистического функционала, который не должен выполняться на этапе создания html-копий (и возможно даже будет вызывать ошибки при их создании) заканчивая банальным объявлением адреса для API backend-а, который вероятно настроен у вас для hot в разделе devServer webpack-конфига как proxy, а в самом приложении указан как относительный, что не заработает, так как во время работы пререндера hot не запущен и нужно ходить на реальный адрес backend-а. Как вариант, могу также привести пример в виде распространенного окошка, которое сейчас есть практически на любом интернет-ресурсе, говорящее о том, что на сайте используются Cookies. Как правило, окошко отображается на любой страничке, пока пользователь в какой-то момент один раз не закроет его. Но вот беда: пререндер то не знает, что что-то нужно закрыть, а соответственно контент данного окошка будет присутствовать на всех html-копиях, что плохо для SEO.

Но не всё так страшно и решение есть. В таких местах в приложении мы можем использовать условие для запуска тех или иных функций (или использования тех или иных переменных, как в примере с адресом API). Дело в том, что у пререндера есть специфическое имя user-agent-а ReactSnap (кстати через параметры можно задать своё при необходимости). К примеру:

const isPrerender = navigator.userAgent === "ReactSnap";

Как и где это можно объявить и использовать, думаю, не нуждается в дальнейшем объяснении. Полагаю, как минимум пара мест, где это пригодится, найдётся в любом проекте.

Также стоит затронуть случай, с которым с большой долей вероятности вам придется столкнуться. А именно: React-Snap обошел не все страницы, либо, нам стало необходимо, чтобы он не заходил в какие-либо разделы или на определенные страницы и не создавал для них html-копии.

Тут сразу стоит внести понимание в процесс работы пререндера React-Snap. Он запускает наше приложение и осуществляет обход по ссылкам, найденным на страницах. При этом учитываются именно html-элементы <a>. Если пререндер не сохранил html-копию для какой-либо страницы (либо мы намеренно хотим этого добиться), то скорее всего переход на эту страницу сделан (либо вы намеренно можете так сделать) с использованием, к примеру, onClick а не через обязательный атрибут ссылки - href. Тут нужно упомянуть, что стандартные компоненты Link либо NavLink из react-router-dom фактически создают в DOM именно html-элемент <a> с href, так что если не отбиваться от классических подходов, то проблем не будет.

Следующим полезным знанием будет то, что нам обязательно необходимо позаботиться о минификации размеров DOM, который будет содержаться в наших html-копиях, так как большой html-документ будет дольше загружаться с backend-а, съедать больше трафика, да и поисковые роботы могут попросту не добраться до необходимого контента, если, к примеру, у вас в <head> документа все стили заинлайнины, как и все svg-изображения в <body>, что раздует каждую из html-копий до огромных размеров. Для понимания: если логотип вашего ресурса рендерится как inline-svg, то в файле каждой html-копии он будет присутствовать именно в таком виде.

Выход: настроить webpack таким образом, чтобы при сборке все стили складывались в css-файлы, а inline-svg заменить на использование <img> (либо средствами css) для отображения картинок (и то и другое будет загружаться один раз, а далее браться из кеша браузера и, что главное, задублированный контент таких ресурсов будет отсутствовать в html-копиях).

Еще один небольшой совет: общее количество и список всех созданных html-копий страниц, либо ошибок создания и различные вызванные редиректы (к примеру 404), а также прочие проблемные места мы сможем сразу увидеть и проанализировать благодаря достаточно понятному и подробному логу, который будет выводиться в процессе работы пререндера React-Snap. Не стоит забывать смотреть в него после сборки, так как на этом этапе мы всегда сможем увидеть те же проблемы на сайте, что увидит поисковой робот, но при этом у нас будет возможность заблаговременно что-то поправить при необходимости.

Заключение

Пожалуй, вышеописанного будет достаточно, чтобы начать и относительно быстро реализовать SEO-friendly сайт, написанный в виде Single Page Application. Далее всё будет зависеть лишь от особенностей конкретно вашего интернет-ресурса и тех целей, которые вы будете преследовать при его создании. Я постарался описать основные нюансы и подводные камни, с которыми пришлось столкнуться в процессе аналогичной разработки.

Основные плюсы данного подхода заключаются в том, что мы получаем инструментарий, который не требует архитектурных доработок приложения, дополнительного обучения программистов в команде и высоких трудозатрат на реализацию. После внедрения технологии, вы просто продолжаете разрабатывать ваше приложение по всем традициям React и придерживаясь ранее реализованной архитектуры. При этом ваше приложение уже не будет являться обычным SPA в привычном смысле, так как старт любой страницы будет сопровождаться загрузкой копии содержимого данной страницы, а дальнейшая навигация по приложению будет осуществляться уже привычным образом средствами SPA, что позволит поисковым роботам полноценно взаимодействовать с вашим контентом и выводить в результатах поиска актуальные ссылки с соответствующими описаниями страниц, а конечным пользователям как и ранее будет доступен весь спектр функционала Single Page Application.

Ну вот мы и добрались до финала. Сейчас вам удалось познакомиться с реально работающим на продакшн-версии проекта Своё.Жильё от Россельхозбанка подходом по реализации SEO-friendly интернет-ресурса на примере React-приложения и рассмотреть основные тезисы и подводные камни процесса создания SEO-эффективного сайта на основе SPA. Надеюсь, что полученные в данном материале знания будут полезны и найдут применение. Спасибо за уделённое на прочтение время.

Подробнее..

AMP сайты попасть в ловушку и выиграть

29.01.2021 16:08:57 | Автор: admin

Яндекс и Google не жалея сил развивают собственные экосистемы, поглощая старый добрый web турбо-страницами и AMP-сайтами. От этого не выигрывают:

  1. информационные ресурсы, которые зарабатывать на рекламе;

  2. коммерческие сайты, т.к. поисковая выдача сведена к поисковым сервисам и агрегаторам;

  3. социальные сети (тот же Дзен с вчера анонсированными прямыми эфирами).

Новая реальность вжиться в экосистему поисковика или забыть про онлайн. Неминуемо поисковики перетянут все возможности привлечения и удержания посетителей на сайте в свое русло, оставив сайт с однострочным офером и контактами. Но на пути к капитуляции можно и выиграть. Поэтому опустим (ну, почти) критику AMP-страниц, а рассмотрим кейсы внедрения и преимущества для своего проекта и бизнеса. Позитив, в самом деле, есть, и кто раньше изучит тему, тот и выиграет.

 Офис Google в Калифорнии Офис Google в Калифорнии

Введение формата AMP страниц пятилетней давности стало самым громким изменением в алгоритмах работы Google. И небезосновательно: меняется вид выдачи, формат взаимодействия пользователя с контентом и, самое важное, новые технические требования открывают большие возможности для продвижения сайтов и достижения лучшего результата.

Что такое AMP-страницы

Уже в 2015 году Google активно улучшал поисковую выдачу на мобильных устройствах. С помощью алгоритма Mobile-friendly пользователи попадали из поисковой выдачи на сайты, адаптированные к мобильным устройствам. Нововведение не осталось незамеченным для мобильных пользователей и отразилось на улучшении поведенческих факторов, прямо влияющих на позиции сайта в поисковике.

В октябре того же года Google анонсировал проект ускоренных мобильных страниц AMP (Accelerated Mobile Pages). AMP мгновенно загружаемые на мобильных устройствах страницы, позволяющие не тратить время на ожидание долгой загрузки сайта, что особенно актуально при медленном интернете.

Мгновенная загрузка страниц стала возможной благодаря новой технологии, включающей 3 компонента:

  1. Формат разметки AMP HTML . Это привычная HTML разметка, но с некоторыми ограничениями, позволяющими улучшить представление сайта.

  2. Библиотека скриптов AMP JS . Новая библиотека помогает ускорить отрисовку amp-страниц.

  3. Кэш AMP . Гугл поддерживает загрузку AMP-страниц из собственного кэша, что ускоряет отображение страницы на экране пользователя.

Библиотека ресурсов AMP бесплатна и поддерживается всеми браузерами. На сегодня экосистема AMP включает более 25 миллионов сайтов и становятся более востребованной среди самых различных форматов: реклама, электронная торговля, услуги, малый бизнес и т.д.

Чем сайт AMP отличается от остальных

Говоря об отличиях сайтов, созданных по технологии AMP и традиционных сайтов, использующий полный набор HTML-разметки, мы выделяем:

  1. Скорость загрузки первых.

  2. Более мощный функционал вторых.

  3. Приоритет AMP-вебсайтов в мобильной выдаче Гугла перед обычными страницами.

  4. Способность AMP страниц быстро решать задачу пользователей.

Стандартный сайт, разработанный по стандартам AMP, демонстрирует отличные показатели по времени загрузки:

А время загрузки первой части контента составляет 1,6 сек на недорогом смартфоне в сети 4G с медленным подключением к интернету. Сам по себе результат просто фантастический.

Однако, в силу того, что библиотека скриптов и стандарты верстки ограничены и оптимизированы, в первую очередь, для мобайла, функционал AMP страниц уступает традиционным сайтам, сверстанным на HTML5.

Примеры AMP сайтов

Полностью корректный вид AMP сайт принимает только при открытии с мобильного устройства. Для просмотра на десктопе, рекомендуем уменьшить размер окна браузера:

Зачем Google создал AMP

Согласно исследованию Kissmetrics, 47% пользователей не готовы ждать загрузки сайта более 2 секунд, 40% посетителей покидают сайт, если загрузка длится более 3 секунд.

Согласно тому же исследованию, первые 10 секунд являются самыми важными в посещении пользователя. Из графика ниже следует, что если вам удается убедить посетителя остаться на сайте полминуты, то существенно вырастают шансы удержать пользователя на 2 минуты и даже больше что само по себе сопоставимо с вечностью в онлайне.

График, показывающий вероятность ухода посетителя с сайта в зависимости от проведенного на сайте времени.График, показывающий вероятность ухода посетителя с сайта в зависимости от проведенного на сайте времени.

Но прежде, чем мы рассмотрим, насколько реально важна скорость загрузки страниц, вот несколько фактов, которые прольют свет на то, как меняются ожидания пользователя в зависимости от времени загрузки ресурса.

Люди предпочитают контролировать свою жизнь сами, а не отдавать ее на произвол компьютерам. В своей книге Проектирование юзабилити Якоб Нильсен рассказывает о 3 важнейших ограничениях во времени, которые происходят в интервале между действием пользователя и ответом на него машины.

  • 0,1 сек . Если компьютер отвечает на запрос пользователя незамедлительно, то возникает иллюзия прямой манипуляции. Это заставляет пользователя думать, что результат получен самим пользователем, а не сгенерирован машиной. Феномен прямой манипуляции отличный ключ к росту вовлечения пользователя.

  • 1 сек . Если время ответа занимает одну секунду, пользователь заметит этот промежуток и будет чувствовать, как машина генерирует результат вместо человека. Однако пользователь по-прежнему сконцентрирован на собственном ходу мыслей, и спустя секунду пользователь по-прежнему сохраняет чувство контроля. Страница должна загружаться не более одной секунды, чтобы у пользователя не пропадало чувство свободного перемещения в онлайне.

  • 10 сек . Спустя десять секунд пользователь заметил задержку и больше не ощущает свободы в своих действиях. Пользователь уже заблудился и покинет сайт с куда большей вероятностью. Если приложение загружается более 10 секунд, важно обозначить время ожидание визуально: индикатором загрузки или линейкой прогресса. Так пользователи смогут понять, сколько им остается ждать.

Аналитический сервис Tagman провел исследование, в котором изучил влияние скорости загрузки на конверсию, результаты на графике:

Зависимость конверсии (ось y) от времени загрузки страницы (ось x)Зависимость конверсии (ось y) от времени загрузки страницы (ось x)

Примечательно, что каждая последующая задержка загрузки на одну секунду является причиной падения конверсии на 7%.

Похожие исследования проводил Amazon: каждая задержка в 100 миллисекунд снижает конверсию на 1%.

Возвращаясь к Гуглу, отметим, что скорость загрузки стала фактором ранжирования сайтов в поисковой выдаче. Иными словами, медленные сайты не будут показаны в топе поисковика. Google хочет показывать выше те сайты, которые имеют лучшие пользовательские характеристики.

Очевидно, что сайт с хорошей скоростью загрузки влияет на положительное впечатление от пользования поиском самого Гугла и служит фактором лояльности к Гуглу. Учитывая экспансию американского поисковика в Азии и в бывшем СССР, не кажется удивительным устремления Гугла увеличить аудиторию и повысить вовлеченность западной аудитории.

Как выглядит AMP в поисковой выдаче

AMP-страницы имеют приоритетный значок (молния) в поисковой выдаче для мобильных устройств:

Вид сниппета сайта с версией AMP и обычного сайтаВид сниппета сайта с версией AMP и обычного сайта

В 2017-ом году, портал 9to5Google проводил опрос, результаты которого показали, что больше половины пользователей предпочтут кликнуть по ссылке с иконкой молнии, нежели на обычный сайт.

Итоги опроса по кликабельности сниппетаИтоги опроса по кликабельности сниппета

Какие результаты дает внедрение AMP

Увеличение скорости загрузки не самоцель. Внедряя новую технологию, мы должны быть уверены, к какому эффекту приведет нововведение.

Компания Stone Temple Consulting провела исследование

, изучив выборку из 10 сайтов различного формата, в которых были внедрены AMP-страницы.

На примере медийного сайта компании Thrillist (в формат AMP переведены 90% страниц) зафиксирован рост трафика из поисковиков на 70% половина этого роста приходится на AMP.

Другой пример, на этот раз анонимная компания, крупный медиа-проект, у которого в AMP переведены 95% страниц, заметили рост трафика из органики на 67% по одному сайту и 30% по другому. В обоих случаях рассматривался период 4 недели. В отношении медийного сайта AMP явно сказались в лучшую сторону.

Что касается коммерческих сайтов, то на примере интернет-магазина Myntra (аналог Ламоды в Индии) получен результат в виде падения отказов на 40% и увеличения общих показателей эффективности (автор исследования не указывает конкретные данные). Надо сказать, что от внедрения до получения первых результатов прошло всего 11 дней.

Другой успешный кейс, проведенный той же компанией, сервис по типу российского Билетера Event Ticket Center . Они перевели 99,9% всех страниц в формат AMP и получили сногсшибательные результаты. 100% увеличение конверсии в электронной торговле! Показатели вовлеченности скромнее, но тоже демонстрируют рост:

  1. падение отказов на 10%;

  2. увеличение просмотров страниц на 6%;

  3. увеличение продолжительности посещения на 13%.

Больше информации по этому кейсу в исследовании на английском языке. Мы же можем сделать вывод, повторив уже сказанное командой Event Ticket Center Big win (Большая победа).

Будущее AMP какое оно?

По заявлению представителя Гугла Ричарда Жангра, AMP это не про новости или статьи, мы видим внедрение формата по всему спектру веб-приложений, от интернет-магазинов до посадочных страниц для рекламы.

По крайней мере, AMP станут будущим для SEO, как выразился Дэниел Бордман, руководитель отдела SEO в компании Hoppa. Дальше можно ожидать, что Google будет активнее продвигать свой формат мобильных страниц. И если есть, чему поучиться из всей истории Гугла, то это тому, что нужно следовать за предложениями поискового гиганта, нежели оставаться за линией кильватера без позиций и трафика.

Критика AMP

Из проблем AMP-страниц, выделяемых вебмастерами, чаще всего приводят:

  1. пропадающие ссылки (и доход от рекламы);

  2. меньше возможностей для аналитики и больше работы;

  3. меньше контроля над своим контентом и дизайном.

Как справедливо отмечает Дэн Бюбен, Google продвигает формат AMP под лозунгом Сайты на AMP будут ранжироваться выше, и в это же время заключает сделку с Wordpress, что создает основу для появления миллионов вебмастеров, на чьих сайтах автоматически появляется AMP-версия.

Вывод

  1. Мобильный трафик сегодня как никогда важен , и не требует доказательств идея о том, чтобы быть ближе к мобильным пользователям.

  2. AMP это способ привлечь и удержать мобильных пользователей , в том числе с медленным интернетом. Скорость загрузки сайта в приоритете.

  3. AMP действительно дает преимущества в продвижении сайтов . Как минимум, пока есть возможность подвинуть из топа сайты с AMP-версией.

  4. AMP не идеальная штука, хотя бы потому что, что сайт станет зависимым от гугловских серверов, а вам потребуется периодически дорабатывать сайт к меняющимся требованиям AMP.

  5. AMP становится все популярнее , охватывая не только медийные порталы, но и интернет-магазины и нишевые сайты.

  6. AMP новый способ сделать жизнь пользователей проще и понятнее.

AMP страницы обладают по-настоящему мощными преимуществами увеличением скорости сайта, улучшением пользовательского опыта и дохода от сайта но только для тех вебмастеров, которые уделят время внедрению AMP-версии сайта и настройке аналитики, которая позволит оценить полученный результат.

Подробнее..

Зачем делать анализ сайтов конкурентов при подготовке к SEO-кампании? Пример из практики

07.09.2020 14:15:25 | Автор: admin


Прежде чем предлагать новому клиенту варианты проведения SEO-кампании, мы провели бесплатный предварительный анализ сайтов конкурентов и сделали обзор поискового спроса. Уже на этом этапе нам удалось удивить клиента. Читайте в нашей статье пример анализа конкурентов.

Предыстория


Летом 2019 года к нам поступил запрос от производителя игрового оборудования на оптимизацию B2B-сайта. На сайте не проводилось никаких работ по SEO, сам сайт появился всего 3 месяцами ранее. Как пояснил руководитель отдела продаж, их аудитория в основном владельцы уже работающего или развивающегося бизнеса.

Клиент вышел на рынок в 2014 году и за сравнительно небольшое время его продукты попали в топ-10 различных обзоров. Причина этого, по словам клиента, в том, что мы никогда не экономили на качестве, на материалах и электронике. Все наши конкуренты лучше нас только в рекламе и продвижении.

Запрос клиента


Цель продвижения сайта, которая была обозначена в предварительном опроснике:

  • повышение позиций в поисковых системах, достижение вершин топа;
  • увеличение продаж товаров и услуг в Европе и Америке.

Прежде чем предлагать какие-либо варианты сотрудничества, мы провели бесплатный предварительный анализ сайтов конкурентов и сделали обзор поискового спроса. Уже на этом этапе выяснилось, что конкуренты, которых клиент считал таковыми, на самом деле слабо оптимизированные сайты, которые фактически не собирают посетителей из поиска. Кто же тогда конкуренты?


Предварительный анализ конкурентов основа для принятия решений


У сайта клиента была проиндексирована 781 страница в Google, из них 356 относились к англоязычной версии. Это хороший показатель для старта.

Однако было очевидно, что страницы не оптимизированы: в Google не были определены запросы для всех этих страниц, позиций по каким-либо запросам почти не было.

Мы решили сравнить эти данные с данными других сайтов.


Анализ конкурента: сайт 1


Вот показатели сайта [САЙТ1].COM, который привели в качестве конкурента:

  1. Собирал основной трафик не сам сайт, а его поддомен en.[сайт1].com.
  2. Проиндексировано в Google 176 страниц.
  3. Посещаемость около 6000 за месяц.
  4. По странам: Франция (более 90%), Великобритания, Украина.
  5. Поисковой трафик составлял всего около 3%.
  6. В поисковой выдаче было всего около 80 запросов.
  7. Основной поток шел через соцсети, а точнее через Facebook.

Этот сайт сложно назвать реальным конкурентом в поисковой системе. По сути, он не был оптимизирован и не собирал поисковой трафик.


Анализ конкурента: сайт 2


Про сайт [САЙТ2].COM можно было сказать, что он подготовлен лучше:

  1. Проиндексировано 120 страниц.
  2. Присутствовало уже около 400 запросов (в поиске Google для США).
  3. Посещаемость около 5000 за месяц.
  4. Поисковой трафик составил около 70% от общего трафика.

Хотя проиндексированных страниц у [Сайт2].com было меньше, чем у [Сайт1].com и у клиента, его страницы лучше описывали предложение и были более релевантны реальным запросам пользователей.

Поисковой трафик из США на этот сайт давал всего около 10% посещаемости (т.е. около 350 человек за один месяц). Из Европы на сайт шли из Швейцарии (больше всего), Италии, Испании, Болгарии, Польши. Однако качество трафика вызывало сомнения, его нужно было изучать подробнее. Из Италии и Испании трафик давали тематические сайты, что говорило о возможной работе команды проекта со внешней ссылочной массой (размещение статей, ссылок и т.п.).

Что касается конкретных запросов в топе, то у этого сайта трафик привлекали такие запросы, как:

  • [key1] manufacturers
  • [key2] experts
  • + запросы с наименованиями: [brand1]+key, [brand2]+key и т.д.

Это был немного другой набор слов по сравнению с названными клиентом [key1] franchise, [key2] supplier и т.д.

Исходя из описанного, несмотря на некоторые достижения, стратегия [САЙТ2].COM тоже была не оптимальной: он собирал трафик по неполному пулу тематических запросов, посетители шли всего из нескольких стран Европы, при этом были сомнения в качестве трафика.


Анализ конкурента: сайт 3


Для сравнения мы также проанализировали проект этой тематики из другого региона [САЙТ3].RU. Клиент не приводил его в качестве конкурента, однако он мог быть потенциальным примером для подражания.

У этого сайта была абсолютно другая стратегия продвижения по сравнению с вышеописанными двумя ресурсами. При этом проект работал только с российскими регионами и рядом стран СНГ, основной трафик у проекта был российский, поэтому в качестве конкурента в нашем случае он не рассматривается.

  1. На сайте 41000 (!) проиндексированных страниц.
  2. Есть отдельные версии сайта на локальных поддоменах:
  3. Кроме того, для каждого региона (города) созданы сайты на поддоменах вида [город1].[сайт3], [город2].[сайт3] и т.п. Всего таких сайтов на поддоменах было несколько десятков, и очевидно, что это не все возможные варианты: проект продолжал развиваться.
  4. Оценочный трафик до 6000 человек на каждый поддомен.
  5. Поисковой трафик около 55%.

При этом на каждом поддомене были тематические страницы вида [город1].[сайт3].ru/buy-product, [город2].[сайт3].ru/buy-product и и т.д.
То есть, у этого проекта по каждому запросу типа buy+[key1] есть несколько десятков региональных страниц.


Какие выводы можно сделать из этой информации?


В брифе клиент указал регион, в котором требуется продвижение: Европа и США. Это очень большой регион, особенно если брать во внимание подход [САЙТ3] и возможный спрос в каждой стране и каждом городе.

Исходя из предварительного анализа конкурентов, можно было сделать вывод, что англоязычный спрос для Европы может быть сильно зависим регионально, при этом такая же региональная зависимость возможна для отдельных штатов и городов США.

Например, только в регионе Нью-Йорк с радиусом 30 километров проживает около 20 миллионов человек, что косвенно говорит о возможном уровне конкуренции и ориентации поисковой системы на представление именно региональных результатов поиска в первую очередь.

Соответственно, создание или оптимизация универсальных страниц на сайте с прицелом сразу на весь мир может не дать ожидаемого эффекта. В принципе, это и происходило у [САЙТ2].com.

Нужно было либо сузить выбор регионов, либо разработать оптимальную SEO-стратегию по генерации контента для каждого региона.


Что мы предложили клиенту по итогам предварительного анализа конкурентов?


Для начала мы предложили провести следующие работы по сайту:

  1. Проанализировать реальный поисковой спрос, составить или уточнить семантическое ядро сайта и оценить возможности текущих страниц.
  2. Оценить реальную конкуренцию в поиске: сделать обзор поисковой выдачи по семантическому ядру, выявить конкурентов и оценить показатели их сайтов, сравнить силы конкуренции для основных страниц, оценить релевантность страниц и выяснить, за счет чего они находятся в топе.
  3. Разработать стратегию продвижения исходя из полученных данных.

Параллельно с этим мы рекомендовали сделать технический аудит сайта и поработать над исправлением возможных ошибок. Мы также подготовили рекомендации по доработке текущих страниц, чтобы они могли всплывать по части запросов уже в ближайшее время, до реализации измененной стратегии. По нашему опыту, техническая оптимизация сайта всегда дает прирост трафика из поиска, пусть и небольшой.

Таким образом, предварительный анализ конкурентов позволил нам увидеть картину в целом, наметить возможные стратегические решения для клиента и оценить их потенциальную эффективность. Превращать эти рекомендации в жизнь или нет всегда остается на усмотрение клиента. В случае с клиентом, о котором мы рассказали в кейсе, мы идём к цели медленно, но верно.


Дмитрий Разахацкий,
ведущий SEO-специалист компании Alconost



Агентство интернет-маркетинга Alconost Ads занимается поисковым продвижением многоязычных сайтов, проводит полный SEO-аудит, базовую оптимизацию, улучшает юзабилити, разрабатывает стратегию международного продвижения, анализирует статистику и многое другое для улучшения ваших позиций в поисковых системах.
Подробнее..

Кейс по SEO анализируем поисковый спрос и корректируем стратегию продвижения

26.11.2020 14:19:49 | Автор: admin

В 2019 году мы получили от потенциального клиента запрос на продвижение англоязычного сайта по теме soaking tubs (это такие глубокие ванны для полного погружения в воду). Мы изучили клиентский интернет-магазин, а затем решили сделать анализ поискового спроса для одного из запросов и выяснить, соответствуют ли ему страницы сайта. Как оказалось, ситуация даже по одному запросу не совсем такая, как ожидал клиент.

Рассказываем, какие результаты дал анализ поискового спроса и что мы предложили клиенту для продвижения англоязычного сайта в органических результатах Google.


Общий поисковый спрос для всех регионов США


Для начала мы сделали общий анализ поискового спроса для всех регионов США.

Запрос: japanese soaking tubs
Частотность для США: 12100

1. Всего хвостов: 707

2. Общая частотность: 35 000
Запросов с частотностью >0: 204
Запросов с частотностью 0 (возникали разово): 503

3. Запросов с продающими добавками (sale, buy, price, etc.): 25
Их общая частотность: ~500

4. Основных категорийных запросов: 2 (japanese soaking tub / japanese soaking tubs)
Их частотность: 24200

5. Оценочное количество хвостов / подкатегорий: 30+


Из полученных данных мы сделали 2 основных вывода:


  1. Пользователи осведомлены о продукте: на это указывает достаточно высокая частотность основных запросов.
  2. Примерно треть пользователей ищет продукт по дополнительным свойствам: поисковый спрос не сконцентрирован исключительно на двух основных запросах. При этом количество дополнительных свойств достаточно большое.


Вопросы, возникшие после предварительного анализа поискового спроса:


  1. Существуют ли синонимы для основных запросов?
  2. Почему не развит спрос с продающими добавками, будет ли он развиваться?
  3. Насколько развиты подкатегории (много ли у таких запросов собственных хвостов)?
  4. Как вели себя подкатегории в прошлом, будут ли развиваться?
  5. Насколько текущая структура сайта соответствует структуре поискового спроса?


Развитие поискового спроса


Анализ хвостов запроса japanese soaking tubs показал наличие существенного набора запросов, которые ассоциируются с продуктовыми свойствами и подходят как для отдельных продуктов, так и для подкатегорий. Например, можно выделить следующие условные группы запросов (japanese soaking tubs + keyword).
По размеру:
small (for small spaces, for small home, etc.)
2 person / for two
size
24 / 30 / 36 / 41 / 46/ 48 / 60 inch

По месту:
outdoor
(in / for) bathroom
(in / for) shower
etc.


По способу установки:
freestanding
portable
etc.

По материалу:
wood / wooden (japanese soaking tubs wood, japanese hinoki wood soaking tub, wood fired japanese soaking tub)
acrylic
stone
stainless +steel
copper
etc.


По виду:
round
ofuro
deep
heated
etc.
По аксессуарам:
with seat
etc.
По локализации:
USA
отдельные штаты (Utah, etc.)
отдельные города (NYC, Seattle, etc.)
также достаточно часто в выдаче для USA встречается добавка UK

Синонимы


У запроса есть прямые синонимы и хвосты, расширяющие смысл:

  • japanese STYLE soaking tub (хвост основного запроса)
  • japanese SITTING tub (синоним)
  • japanese BATH tub
  • japanese soaking BATH
  • возможны другие

Почти все указанные запросы обладают частотностью >0 и имеют собственные хвосты (т.е. развиваются). Например, запрос japanese soaking tubs wood имеет хвост japanese soaking tubs wood OUTDOOR, т.е. здесь пересекаются 2 подкатегории.


Выводы:


  1. Поисковый спрос уже достаточно развит и, скорее всего, будет развиваться далее.
  2. Пользователи обучаются в процессе поиска товарной категории: об этом говорит наличие большого набора категорийных запросов и отсутствие для них продающих добавок.
  3. Соответственно, чем лучше структура сайта будет совпадать со структурой запросов пользователей, тем выше будет оценка экспертности сайта в глазах пользователей.
  4. Наличие запросов-синонимов показывает, что часть потенциальных покупателей, скорее всего, не будет попадать на сайт, если эти запросы будут проигнорированы в структуре категорий, фильтров и контента страниц.


Вопросы:


  1. Какие запросы из указанных выше используются на основной странице категории?
  2. Какие элементы на странице делают её сильной для этих запросов?
  3. Как оптимизированы другие страницы сайта, исходя из структуры реального поискового спроса, и учитывают ли другие страницы эти запросы?
  4. Какие именно страницы: карточки товаров, категории, фильтры, главная, статьи привлекают тематический трафик по этим запросам?


Анализ страниц сайта клиента


Для запроса japanese soaking tubs была взята основная релевантная страница сайта https://***.com/category/japanese-bathtubs


Динамика запросов этой страницы





Текущие запросы страницы в поиске


Keyword - Position - Search Volume
Keyword Position Search Volume
japanese style bathtub usa 3 70
buy japanese bath 7 70
plastic ofuro 8 20
japanese bath tubs 9 590
japanese soaking tub drop in bathtub 10 20
japanese tub 11 1900
japanese style tub 11 170
japanese soaking bath 11 110
japanese soaking tubs 12 12100
japanese soaking tub 12 12100
drop in japanese soaking tub 13 110
japanese style soaking tub 13 260
japanese red tub 14 30
japanese square bath 17 30
japanese tub for sale 17 90
metal japanese soaking tub 19 30
japanese soaking bathtubs for sale 20 20
japanese ofuro bath uk 21 90
buy japanese bathtub 22 30
outdoor japanese soaking tubs 22 480
japanese plunge bath uk 24 70
japanese style shower and bath 25 20
japanese style bath 32 480
wooden soaking tub kit 36 70
cedar japanese soaking tub 40 50
ofuro cover 60 20
japanese bath 74 4400
cedar ofuro 79 20


Как видим, страница присутствует в поиске Google по 28 запросам. При этом для региона US только 5 из них находятся в топ-10, ещё 12 запросов в топ-20, а 11 запросов (40%) вне досягаемости пользователей.

Выходит, что страница тематически релевантна и хорошо оценивается поисковиком. Но структура запросов страницы в поиске не соответствует структуре реального поискового спроса, описанного выше.

В первую очередь страница находится в топе по запросам-синонимам с продающими и локализующими добавками:

  • japanese BATH BUY
  • japanese BATH soaking
  • japanese BATH tubs


  • japanese STYLE tub
  • japanese STYLE BATHTUB USA
  • japanese STYLE soaking tub


  • japanese tub
  • japanese tub FOR SALE
  • japanese soaking BATHTUBS FOR SALE


Частичный трафик страница может собирать по запросам, описывающим свойства, однако они тоже скорее относятся к хвостам запросов-синонимов (не включают в себя слово soaking либо tub):

  • japanese RED tub (по цвету, нет soaking)
  • japanese SQUARE bath (по форме, нет soaking, нет tub хвост синонима)
  • PLASTIC ofuro (по материалу, чистый синоним, вообще нет вхождения japanese soaking tub)
  • METAL japanese soaking tub (по материалу, чистая подкатегория-хвост)


Два основных запроса также определены как релевантные и занимают достаточно высокие позиции, однако очевидно, что их можно усилить.

При этом, судя по названиям товаров, страницы товаров собирают только частичный тематический трафик. Выборочный анализ карточек товара показал, что страницы товаров фактически оптимизированы как страницы категорий. Однако на них есть ряд существенных ошибок, которые не позволяют страницам быть релевантными основными запросам.

Также мы заметили, что названия фильтров не совпадают с текущими запросами и не показывают полный набор искомых свойств. Ещё мы обнаружили ошибку генерации фильтров, которая не позволяет большому количеству тематических страниц участвовать в поиске.


Предложение по SEO-продвижению англоязычного сайта для клиента


Придя к выводу, что локализация (степень локальных маркеров) для данной ниши несущественна и пока может не приниматься во внимание, вот какой план действий мы предложили клиенту.

1. Оценить реальный поисковый спрос по всем выделенным запросам, составить семантическое ядро и визуализировать возможную структуру.

2. Оценить возможности текущих страниц сайта в соответствии с выделенными запросами.

3. Оценить структуру запросов конкурентов в поиске:
визуальный обзор поисковой выдачи по семантическому ядру;
оценка показателей сайтов конкурентов;
сравнение силы конкуренции для основных страниц;
оценка релевантности страниц конкурентов по избранным запросам (за счёт чего они находятся в топе).

4. Провести технический аудит сайта, чтобы выявить проблемы, затрудняющие SEO-продвижение англоязычного сайта, и подготовить технические задания на доработку метатегов, фильтров, карточек товаров, категорий, других типов страниц и внутренней перелинковки.

5. Уточнить общую стратегию продвижения.

6. Подготовить стратегию линкбилдинга.

7. Подготовить технические задания на информационные статьи по запросам, выделенным из основного семантического ядра для каждой категории.


Результаты


Клиент оценил проведенный аудит, но решил не воплощать предложенную нами стратегию в жизнь. Как мы поняли, масштаб и объём работ не соответствовал ожиданиям клиента.

Действительно, вложения в SEO это забег на длинную дистанцию, приносящий результаты не мгновенно. Для эффективности в краткосрочной перспективе можно использовать другие методы продвижения: например, контекстную рекламу. А для оптимальных результатов мы рекомендуем комбинировать инструменты продвижения, подобранные исходя из исходных позиций и желаемых результатов.

Дмитрий Разахацкий,
ведущий SEO-специалист компании Alconost

Агентство интернет-маркетинга Alconost Ads занимается поисковым продвижением многоязычных сайтов, проводит полный SEO-аудит, базовую оптимизацию, улучшает юзабилити, разрабатывает стратегию международного продвижения, анализирует статистику и многое другое для улучшения ваших позиций в поисковых системах.
Подробнее..

Tier 2 в SEO и интернет маркетинге

08.02.2021 20:16:10 | Автор: admin

Как я вижу, Гез ссылается на Брауна, сам будучи против вас, и это верная примета, что Браун сошлется на Геза. Грин Александр. Бегущая по волнам, 1928 г.

Поскольку как в Гугле, так и в Яндексе пока почти нет информации на русском про tier 2 начнем с определений. В переводе с английского tier это ярус, уже можно понять, что tier 2 это какой-то второй ярус. Если мы начнем гуглить tier 2, то увидим, что термин применяется в построении сетей разных уровней, а также в центрах обработки данных как показатель их надежности, но еще и в выдаче виз в Великобританию. Казалось бы, а при чем здесь SEO или маркетинг?

Рунет по разному, но зачастую значительно позже переваривает и популяризирует тренды или методы, которые в англоязычном мировом интернете уже давно систематизированы и изучены. В Google на английском поиск по запросу tier seo показывает, что эти методы продвижения с помощью усиления ссылок второго уровня tier 2 используется и активно обсуждается на англоязычных форумах уже много лет. Надо отметить, что даже в продвинутом англоязычном seo иногда не в курсе термина tier 2, хотя успешно используют эти методы.

Источник скриншота: https://www.blackhatworld.com/seo/what-is-tier-1-and-tier-2-in-seo.531054/#post-7085808Источник скриншота: https://www.blackhatworld.com/seo/what-is-tier-1-and-tier-2-in-seo.531054/#post-7085808

Стоп, а если я не сеошник, тогда мне не надо дальше читать этот длиннопост? Сеошники вряд ли много нового узнают, может быть только специфический термин, однако, статья должна быть полезна и маркетологам. На самом деле кто бы вы ни были, но вы в любом случае сталкиваетесь с tier 2. В этой статье я попытаюсь пояснить почему узнать всю суть этого термина действительно важно каждому пользователю сети Интернет.

Что такое tier 2 в SEO продвижении сайтов

Начнем с того как я сам не зная этого термина начал работать с tier 2 ссылками. Сейчас, что такое крауд маркетинг знают почти все, а в 2011 году этот термин не знал никто, но методом скрытого маркетинга пользовались многие. Поскольку общение на форумах тогда еще было очень активным, а трафик из соцсетей лился реками, то я просто проводил постинг для получения целевой аудитории. При чем же здесь tier 2?

В какой-то момент я сообразил, что никак не охвачен трафик из ТОП выдачи, что приходит на сайты конкурентов, но они же ни за какие деньги не разместят ссылку на сайт, что я продвигал, ведь это для них прямая конкуренция. Однако, на сайте конкурентов был прикручен простенький форум, конечно, он модерировался и там я бы также не смог разместить ссылку на нужный мне сайт. У меня давно был сделан и заброшен блог в ЖЖ (livejournal) с описанием товаров, которые продавались на сайте, что я продвигал и которые также продавались на сайте конкурентов.

В ЖЖ у меня были проставлены ссылки на сайт, но я их убрал, далее банально зарегистрировался на форуме конкурентов, пообщался для вида и как-то уместно разместил ссылку на пост в ЖЖ. Модераторы проверили и не удалили, потому что ничего подозрительного, тем более отзыв о товаре хороший. После этого я изменил тот пост в ЖЖ и вернул туда ссылку на нужный мне сайт, прямо на товар. Моя цель была достигнута и пошел какой-то трафик, по крайней мере единичные переходы. На тот момент ссылок на сайт не покупалось, но скоро я заметил рост позиций сайта, который продвигал по тем самым запросам. И вот это было tier 2.

Попросту говоря на ЖЖ была ссылка на мой сайт и это tier 1, а ссылка с сайта конкурентов усилила страничку в ЖЖ как tier 2. Эффективность tier 2 по части SEO в том случае была заметна за счет того, что я видел как страничка в ЖЖ также поднялась в выдаче по низкочастотным запросам о том товаре. До того ссылка на сайт, что я продвигал была на ЖЖ год, но не давала никакого SEO эффекта для нужного мне сайта акцептора.

В дальнейшем я уже осмысленно использовал методы усиления ссылок в SEO, хотя сам термин tier 2 не знал еще очень долго. Простой пример: покупаешь ссылку в статье на каком-то маленьком сайте на бирже за 5-10 долларов, а новая страница в индекс не хочет становиться неделями, что делать? Поскольку сеошнику надо отчитываться перед клиентами с индексацией и подгонять рост позиций, то если владельцы сайта донора ничего не делают с перелинковкой, значит приходится самому простимулировать индексацию. Также делал странички на ЖЖ и других платформах для блогов с ссылкой на страницу со статьей в которой ссылка на клиентский сайт, были случаи даже покупал за пару временных ссылок за копейки, чтобы нужная мне страница на совершенно чужом сайте встала в индекс. И это тоже tier 2, только его цель загнать новую страницу в индекс.

Только это все про Яндекс, а как же Google учитывает ссылки tier 2?

Начнем с того, что сколько бы официальные представители Google не говорили, что ссылки с атрибутом rel= nofollow никак не повлияют на позиции, но всегда было множество исследований доказывающих это влияние. Видимо поэтому в 2019 году Google официально признал, что ссылки nofollow влияют, если они размещены на авторитетных сайтах (Wikipedia и тд).

Лучше приведу пример старого исследования по которому видно какие ссылки скорее всего и правда не влияют на позиции. В компании Tasty Placement несколько лет назад провели эксперимент, Было создано шесть сайтов одной тематики на шесть городов одинаковых по численности и провели с сайтами различные манипуляции относительно соцсетей. Через десять месяцев проверили показатели, в таблице ниже интересные результаты.

Социальные сети

Изменение коэффициента ранжирования

1-й сайт набрал 100 подписчиков Google +

14.63 %

2-й сайт получил 300 репостов Google +

9.44 %

3-й сайт 70 репостов и 50 лайков бизнес-страницы

6.9 %

4-й сайт получил 50 ретвитов

2.88 %

5-й сайт набрал 1000 подписчиков в Twitter

1.22 %

6-й сайт вообще ни в чем не участвовал.

0.11 %

Ссылка на полноценную презентацию эксперимента: https://www.tastyplacement.com/wp-content/uploads/testing-social-signals.jpg

Не зря же соцсети делают внешние ссылки не просто rel= nofollow, например, Twitter отправляет ссылки на другой URL и потом через 301-редирект. Ссылки из ВКонтакте уводят на скрипт away.php, который проверяет подозрительность внешней ссылки. Мы можем наблюдать на крупных форумах такие же страницы-прокладки, которые только через скрипты позволяют уйти на другой сайт по ссылке. С одной стороны так социальная сеть или форум пытаются удержать пользователя от перехода, с другой стороны это наверняка избавляет от SEO эффекта ссылок второго уровня tier 2, которые многие хотели бы получить из соцсетей.

Зарубежные SEO специалисты давно знают значение ссылок tier 2 и стараются получать их с Википедии, Reddit и других крупных сайтов. Методы простые.

  • Ищешь сайт на который можно оставить ссылку на Википедии и на котором можно написать хотя бы информационную статью. Пишешь статью, прячешь в ней ссылку на нужный сайт, далее идешь на Википедию и пытаешься в источниках оставить ссылку на сайт с информационной статьей.

  • Находишь сайты по нужной теме продвижения в ТОП выдачи, а они же никогда не оставят ссылку на прямого конкурента, но ты всегда можешь предложить им для размещения статью с ссылкой на информационные источники. А уже в тех источниках будет ссылка на ваш сайт и Google прекрасно передает вес ссылок tier 2.

Наиболее простое доказательство реальной эффективности веса ссылок tier 2 для Google это сети сателлитов, которые до сих пор работают для продвижения. Обычно сеть сателлитов (сеть сайтов общей тематики: Private Blog Network или просто PBN) создается как раз по такой схеме.

Источник схемы: https://digitaluncovered.com/seo-snake-oil-how-to-choose-an-seo-company/Источник схемы: https://digitaluncovered.com/seo-snake-oil-how-to-choose-an-seo-company/

Здесь мы видим также ссылки третьего уровня, то есть tier 3. Естественно это все сателлиты, иногда дешевле купить несколько десятков доменов, сделать простенькие сайты под шаблон нужной тематики и перелинковать по схеме, чтобы улучшить позиции своего сайта. Очевидно, что специалисты занимающиеся строительством сетей PBN в обиходе повседневно используют термин tier 2. Надо отметить, что в некоторых темах трудно найти достаточное количество сайтов доноров для размещения ссылок и для Google именно сеть PBN иногда чуть ли не единственный выход для подъема позиций даже сейчас в 2021 году. И так будет видимо всегда, потому что поисковые системы обычно не могут распознать такие сетки сателлитов как биржевые продающие ссылки, а фильтры, санкции за ссылки уровня tier 3 или tier 2 не будут самыми жесткими. Главное в этой схеме сайты уровня tier 1, но их условный траст всегда можно подпитать новыми ссылками, а также разбавлять крауд маркетингом и тд. Впрочем, постоянно продвигать сайт только сетями PBN не выйдет, алгоритм Google Penguin рано или поздно определит эти манипуляции, поэтому сеть сателлитов может применяться только как некий вспомогательный фактор продвижения, один из методов SEO.

Вред от ссылок tier 2

Все знают, что ссылки с плохих доноров на сайт акцептор рано или поздно ведут к фильтрам от поисковых систем, но как повлияют исходящие ссылки с вашего сайта?

Обратимся к исследованию, которое было проведено в 2016 году и повторено в 2020 году с теми же результатами. Суть эксперимента была в том, что придумали косметику с вымышленным названием Phylandocic и тестовое переменное слово Ancludixis. Все это не имело ни единого результата в выдаче.

  • Было создано десять сайтов по 300 слов на каждом.

  • С пяти сайтов были проставлены внешние ссылки на авторитетные источники: Оксфордский университет, Кембриджский университет и тд.

  • Исследователи минимализировали посещения сайтов по ключевым фразам, все делали в режиме инкогнито, даже не проверяли поиск до конца эксперимента и все это знал ограниченный круг людей.

В итоге, через десять месяцев оказалось, что сайты на которых были внешние ссылки на трастовые реально качественные сайты были с лучшими позициями, чем другие без таких ссылок.

Update: We have rerun this experiment in April 2020 using fresh domains and can confirm the same results. External links remain a ranking factor and good SEO best practise.

Ссылка на исследование: https://www.rebootonline.com/blog/long-term-outgoing-link-experiment/ Ссылка на исследование: https://www.rebootonline.com/blog/long-term-outgoing-link-experiment/

А теперь вспомним, что есть печеньки (cookie) и браузер Google Chrome, а в нем многие авторизованы под своим аккаунтом Google. Становится ясно, что если вы разместите ссылку на сайт, который сам по себе безобиден, но при этом размещает много ссылок на плохие сайты, то это значит Google точно узнает всю цепочку сайтов, что ссылаются на плохой сайт. Вывод: также как построение цепей ссылок tier 1, 2 и 3 поднимают в ТОП Google их акцептора, так и может пессимизировать за то, что вы ссылаетесь на некий сайт, который является помойкой для ссылок ведущих скорее всего на подозрительный сайт. Ведь разрешенные к продвижению по тематике сайты на биржах могут покупать ссылки напрямую.

Пример из моей SEO практики: клиентский сайт выставили на биржу, чтобы немного отбить заказами на статейные ссылки цену продвижения. Трастовому сайту нормально проставить немного ссылок из статей на другие живые сайты той же тематики. Как-то пришел заказ на симпатичный и аскетичный тематичный сайт, он мне показался подозрительным, хотя внешних ссылок на нем не было, поэтому ссылку на него разместил. Заказчик из биржи был очень доволен и тут же выслал еще десять заказов на подобные сайты похожие как близнецы, а начинаешь проверять и видишь, что они на одном ip (хостинге). Тогда я сразу понял, что пытаются прокачать сеть сателлитов, которые позже неизвестно куда уведут ссылками и уговорил клиента отказаться от такого оптового размещения, то есть поберечь свой сайт. Пока сателлиты без ссылок чистые все нормально, но ведь они обязательно будут использованы по назначению.

Еще один нюанс. SEO оптимизатор должен учитывать, что сателлиты перепродаются, иногда целая сеть может быть выкуплена кем-то еще, надо будет следить за этим. Что будет, если покупали дешевые ссылки на биржах?

  • Вначале все будет хорошо, ведь ссылки вечные, некоторые биржи дают год гарантии за дополнительную оплату страховых взносов, но чаще всего на год хватает стабильности и так.

  • Зато через пару лет окажется, что ничто не вечно, а сайты на бирже ушли в бан по всем показателям, выпали из индекса, потому что их администраторы были жадные и продавали слишком много ссылок, а под конец падения даже не тематические. Вот такой tier 2 внешними ссылками убивающий ваш донор.

  • Выходит ссылки второго уровня на сайте донора когда-то могут испортить вам вес SEO ссылки первого уровня с положительного на отрицательный. Если в Google есть инструмент Disallow Links, чтобы отклонить испорченные ссылки, то в Яндексе ничего подобного нет.

Tier 2 и интернет маркетинг

Про крауд маркетинг уже были примеры, перейдем сразу к съему целевой аудитории из ТОП поисковых систем с помощью tier 2. Десять лет назад были популярен сервис Ответы Mail.ru и подобный был у Google, причем в обоих случаях ответы выдавались в ТОП выдачи по ключевым запросам, вопросам. Эти методы сейчас знают и понимают уже все/

  • Формулируешь правильно с вхождением ключевого запроса вопрос с одного аккаунта, ждешь любых ответов и с другого своего аккаунта пишешь нормальный внятный ответ ссылкой на нужный тебе сайт. Желательно использовать VPN, чтобы не забанили, но при необходимости сделать много таких вопросов и ответов просто нанимались на сайтах фриланса реальные люди со своими аккаунтами.

  • Вопрос моментально оказывается в ТОП выдачи, а ответ с нужной тебе ссылкой ты сам выбрал лучшим и он выделяется, далее просто наблюдаешь как начинает идти трафик на сайт, который прорекламировал.

Только Ответы Mail.ru уже давно не в тренде, сервис Ответы Google закрылся, зато появился Яндекс.ДЗЕН и сейчас он почти всегда в ТОП выдачи Яндекса. Кстати, qna.habr тоже немного заспамлен и это также tier 2 (ищешь вопрос, находишь ответ, а там в комментарии ссылка куда-то).

С чем я не имел дело, то есть никогда сам такого не делал, но с чем сталкивался каждый из нас.

  • Вы ищете в Яндексе или Google какой-то вопрос, из ТОП выдачи попадаете на страницу в соцсети Вконтакте и там вместо ответа вас ждет ссылка на какой-то подозрительный сайт.

  • Вы попадаете из поисковой системы на какой-то сайт (doorway), а там заглушка и навязчиво предлагается перейти еще на какой-то сайт. Думаю все уже догадались о каких сайтах речь, ведь такие сайты для взрослых запрещены в большинстве случаев для контекстной рекламы и тд.

  • Наконец, вам предлагают перейти по сокращенной ссылке, то есть по адресу вы не видите куда вас направляет ссылка, часто так скрывают реферальные ссылки. Но по сути вы идете на какой-то сайт через переадресацию. Или еще хуже, когда вы попадаете на сайт и ничего не нажимаете, возможно уже закрываете страницу и тут принудительно открывается окно с ссылкой на другой сайт. Так может быть спрятан фишинг.

Таким образом, становится ясно почему абсолютно все пользователи сети Интернет обязательно сталкиваются и переходят по ссылкам tier 2 создавая им поведенческие факторы. Чаще всего пранки или фишинг также делается через сайты прокладки tier 2. Если специалисту в SEO продвижении термин tier 2 пригодится для осмысления методов, чтобы было удобнее формулировать планы и стратегии ссылочного продвижения, то обывателю нужно знать этот термин, чтобы не тратить время впустую на хождения по сателлитам.

Дело в том, что сателлиты или сайты-прокладки для ссылок tier 2 не всегда сделаны кое-как по шаблону. Во многих случаях это старые красивые сайты, которые были когда-то живыми, но заброшены администраторами и недорого выкуплены для выполнения роли площадки под ссылки. Отличить такую западню легко, когда вы переходите по ссылке на статью, а в этой статье текст вода и ссылка на другой сайт. Короче говоря, вы попали не на сайт где есть нужная вам информация или решение проблемы, а на SEO страницу.

  • Если текст рекламный и ссылка хорошо выделена на видном месте или подкреплена тизером это маркетинг.

  • Если текст как бы ни о чем, а контекстная ссылка в тексте или постовой в конце статьи это линкбилдинг.

В обоих случаях вы зря потратите время на прочтение статьи, потому что её скорее всего написал рерайтер за копейки: текст ради индексации. Особенно печально, когда люди ищут информацию про болезни, лекарства и попадают на такие страницы, читают и верят написанному, а ведь в таком контенте могут быть грубые смысловые ошибки. Именно поэтому так важно всем научиться различать настоящие профессиональные уникальные статьи и страницы с просто уникальным текстом созданные для ссылок tier 2. Однако, конкуренция приводит к повышению качества сайтов и чтобы получить хорошие поведенческие факторы даже SEO контент стараются делать все более профессионально в плане смысловой составляющей.

Почему редко используют термин tier 2

Все дело в специфике, поскольку термин SEO уже хорошо известен и распиарен, то именно так и называют продвижение в общем и целом для клиентов. На самом деле студия занимающаяся продвижением сайтов может успешно использовать самые разные методы, но путать клиентов терминами не будут. Вспомните коммерческие предложения, что вам высылали по поводу продвижения, ведь там наверняка общие фразы про индивидуальный подход в линкбилдинге и качественные ссылки? Чем больше непонятной информации, тем сложнее заказчику решиться. Если про SEO заказчик понимает, то про интернет маркетинг смутно, а термин crowd многих и сейчас вводит в ступор. Услугу могут предлагать, но объяснять будут простыми словами, без специфических терминов.

Не всякий сеошник решиться попробовать стратегию усилять ссылками страницу сайта донора, а объяснить, что надо покупать ссылки ведущие не только на сайт клиента, но и на некоторые чужие тематические сайты доноры ссылок - это явно фантастическая задача на брифинге. Тем более, когда клиент знает только один термин SEO и не знает толком, что в чистом виде SEO не всегда гарантирует выход в ТОП.

Впрочем, никакие ссылки и SEO методы не помогут подняться в ТОП, если у сайта есть технические проблемы с доступностью всех страниц или низкая скорость загрузки. Уже давно сеошники учитывают скорость загрузки сайтов конкурентов, чтобы обойти их в ТОП. Только в 2020 году Google конкретно заявил, что в 2021 году для ранжирования сайтов станут достаточно важными факторы Web Vitals: скорость загрузки, интерактивность и визуальная стабильность. Доступность и качество ресурса невозможны без мониторинга, когда у вас хостинг в надежном дата-центре с грамотной поддержкой, которая готова оперативно отреагировать в случае экстренной ситуации. Очевидно, ссылки tier 2 и 3 на сетях сателлитов для продвижения в Google теперь тоже придется размещать только на надежных хостингах с хорошей поддержкой.

Все же специфические термины полезны для смежных с SEO профессий, они помогают более четко работать команде по продвижению сайта (сеошник, программист, контент редактор, интернет маркетолог и тд). Когда составляется план комплексного продвижения сайта, вырабатывается стратегия все члены команды должны знать SEO термины, даже про серые методы, сателлиты, tier 2 и понимать их.

Tu deviens responsable pour toujours de ce que tu as apprivois. (из повести Маленький принц Антуана де Сент-Экзюпери, 1943 г.)

P. S. Habr не имел ранее статей про SEO tier 2, а в Рунете почти нет статей на эту тему, значит эта статья выйдет в ТОП. Выходит, если кто-то разместит под данной статьей комментарий, но в своем профиле будет иметь ссылку на страницу или сайт для заказа ИТ услуг - это и будет tier 2!

Подробнее..

Recovery mode Tier 2 в SEO и интернет маркетинге

08.02.2021 22:18:49 | Автор: admin

Как я вижу, Гез ссылается на Брауна, сам будучи против вас, и это верная примета, что Браун сошлется на Геза. Грин Александр. Бегущая по волнам, 1928 г.

Поскольку как в Гугле, так и в Яндексе пока почти нет информации на русском про tier 2 начнем с определений. В переводе с английского tier это ярус, уже можно понять, что tier 2 это какой-то второй ярус. Если мы начнем гуглить tier 2, то увидим, что термин применяется в построении сетей разных уровней, а также в центрах обработки данных как показатель их надежности, но еще и в выдаче виз в Великобританию. Казалось бы, а при чем здесь SEO или маркетинг?

Рунет по разному, но зачастую значительно позже переваривает и популяризирует тренды или методы, которые в англоязычном мировом интернете уже давно систематизированы и изучены. В Google на английском поиск по запросу tier seo показывает, что эти методы продвижения с помощью усиления ссылок второго уровня tier 2 используется и активно обсуждается на англоязычных форумах уже много лет. Надо отметить, что даже в продвинутом англоязычном seo иногда не в курсе термина tier 2, хотя успешно используют эти методы.

Источник скриншота: https://www.blackhatworld.com/seo/what-is-tier-1-and-tier-2-in-seo.531054/#post-7085808Источник скриншота: https://www.blackhatworld.com/seo/what-is-tier-1-and-tier-2-in-seo.531054/#post-7085808

Стоп, а если я не сеошник, тогда мне не надо дальше читать этот длиннопост? Сеошники вряд ли много нового узнают, может быть только специфический термин, однако, статья должна быть полезна и маркетологам. На самом деле кто бы вы ни были, но вы в любом случае сталкиваетесь с tier 2. В этой статье я попытаюсь пояснить почему узнать всю суть этого термина действительно важно каждому пользователю сети Интернет.

Что такое tier 2 в SEO продвижении сайтов

Начнем с того как я сам не зная этого термина начал работать с tier 2 ссылками. Сейчас, что такое крауд маркетинг знают почти все, а в 2011 году этот термин не знал никто, но методом скрытого маркетинга пользовались многие. Поскольку общение на форумах тогда еще было очень активным, а трафик из соцсетей лился реками, то я просто проводил постинг для получения целевой аудитории. При чем же здесь tier 2?

В какой-то момент я сообразил, что никак не охвачен трафик из ТОП выдачи, что приходит на сайты конкурентов, но они же ни за какие деньги не разместят ссылку на сайт, что я продвигал, ведь это для них прямая конкуренция. Однако, на сайте конкурентов был прикручен простенький форум, конечно, он модерировался и там я бы также не смог разместить ссылку на нужный мне сайт. У меня давно был сделан и заброшен блог в ЖЖ (livejournal) с описанием товаров, которые продавались на сайте, что я продвигал и которые также продавались на сайте конкурентов.

В ЖЖ у меня были проставлены ссылки на сайт, но я их убрал, далее банально зарегистрировался на форуме конкурентов, пообщался для вида и как-то уместно разместил ссылку на пост в ЖЖ. Модераторы проверили и не удалили, потому что ничего подозрительного, тем более отзыв о товаре хороший. После этого я изменил тот пост в ЖЖ и вернул туда ссылку на нужный мне сайт, прямо на товар. Моя цель была достигнута и пошел какой-то трафик, по крайней мере единичные переходы. На тот момент ссылок на сайт не покупалось, но скоро я заметил рост позиций сайта, который продвигал по тем самым запросам. И вот это было tier 2.

Попросту говоря на ЖЖ была ссылка на мой сайт и это tier 1, а ссылка с сайта конкурентов усилила страничку в ЖЖ как tier 2. Эффективность tier 2 по части SEO в том случае была заметна за счет того, что я видел как страничка в ЖЖ также поднялась в выдаче по низкочастотным запросам о том товаре. До того ссылка на сайт, что я продвигал была на ЖЖ год, но не давала никакого SEO эффекта для нужного мне сайта акцептора.

В дальнейшем я уже осмысленно использовал методы усиления ссылок в SEO, хотя сам термин tier 2 не знал еще очень долго. Простой пример: покупаешь ссылку в статье на каком-то маленьком сайте на бирже за 5-10 долларов, а новая страница в индекс не хочет становиться неделями, что делать? Поскольку сеошнику надо отчитываться перед клиентами с индексацией и подгонять рост позиций, то если владельцы сайта донора ничего не делают с перелинковкой, значит приходится самому простимулировать индексацию. Также делал странички на ЖЖ и других платформах для блогов с ссылкой на страницу со статьей в которой ссылка на клиентский сайт, были случаи даже покупал за пару временных ссылок за копейки, чтобы нужная мне страница на совершенно чужом сайте встала в индекс. И это тоже tier 2, только его цель загнать новую страницу в индекс.

Как Google учитывает ссылки tier 2

Начнем с того, что сколько бы официальные представители Google не говорили, что ссылки с атрибутом rel= nofollow никак не повлияют на позиции, но всегда было множество исследований доказывающих это влияние. Видимо поэтому в 2019 году Google официально признал, что ссылки nofollow влияют, если они размещены на авторитетных сайтах (Wikipedia и тд).

Лучше приведу пример старого исследования по которому видно какие ссылки скорее всего и правда не влияют на позиции. В компании Tasty Placement несколько лет назад провели эксперимент, Было создано шесть сайтов одной тематики на шесть городов одинаковых по численности и провели с сайтами различные манипуляции относительно соцсетей. Через десять месяцев проверили показатели, в таблице ниже интересные результаты.

Социальные сети

Изменение коэффициента ранжирования

1-й сайт набрал 100 подписчиков Google +

14.63 %

2-й сайт получил 300 репостов Google +

9.44 %

3-й сайт 70 репостов и 50 лайков бизнес-страницы

6.9 %

4-й сайт получил 50 ретвитов

2.88 %

5-й сайт набрал 1000 подписчиков в Twitter

1.22 %

6-й сайт вообще ни в чем не участвовал.

0.11 %

Ссылка на полноценную презентацию эксперимента: https://www.tastyplacement.com/wp-content/uploads/testing-social-signals.jpg

Не зря же соцсети делают внешние ссылки не просто rel= nofollow, например, Twitter отправляет ссылки на другой URL и потом через 301-редирект. Ссылки из ВКонтакте уводят на скрипт away.php, который проверяет подозрительность внешней ссылки. Мы можем наблюдать на крупных форумах такие же страницы-прокладки, которые только через скрипты позволяют уйти на другой сайт по ссылке. С одной стороны так социальная сеть или форум пытаются удержать пользователя от перехода, с другой стороны это наверняка избавляет от SEO эффекта ссылок второго уровня tier 2, которые многие хотели бы получить из соцсетей.

Зарубежные SEO специалисты давно знают значение ссылок tier 2 и стараются получать их с Википедии, Reddit и других крупных сайтов. Методы простые.

  • Ищешь сайт на который можно оставить ссылку на Википедии и на котором можно написать хотя бы информационную статью. Пишешь статью, прячешь в ней ссылку на нужный сайт, далее идешь на Википедию и пытаешься в источниках оставить ссылку на сайт с информационной статьей.

  • Находишь сайты по нужной теме продвижения в ТОП выдачи, а они же никогда не оставят ссылку на прямого конкурента, но ты всегда можешь предложить им для размещения статью с ссылкой на информационные источники. А уже в тех источниках будет ссылка на ваш сайт и Google прекрасно передает вес ссылок tier 2.

Наиболее простое доказательство реальной эффективности веса ссылок tier 2 для Google это сети сателлитов, которые до сих пор работают для продвижения. Обычно сеть сателлитов (сеть сайтов общей тематики: Private Blog Network или просто PBN) создается как раз по такой схеме.

Источник схемы: https://digitaluncovered.com/seo-snake-oil-how-to-choose-an-seo-company/Источник схемы: https://digitaluncovered.com/seo-snake-oil-how-to-choose-an-seo-company/

Здесь мы видим также ссылки третьего уровня, то есть tier 3. Естественно это все сателлиты, иногда дешевле купить несколько десятков доменов, сделать простенькие сайты под шаблон нужной тематики и перелинковать по схеме, чтобы улучшить позиции своего сайта. Очевидно, что специалисты занимающиеся строительством сетей PBN в обиходе повседневно используют термин tier 2 и tier 3.

В некоторых темах трудно найти достаточное количество сайтов доноров для размещения ссылок и для Google именно сеть PBN иногда чуть ли не единственный выход для подъема позиций даже сейчас в 2021 году. И так будет видимо всегда, потому что поисковые системы обычно не могут распознать такие сетки сателлитов как биржевые продающие ссылки, а фильтры, санкции за ссылки уровня tier 3 или tier 2 не будут самыми жесткими. Главное в этой схеме сайты уровня tier 1, но их условный траст всегда можно подпитать новыми ссылками, а также разбавлять крауд маркетингом и тд. Впрочем, постоянно продвигать сайт только сетями PBN не выйдет, алгоритм Google Penguin рано или поздно определит эти манипуляции, поэтому сеть сателлитов может применяться только как некий вспомогательный фактор продвижения, один из методов SEO.

Вред от ссылок tier 2

Все знают, что ссылки с плохих доноров на сайт акцептор рано или поздно ведут к фильтрам от поисковых систем, но как повлияют исходящие ссылки с вашего сайта?

Обратимся к исследованию, которое было проведено в 2016 году и повторено в 2020 году с теми же результатами. Суть эксперимента была в том, что придумали косметику с вымышленным названием Phylandocic и тестовое переменное слово Ancludixis. Все это не имело ни единого результата в выдаче.

  • Было создано десять сайтов по 300 слов на каждом.

  • С пяти сайтов были проставлены внешние ссылки на авторитетные источники: Оксфордский университет, Кембриджский университет и тд.

  • Исследователи минимализировали посещения сайтов по ключевым фразам, все делали в режиме инкогнито, даже не проверяли поиск до конца эксперимента и все это знал ограниченный круг людей.

В итоге, через десять месяцев оказалось, что сайты на которых были внешние ссылки на трастовые реально качественные сайты были с лучшими позициями, чем другие без таких ссылок.

Update: We have rerun this experiment in April 2020 using fresh domains and can confirm the same results. External links remain a ranking factor and good SEO best practise.

Ссылка на исследование: https://www.rebootonline.com/blog/long-term-outgoing-link-experiment/ Ссылка на исследование: https://www.rebootonline.com/blog/long-term-outgoing-link-experiment/

А теперь вспомним, что есть печеньки (cookie) и браузер Google Chrome, а в нем многие авторизованы под своим аккаунтом Google. Становится ясно, что если вы разместите ссылку на сайт, который сам по себе безобиден, но при этом размещает много ссылок на плохие сайты, то это значит Google точно узнает всю цепочку сайтов, что ссылаются на плохой сайт. Вывод: также как построение цепей ссылок tier 1, 2 и 3 поднимают в ТОП Google их акцептора, так и может пессимизировать за то, что вы ссылаетесь на некий сайт, который является помойкой для ссылок ведущих скорее всего на подозрительный сайт. Ведь разрешенные к продвижению по тематике сайты на биржах могут покупать ссылки напрямую.

Пример из моей SEO практики: клиентский сайт выставили на биржу, чтобы немного отбить заказами на статейные ссылки цену продвижения. Трастовому сайту нормально проставить немного ссылок из статей на другие живые сайты той же тематики. Как-то пришел заказ на симпатичный и аскетичный тематичный сайт, он мне показался подозрительным, хотя внешних ссылок на нем не было, поэтому ссылку на него разместил. Заказчик из биржи был очень доволен и тут же выслал еще десять заказов на подобные сайты похожие как близнецы, а начинаешь проверять и видишь, что они на одном ip (хостинге). Тогда я сразу понял, что пытаются прокачать сеть сателлитов, которые позже неизвестно куда уведут ссылками и уговорил клиента отказаться от такого оптового размещения, то есть поберечь свой сайт. Пока сателлиты без ссылок чистые все нормально, но ведь они обязательно будут использованы по назначению.

Еще один нюанс. SEO оптимизатор должен учитывать, что сателлиты перепродаются, иногда целая сеть может быть выкуплена кем-то еще, надо будет следить за этим. Что будет, если покупали дешевые ссылки на биржах?

  • Вначале все будет хорошо, ведь ссылки вечные, некоторые биржи дают год гарантии за дополнительную оплату страховых взносов, но чаще всего на год хватает стабильности и так.

  • Зато через пару лет окажется, что ничто не вечно, а сайты на бирже ушли в бан по всем показателям, выпали из индекса, потому что их администраторы были жадные и продавали слишком много ссылок, а под конец падения даже не тематические. Вот такой tier 2 внешними ссылками убивающий ваш донор.

  • Выходит ссылки второго уровня на сайте донора когда-то могут испортить вам вес SEO ссылки первого уровня с положительного на отрицательный. Если в Google есть инструмент Disallow Links, чтобы отклонить испорченные ссылки, то в Яндексе ничего подобного нет.

Tier 2 и интернет маркетинг

Про крауд маркетинг уже были примеры, перейдем сразу к съему целевой аудитории из ТОП поисковых систем с помощью tier 2. Десять лет назад были популярен сервис Ответы Mail.ru и подобный был у Google, причем в обоих случаях ответы выдавались в ТОП выдачи по ключевым запросам, вопросам. Эти методы сейчас знают и понимают уже все/

  • Формулируешь правильно с вхождением ключевого запроса вопрос с одного аккаунта, ждешь любых ответов и с другого своего аккаунта пишешь нормальный внятный ответ ссылкой на нужный тебе сайт. Желательно использовать VPN, чтобы не забанили, но при необходимости сделать много таких вопросов и ответов просто нанимались на сайтах фриланса реальные люди со своими аккаунтами.

  • Вопрос моментально оказывается в ТОП выдачи, а ответ с нужной тебе ссылкой ты сам выбрал лучшим и он выделяется, далее просто наблюдаешь как начинает идти трафик на сайт, который прорекламировал.

Только Ответы Mail.ru уже давно не в тренде, сервис Ответы Google закрылся, зато появился Яндекс.ДЗЕН и сейчас он почти всегда в ТОП выдачи Яндекса. Кстати, qna.habr тоже немного заспамлен и это также tier 2 (ищешь вопрос, находишь ответ, а там в комментарии ссылка куда-то).

С чем я не имел дело, то есть никогда сам такого не делал, но с чем сталкивался каждый из нас.

  • Вы ищете в Яндексе или Google какой-то вопрос, из ТОП выдачи попадаете на страницу в соцсети Вконтакте и там вместо ответа вас ждет ссылка на какой-то подозрительный сайт.

  • Вы попадаете из поисковой системы на какой-то сайт (doorway), а там заглушка и навязчиво предлагается перейти еще на какой-то сайт. Думаю все уже догадались о каких сайтах речь, ведь такие сайты для взрослых запрещены в большинстве случаев для контекстной рекламы и тд.

  • Наконец, вам предлагают перейти по сокращенной ссылке, то есть по адресу вы не видите куда вас направляет ссылка, часто так скрывают реферальные ссылки. Но по сути вы идете на какой-то сайт через переадресацию. Или еще хуже, когда вы попадаете на сайт и ничего не нажимаете, возможно уже закрываете страницу и тут принудительно открывается окно с ссылкой на другой сайт. Так может быть спрятан фишинг.

Таким образом, становится ясно почему абсолютно все пользователи сети Интернет обязательно сталкиваются и переходят по ссылкам tier 2 создавая им поведенческие факторы. Чаще всего пранки или фишинг также делается через сайты прокладки tier 2. Если специалисту в SEO продвижении термин tier 2 пригодится для осмысления методов, чтобы было удобнее формулировать планы и стратегии ссылочного продвижения, то обывателю нужно знать этот термин, чтобы не тратить время впустую на хождения по сателлитам.

Дело в том, что сателлиты или сайты-прокладки для ссылок tier 2 не всегда сделаны кое-как по шаблону. Во многих случаях это старые красивые сайты, которые были когда-то живыми, но заброшены администраторами и недорого выкуплены для выполнения роли площадки под ссылки. Отличить такую западню легко, когда вы переходите по ссылке на статью, а в этой статье текст вода и ссылка на другой сайт. Короче говоря, вы попали не на сайт где есть нужная вам информация или решение проблемы, а на SEO страницу.

  • Если текст рекламный и ссылка хорошо выделена на видном месте или подкреплена тизером это маркетинг.

  • Если текст как бы ни о чем, а контекстная ссылка в тексте или постовой в конце статьи это линкбилдинг.

В обоих случаях вы зря потратите время на прочтение статьи, потому что её скорее всего написал рерайтер за копейки: текст ради индексации. Особенно печально, когда люди ищут информацию про болезни, лекарства и попадают на такие страницы, читают и верят написанному, а ведь в таком контенте могут быть грубые смысловые ошибки. Именно поэтому так важно всем научиться различать настоящие профессиональные уникальные статьи и страницы с просто уникальным текстом созданные для ссылок tier 2. Однако, конкуренция приводит к повышению качества сайтов и чтобы получить хорошие поведенческие факторы даже SEO контент стараются делать все более профессионально в плане смысловой составляющей.

Почему редко используют термин tier 2

Все дело в специфике, поскольку термин SEO уже хорошо известен и распиарен, то именно так и называют продвижение в общем и целом для клиентов. На самом деле студия занимающаяся продвижением сайтов может успешно использовать самые разные методы, но путать клиентов терминами не будут. Вспомните коммерческие предложения, что вам высылали по поводу продвижения, ведь там наверняка общие фразы про индивидуальный подход в линкбилдинге и качественные ссылки? Чем больше непонятной информации, тем сложнее заказчику решиться. Если про SEO заказчик понимает, то про интернет маркетинг смутно, а термин crowd многих и сейчас вводит в ступор. Услугу могут предлагать, но объяснять будут простыми словами, без специфических терминов.

Не всякий сеошник решиться попробовать стратегию усилять ссылками страницу сайта донора, а объяснить, что надо покупать ссылки ведущие не только на сайт клиента, но и на некоторые чужие тематические сайты доноры ссылок - это явно фантастическая задача на брифинге. Тем более, когда клиент знает только один термин SEO и не знает толком, что в чистом виде SEO не всегда гарантирует выход в ТОП.

Впрочем, никакие ссылки и SEO методы не помогут подняться в ТОП, если у сайта есть технические проблемы с доступностью всех страниц или низкая скорость загрузки. Уже давно сеошники учитывают скорость загрузки сайтов конкурентов, чтобы обойти их в ТОП. Только в 2020 году Google конкретно заявил, что в 2021 году для ранжирования сайтов станут достаточно важными факторы Web Vitals: скорость загрузки, интерактивность и визуальная стабильность. Доступность и качество ресурса невозможны без мониторинга, когда у вас хостинг в надежном дата-центре с грамотной поддержкой, которая готова оперативно отреагировать в случае экстренной ситуации. Очевидно, ссылки tier 2 и 3 на сетях сателлитов для продвижения в Google теперь тоже придется размещать только на надежных хостингах с хорошей поддержкой.

Все же специфические термины полезны для смежных с SEO профессий, они помогают более четко работать команде по продвижению сайта (сеошник, программист, контент редактор, интернет маркетолог и тд). Когда составляется план комплексного продвижения сайта, вырабатывается стратегия все члены команды должны знать SEO термины, даже про серые методы, сателлиты, tier 2 и понимать их.

Tu deviens responsable pour toujours de ce que tu as apprivois. (из повести Маленький принц Антуана де Сент-Экзюпери, 1943 г.)

Подробнее..

Recovery mode Когда можно обойтись без SEO или каким проектам поисковая оптимизация не нужна

11.11.2020 18:11:34 | Автор: admin

Мы стараемся всегда говорить клиентам только правду, излишне их никогда не обнадеживать и не браться за SEO, если не уверены в его результатах. Наш опыт работы с различными интернет-проектами показал, что для одних проектов SEO must-have, а для других пустая трата денег. В ряде случаев на поисковой оптимизации можно сэкономить, обратившись к другим способам продвижения. Как раз об этом мы и хотим рассказать в этом материале.

Когда нет смысла использовать SEO

Таких ситуаций, в которых поисковая оптимизация бесполезна, довольно много. Мы собрали самые типичные из них.

1. Вы предлагаете новый, уникальный продукт, на которые не сформирован спрос

Если ваш продукт только-только выходит на рынок и представляет собой нечто революционное продвигать его по поисковым запросам проблематично. Очевидно, что люди еще ничего не знают о нем, и поэтому не ищут.

Вы можете сами проверить спрос на товар или услугу, воспользовавшись бесплатным сервисомwordstat.yandex.ru.

Хотя, пожалуй, этот пункт не так однозначен, как казалось бы. Если продукт новый, но уже входит в сферу сложившихся интересов достаточно широкой аудитории продвигать его можно, используя околоцелевые и информационные запросы.

Например, вы выводите на рынок инновационное средство от прыщей. О нем еще никто не знает, но целевая аудитория активно интересуется как избавиться от прыщей. На этой основе можно проработать группу ключевых фраз. По ним придут люди, которые ищут решение своей проблемы или просто изучают информацию, а эту аудиторию уже можно конвертировать в клиентов вашего бизнеса.

Эффективным инструментом для вывода совершенного нового продукта на рынок одновременно с продвижением по околоцелевым запросам может стать реклама на площадке Яндекс.Дзен.

2. Низкий спрос на продукт

Бывает обратная ситуация когда продукт существует давно, но спрос на него крайне мал.

Если спрос на товар или услугу невелик, значит и трафик в поисковых системах ограничен. Круг людей, ищущих что-то подобное, так незначителен, что вкладывать большие средства в SEO не имеет смысла. Вложения попросту не окупят себя.

Поисковая оптимизация при отсутствии сколько-нибудь заметного спроса задействуется лишь в самых исключительных случаях. Например:

  • Если ваш продукт стоит дорого или очень дорого, то даже при низком спросе на него вложения в SEO могут окупиться.

  • Если конкуренция в каком-то сегменте не очень высокая, то и вложения в SEO могут быть небольшими и также смогут окупиться.

3. Спрос на ваш продукт устойчиво снижается

Спрос явление непостоянное. Он зависит от меняющихся потребностей людей, моды и сезонных факторов. Когда аудитория теряет интерес к тому или иному продукту, динамика поискового спроса показывает устойчивый нисходящий тренд. В такой ситуации вкладываться в SEO рискованно пока вы занимаетесь раскруткой, спрос может упасть до нуля.

Поэтому важно следить за трендами это не просто модное слово, а значимый маркетинговый фактор.

Практически ни один продукт не защищен от падения спроса. Яркий пример спиннеры, которые резко ворвались на рынок и в настоящее время выходят из моды.

4. ТОП выдачи занят крупными площадками

Очень сложно продвигаться в нише, где ТОП-10 поиска занят сайтами-агрегаторами, маркетплейсами, досками объявлений, информационными или новостными ресурсами. Это крупные площадки, конкурировать с которыми крайне затратно и зачастую бессмысленно.

Поисковые системы отдают предпочтение крупным агрегаторам и маркетплейсам, поскольку они обладают развитой структурой, предлагают пользователям большой выбор, а в силу развитой конкуренции здесь более низкие цены.

Такие популярные сайты как Авито, Авто.ру, Циан или Wildberries привлекают огромный трафик и имеют высочайший авторитет в плане цитируемости (упоминания).

Так стоит ли даже пытаться бороться с мастодонтами? Если вы видите, что в выдаче, помимо агрегаторов, нет ваших прямых конкурентов это свидетельствует о том, что крупные площадки собирают основной трафик. А значит, нужно идти и раскручиваться на них то есть использовать эти площадки как каналы продаж.

Но навязать конкуренцию маркетплейсам и доскам объявлений, все же, можно например, через альтернативные и менее конкурентные запросы, по географической привязке (местным сайтам люди доверяют больше), а также через расширение ассортимента и копирование главных конкурентных преимуществ больших площадок.

5. Ваш ассортимент значительно меньше, чем у конкурентов

Наличие широкого ассортимента одно из важных конкурентных преимуществ бизнеса. Людям нужен выбор, они любят сравнивать и выбирать из большого количества предложений. Это позволяет находить нужное по лучшей цене.

Поэтому, если на вашем сайте представлено 5 кукол, а у конкурентов их тысяча вкладываться в SEO на данном этапе не следует. Нужно сперва проработать ассортимент расширить его за счет новых позиций, в том числе тех, которых нет у ближайшего конкурента.

Если не заниматься расширением ассортимента, продвигаться будет сложнее и дороже. Поведенческие факторы будут работать не в вашу пользу, да и конверсия окажется низкой, так что вложения могут не окупиться.

6. Ваш продукт проигрывает в соотношении цена-качество

Не увенчается успехом продвижение сайта, на котором представлены товары или услуги заведомо более низкого качества по той же или более высокой цене, чем у конкурентов.

Современные пользователи хорошо ориентируются в ценах и имеют возможности выбора. Они доверяют сайтам с гарантиями и реальными отзывами, поэтому почти всегда выбирают оптимальное сочетание качества и цены.

Если вы предлагаете детские коляски безвестной китайской марки по ценам итальянских брендов, покупатели наверняка уйдут к конкурентам, где за те же деньги можно купить проверенное качество.

В этом случае даже, если SEO сработает и принесет вам много трафика, оно не будет конвертироваться в продажи. А следовательно, теряется весь смысл продвижения.

7. У вас нет уникального торгового предложения (УТП)

Прежде чем вкладываться в SEO, следует хорошенько поработать над маркетингом в частности продумать УТП. Ваше предложение должно чем-то выгодно отличаться от всего, что предлагают конкуренты, чтобы также обеспечить конверсию.

Сильной стороной может быть качество или цена, удобная доставка или профессиональная консультация, или самый большой ассортимент в нише. Еще лучше добавить некую ценность, которую не смогут скопировать конкуренты.

Если вы занимаетесь установкой входных металлических дверей и знаете, с какими трудностями сталкиваются заказчики в вашем районе (нестандартные проемы, необходимость дополнительной отделки) предложите им комплексный продукт, включающий нестандартную дверь с отделкой под ключ по цене типового продукта. В этом случае SEO сработает и обеспечит желаемую конверсию.

8. Вы не желаете или не имеете возможности дорабатывать сайт

SEO-специалисты отнюдь не волшебники, да и поисковые системы сегодня не дают творить чудеса (например, массовыми закупками текстов и ссылок).

Современная поисковая оптимизация предполагает приведение сайта в соответствие с требованиями и ожиданиями пользователей. Кроме того, часто требуется изменение структуры ресурса, создание каких-то новых разделов и страниц, доработки функционала. В рамках продвижения ведется наполнение контентом, осуществляются технические настройки.

Поэтому, если вы не готовы дорабатывать сайт, как того требует SEO-специалист, то, вероятно, не стоит начинать поисковое продвижение. Альтернативное решение настроить контекстную рекламу.

9. Нет денег, маленький бюджет

Нужно понимать, что SEO это трудоемкий и долговременный процесс, требующий вложений. Средства вкладываются, в том числе, в доработку сайта и создание контента. К тому же, конкуренция в поиске такова, что с маленьким бюджетом трудно рассчитывать на большой результат.

Бывает так, что все ресурсы вложены в создание и запуск сайта. Оставшиеся средства ушли на контекстную рекламу и социальные сети но выхлопа нет. Принимается решение хоть как-то продвигаться в поиске. Однако, если у вас нет бюджета на продвижение или он крайне ограничен не стоит надеяться на SEO, чудес не бывает.

Если денег нет, советуем попробовать осваивать поисковую оптимизацию самостоятельно или с привлечением менее раскрученных и распиаренных агентств или специалистов.

10. У вас одна посадочная страница в высококонкурентной тематике

Ваш лендинг может быть успешен в низкоконкурентной нише. Но в тематике с высокой конкуренцией он, вероятнее всего, проиграет многостраничным сайтам.

Чем сложнее и конкурентнее тематика, тем больше требований предъявляется к сайтам, к количеству и качеству страниц. Для полноценного развития сайта часто на нем требуется создавать отдельные страницы, оптимизированные под соответствующие запросы.

Например, даже если вы предлагаете услуги эвакуатора можно выделить разделы Легковой эвакуатор и Грузовой эвакуатор, а также создать региональные страницы (Эвакуатор в Коломне, Эвакуатор в Серпухове и т. д.).

Заточенный под конверсию, лендинг весьма ограничен в оптимизации. Для продаж с одностраничника рекомендуем все-таки использовать контекстную рекламу.

11. Нет никаких альтернативных каналов продаж, а продажи нужны сразу

Не стоит делать ставку на SEO, когда нет больше никаких каналов продаж, а заказы нужны здесь и сейчас. Чтобы получить результат от поисковой оптимизации, требуются немалые ресурсы в виде бюджета и времени. Поэтому, иногда прежде чем вкладываться в SEO, разумно сосредоточиться на тех каналах продвижения, которые могут обеспечить быстрые продажи.

Например, чтобы запустить онлайн-школу английского языка, лучше первоначально вложиться в социальные сети и настроить контекстную рекламу, а также использовать рассылки и другие подобные инструменты раскрутки.

Нужно ли вам SEO?

Как видите, ставка на SEO не всегда оправдывает себя. Поисковая оптимизация длительный и ресурсоемкий процесс, который приносит плоды, но только при определенных условиях. Если они заведомо невыполнимы, вы рискуете потерять и деньги, и время. Выбирайте исполнителей, которые вводят клиентов в курс дела и предоставляют объективную информацию о возможностях продвижения сайта, о потенциальных точках роста и перспективах его развития.

Подробнее..

Склонение фраз по падежам

24.03.2021 00:15:52 | Автор: admin

В бытность мою сеошником, прости господи, часто нужно было приводить различные фразы к различным падежам. Т.к. сейчас уже я довольно далек от темы продвижения сайтов, а наработок осталось много, хочу поделиться некоторыми. В частности сегодня, отдаю в свободное пользование тему для склонения фраз по падежам. Склонять можно в единственном и множественном числе.

В отличие от некоторых популярных сервисов, фразы склоняются нормально. И правильно.

Например, офисное оборудование - довольно геморройная фраза, т.к. стандартными средствами она склоняется, как офисными оборудованиями. У меня склоняется вот так:

{"PREP":{"O":"об","S":"с","V":"в"},"SINGLE":{"ORIGINAL":"офисное оборудование","GENT":"офисного оборудования","DATV":"офисному оборудованию","ACCS":"офисное оборудование","ABLT":"офисным оборудованием","LOCT":"офисном оборудовании"},"PLURAL":{"ORIGINAL":"офисное оборудование","GENT":"офисного оборудования","DATV":"офисному оборудованию","ACCS":"офисное оборудование","ABLT":"офисным оборудованием","LOCT":"офисном оборудовании"}}

В prep приводится то, какой предлог должен стоять перед фразой. ОБ офисном оборудовании, например. СО свежей рыбой и т.д.

Далее идет склонение по падежам для единственного и множественного числа. Не всегда распознает четко, поэтому, если есть начальные данные по числу, лучше отправлять в единственном.

Есть еще небольшая приблуда для перевода числа в текст. Нужно для чеков, накладных и т.д. Выглядит примерно так:

{"DIGIT":{"ORIGINAL":"123456789.65","STRING":{"FULL":"сто двадцать три миллиона четыреста пятьдесят шесть тысяч семьсот восемьдесят девять рублей 65 копеек","SHORT":"сто двадцать три миллиона четыреста пятьдесят шесть тысяч семьсот восемьдесят девять"}}}

Как использовать

Для перевода числа в текст, нужно GET запросом обратиться к
http://cityninja.ru/morpher/digit/123456789.65/.

Для склонения фразы, нужно обратиться через GET к
http://cityninja.ru/morpher/солнечный день/

Раньше уже публиковал эту тему на Сёрче. Сейчас пользуются примерно по 1.6 - 2 млн запросов в месяц. Нагрузки это не генерирует вообще никакой.

Для чего можно пользовать? Например на страницах интернет-магазинов, где желательно использовать H1, H2, H3 заголовки, можно делать таким макаром...

H1 - Стиральная машина Blabla H24-57
H2 - Купить стиральную машину Blabla H24-57 в Екатеринбурге с доставкой
H3 - Интересуетесь стиральными машинами Blabla H24-57? Их есть у нас.

Т.к. Яндекс для магазов генерит около 70% трафика, при этом Яндекс раздупляет правильность склонений и т.д. Против роботов нужно работать роботам.

В общем, пользуйтесь. И да, это бесплатно и останется бесплатно.

Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru