Русский
Русский
English
Статистика
Реклама

Поисковая оптимизация

Перевод Самый популярный HTML-редактор в выдаче Google это афера с поисковой оптимизацией

08.06.2021 14:19:38 | Автор: admin
Это история о том, как я случайно обнаружил масштабную аферу с поисковой оптимизацией.

Резюме


Некоторые высокорейтинговые онлайн-инструменты для редактирования или очистки HTML, похоже, тайно вставляют ссылки в свои выходные данные, чтобы протолкнуть себя и связанные с ними сайты в рейтинге поисковых систем. Эта афера очень успешна и, похоже, до сих пор оставалась незамеченной.

Инструменты, которые, кажется, делают это, созданы одними и теми же людьми:

  • html-cleaner.com
  • html-online.com/editor/
  • html5-editor.net
  • htmlg.com
  • и другие

Жертвами этого стали сайты BoingBoing, официальная футбольная ассоциация Германии и Kaspersky. Забавно, что хакнутая статья Касперского посвящена защите от хакеров.

Обнаружение подозрительного


Итак, вот подробный отчет о том, как я сделал это открытие, вместе с доказательствами, которые я обнаружил.

Все началось с загадки продукта, который я создаю. Продукт представляет собой онлайн-табло, и, несмотря на наличие (что я думаю) надежной стратегии SEO, мне не удалось завоевать желанное первое место на странице результатов поисковой системы. Последние 12 месяцев меня всегда опережал участник под названием Scorecounter.

image

Теперь, в связи с особенностями моего продукта, люди делятся ссылками на него и встраивают его на свои веб-сайты, а это означает, что со временем я накапливаю много входящих ссылок. Со временем мой рейтинг SEO станет непревзойденным. У конкурента нет такой заметной виральности, как у меня, но он у меня всегда лучше, чем у SEO. Какой трюк они используют?

Итак, вчера вечером я выпил 2 стакана красного вина и вместо того, чтобы удалять производственную базу данных (как в прошлый раз), я решил разобраться в ней. Я заплатил за подписку Ahrefs и взглянул на профиль обратных ссылок Scorecounter. Вот что я нашел:

image

Scorecounter имеет 3600 входящих ссылок, которые он накопил за очень короткое время. Впечатляющие!

Затем я начал просматривать страницы, содержащие ссылки, и именно здесь у меня возникли подозрения.

Например, я видел сообщение в блоге Немецкой футбольной ассоциации, содержащее ссылку на Scorecounter. Слово, на которое была сделана ссылка, было оценка (score), но наличие ссылки здесь не имело абсолютно никакого смысла в контексте статьи. Что происходило?

Вот еще несколько примеров ссылок, которые я нашел на случайных доменах (вам нужно искать на странице оценка).


У них есть страницы и страницы (посмотрите сами, если у вас есть учетная запись Ahrefs).

Поэтому я написал несколько электронных писем на 1-2 из этих сайтов и спросил их, почему на их страницах есть эти ссылки. Все ли эти сайты продавали ссылки?

Я получил следующий ответ от новостного онлайн-портала:

Спасибо, что обратились к нам. Нет, мы не продаем ссылки ни за какие деньги.

На самом деле я использовал очиститель HTML (html-online.com/editor/) с прошлого года, который в первые месяцы работал нормально, как и предполагалось, но несколько недель назад я понял, что инструмент внезапно начал тайно вводить ссылки в содержание HTML документа.

Для нескольких публикаций я не смог обнаружить подобное, но когда я узнал об этом, все сообщения, которые я мог вспомнить, были очищены вручную. Оказывается, к сожалению, некоторые из них, как вы отметили, все еще там. Я сегодня просто найду-и-заменю эту ссылку из всей базы данных для большей безопасности.

Бинго


Ага! Вот в чем был секрет: создатели Scorecounter также сделали онлайн-редактор HTML, который вставляет ссылки по определенным ключевым словам. Прелесть этой аферы в том, что, внедрив ссылки в свой собственный редактор HTML, они создали замечательный цикл положительной обратной связи: чем выше он поднимается в рейтинге поиска, тем больше людей используют его и тем больше секретных ссылок они могут ввести.

Теперь, если вы чувствуете себя очень великодушным, вы можете возразить, что редактор это инструмент freemium, а добавленные ссылки это то, как вы платите за бесплатную версию. Что ж, я не чувствую себя великодушным, подозреваю, что и Google тоже.

Помимо улучшения самого HTML-редактора и Scorecounter, я нашел третий продукт, который пользовался всеобщим вниманием:

Кубик Рубика


Ruwix.com создан теми же людьми и посвящен знаменитой головоломке. Опять же, очень легко найти большое количество обратных ссылок на Ruwix.com на случайных сайтах с помощью Ahrefs.com. Каждая из этих статей представляет собой несоответствие в тексте, в который они втиснуты, что показывает мне, что авторы этих статей понятия не имели, что происходит. Взгляните (на странице нужно искать Rubiks):


UPD: Касперский удалил ссылку, но у меня есть скриншот:
image

Чтобы узнать, насколько распространена эта инъекция, попробуйте поискать в Google: Learn how to solve a Rubix Cube with the beginner method. Более 600 посещений на самых разных сайтах. Удивительно, но ссылка даже пробралась в исследовательскую статью (она находится на странице 24, внизу раздела Ссылки)!

Целая сеть инструментов


Покопавшись в обратных ссылках, я обнаружил, что существует целая сеть инструментов, которые являются частью одной операции. У всех одинаковые профили обратных ссылок. Они включают:

  • htmltidy.net
  • html-css-js.com
  • divtable.com
  • html-cleaner.com
  • html5-editor.net
  • htmlg.com

Выполнение поиска в Google по запросу HTML Editor показывает, что эти инструменты занимают три верхних позиции в результатах поиска. Это демонстрирует, насколько успешной была эта афера.

Внедрение ссылок упоминается в Условиях Использования этих инструментов


Это правда, что условия использования по крайней мере одного инструмента содержат следующее:

Мы показываем рекламу и можем случайным образом разместить ссылку на конец очищенных документов.

Я искренне сомневаюсь, что этого отказа от ответственности достаточно, чтобы предотвратить кару от Google. Скоро мы это выясним.
Подробнее..

SEO-friendly HTML для верстальщика

27.01.2021 18:04:51 | Автор: admin

В этой статье не будет подробного разбора всех аспектов SEO-friendly сайта. Я собрал здесь лишь тот объем информации, с которым мне необходимо было познакомиться для решения SEO-задач в компании.


В компанию ВсеИнструменты я попал больше года назад. До того момента мне еще не приходилось так тесно заниматься задачами поисковой оптимизации, а возраст и размер проекта лишь прибавляли волнения при решении seo задач. Так или иначе тот период прошел, и я не испортил своими правками уровень сайта в выдаче, благо мне помогали коллеги из SEO-подразделения.

Наш сайт, без преувеличения, состоит из огромной кодовой базы, и каждый день мы планомерно улучшаем его, добавляя новые фичи и исправляя существующие баги. Еще в начале своего пути я получил несколько крупных задач по улучшению текущей верстки проекта с использованием validator.w3.org. После окончания работ над этими задачами у меня возникла мысль собрать некоторую информацию по написанию валидной и SEO-пригодной верстки в одну небольшую статью с указанием ссылок на дополнительную и более подробную информацию.

Вы познакомитесь с несколькими важными областями валидной SEO-верстки и найдете примеры работы с validators.w3.org. Дополнительные материалы, указанные ниже, будут весьма полезны в повседневной работе верстальщика.

Семантические теги

Семантическая верстка - это html элементы со смыслом понятные разработчику, браузеру и поисковым роботам. К таким относят: header, footer, main, article, section, nav, aside и тд. Использование перечисленных тегов описывается по спецификациям W3C или WHATWG. Короткую вводную можно получить в цикле видео\статей HTML шорты от Вадима Макеева. Приведу описание к нескольким тегам.

Section - определяет раздел в документе. В соответствии со спецификацией W3C по HTML5: "Раздел это тематически сгруппированный контент, как правило с заголовком."
Article - определяет независимый, самодостаточный контент. Контент, помещенный в этот элемент, должен иметь смысл сам по себе, т. е. он должен быть понятен в отрыве от остальных частей веб-сайта.
Подробнее о article, а так же section написано здесь.
Header - предназначен для определения заголовочного блока или "шапки" документа или раздела. Подробнее здесь.
Footer - предназначен для определения "подвала" документа или раздела.
Nav - Предназначен только для основного блока навигационных ссылок.
Aside - определяет некий контент, находящийся в стороне от контента, внутри которого он расположен (как боковой блок страницы, "сайдбар").

В целом, тема доступности сайтов довольно обширна. Со всеми нюансами предлагаю ознакомиться в этой статье и еще советую пройтись по всей серии HTML шорты. Еще могу посоветовать ресурс Веб стандарты, некоторые статьи писали авторы спецификации HTML5 (переводы на русский). И для понимания, можно ознакомиться с контентной моделью HTML.

Микроразметка Schema.org

Чаще всего инструкции по включению микроразметки в HTML-код вы будете получать от SEO-специалистов. Но для понимания немного осветим эту тему.

Schema.org - стандарт семантической разметки данных, который помогает поисковикам лучше понимать данные, представленные на сайте. Например, с помощью разметки можно явно указать поисковым роботам, что на странице site.ru/product_page1 находится товар, и передать основные параметры: название, цену, артикул, производителя и т.д. На основе этих данных поисковики формируют расширенные сниппеты в поисковой выдаче.

Сайты с разметкой отличаются от остальных тем, что в поисковой выдаче их сниппеты более информативны и привлекательны. Они включают в себя больше полезного контента для пользователя. Если конкурент окажется в выдаче выше, но, допустим, у него не будет микроразметки либо там будут реализованы не все фичи, наш сниппет может оказаться больше и привлекательнее. Впоследствии это может выразиться в большем количестве переходов и, соответственно, повышении поведенческих факторов, что в итоге поднимет позиции в выдаче.

Подробно о микроразметке написано в вики Яндекса. Документация Schema.org. Так же стоит обратить внимание и на гайд от Google.

Как проверить свой HTML

Так как один из критериев к SEO - это валидная верстка, необходимо прогонять написанный код через ранее упомянутый валидатор. К слову, помимо него есть валидатор от Google - в нем необходимо следить за выбранным роботом (Компьютер/Смартфон) и инструмент от Яндекса. Эти инструменты помогут Вам в задачах связанных с микроразметкой. Следует сравнивать новый и старый код, удостовериться, что ошибок нет и все существующие ранее сущности правильно считываются.

В целом, работа с ними сводится к тому, чтобы скопировать HTML код из браузера и вставить его в соответствующее текстовое поле валидатора. Можно копировать куски кода сразу из вашего IDE, но это должен быть чистый HTML с готовыми данными. После прохождения проверки вы будете получать уведомления о различных ошибках в коде. Warning можно опустить. Но от всех Error необходимо избавиться, чтобы верстка удовлетворяла принципам валидной HTML-страницы. В процессе работы могут возникнуть нерешаемые проблемы. Такое стоит гуглить и принимать во внимание, что валидаторы могут не поспевать за всеми нововведениями.

Перейдем к нескольким конкретным примерам (не)валидной верстки и их проверке с validator.w3.org.

Списки

К спискам относятся теги ul и ol (маркированные и нумерованные соответственно).
Выглядит это так:

<ul><li>item 1</li></ul><!-- или --><ol><li>item 1</li></ol>

Внутри открывающего и закрывающего тегов ul могут стоять только элементы li, а уже внутри самих этих элементов (пунктов) можно вставлять любой контент (текст, картинки, заголовки, абзацы, ссылки и даже другие списки). То есть, <ul><div></div></ul> является не валидной версией, и https://validator.w3.org/nu/ явно об этом напишет в выводе ошибок (Рис 1).

Рис 1. Ошибка спискаРис 1. Ошибка списка

Ссылки

В использовании тега <a> тоже есть нюанс, в href недопустимы пробелы. То есть, <a href="tel:+7 (967) 321-22-33">phone</a> не является валидным вариантом (Рис. 2), однако <a href="tel:+7(967)321-22-33">phone</a> соответствует всем критериям.

Рис 2. Ошибка ссылкиРис 2. Ошибка ссылки

Атрибуты

У каждого html тега есть свой набор валидных атрибутов. Часть из них можно увидеть здесь, остальное можно найти тут.
При использовании атрибутов необходимо помнить, что существуют устаревшие.

Таблицы

Часто приходится немного корректировать базовые стили таблицы. Раньше такое реализовывалось через соответствующие атрибуты.

<table border="1" cellpadding="0" cellspacing="0" width="400"></table>

На данный код мы получим сразу 4 ошибки об устаревших атрибутах (Рис. 3).

Рис 3. Устаревшие атрибуты таблицыРис 3. Устаревшие атрибуты таблицы

Это можно спокойно переписать с использованием стилей и классов.

Резюмируя вышеописанное получим примерно такой код:

<style>.table {  border-collapse: collapse;    width: 400px;    border-spacing: 0;   }.column {    padding: 0;    border: 1px solid #333;  }</style><table class=table>  <tr>  <td class=column></td>  </tr></table>

Подобное решение относится ко всем атрибутам, влияющим на стили элементов. Но есть такие, которые относятся к логике DOM-элементов. Чаще их реализация полностью падает на браузеры. Остальное можно реализовать с помощью JavaScript.

Атрибут id

Этот атрибут является неотъемлемой частью HTML. На нем часто завязаны стили и клиентский JavaScript. Данный подход уже давно не используется ввиду усложнения поддержки написанного кода. Используя id в браузере, часто можно наткнуться на проблему отсутствия уникальности значений этого свойства. Поэтому чаще всего чистый id заменяют на data-id или более специфичные названия. У нас часто используются data-атрибуты data-behavior и data-selector. Первый подходит для взаимодействия с пользователем, второй чаще используется для манипуляций с DOM. Однако, насколько я знаю, это необязательное правило. Помимо этого, в css можно писать код с обращением в любые из свойств элементов, будь то data-* или любой другой атрибут.

Пример микроразметки

Помимо примеров валидной верстки хотелось бы привести небольшой кейс использования микроразметки Schema.org. Используя микроразметку, желательно размечать верстку, которая видна на странице и никоем образом не скрывается от пользователя при помощи opacity, visibility, display или top/left/right/bottom: -100500px. Поисковики не жалуют скрытый контент. Иногда бывают исключения, но их стоит уточнять у SEO специалистов.

Перед тем, как мы продолжим хотелось бы описать значение используемых атрибутов:

Itemscope - задает область действия словаря в структуре данных. Как правило, работает совместно с атрибутом itemtype и задаёт пределы, где itemtype будет активен. У этого атрибута нет значений.

Itemtype - указывает адрес словаря, который будет применяться для определения свойств элемента в структуре данных. Яндекс и Google поддерживают стандарт разметки Schema.org. Соответственно, в качестве значения itemtype указывается адрес словаря на этом сайте. К примеру, для разметки организаций используется значение https://schema.org/Organization.

Itemprop - используется для добавления свойств словаря микроданных к элементу. Имя свойства определяется значением itemprop, а значение свойства определяется содержимым HTML-элемента, к примеру, текстом который располагается внутри элемента.
Приведем пример микроразметки Article.

<div itemscope="" itemtype="http://personeltest.ru/aways/schema.org/Article"><...>         <div class="article-meta">     <div       itemprop="author"       itemscope=""       itemtype="http://personeltest.ru/aways/schema.org/Person"     >       <span         itemprop="name"         class="meta-item"       >         ВсеИнструменты.ру       </span>     </div>     <time       itemprop="datePublished"       class="datetime meta-item"       datetime="{{ article.getUpdatedTimeObj().format('Y-m-d') }}"     >       {{ article.getUpdatedTimeObj().format('d.m.Y') }}     </time>   </div>   <meta      itemprop="description"      content="{{ article.getShemaOrgDescription() }}"   />   <div     itemscope     itemprop="image"     itemtype="http://personeltest.ru/away/schema.org/ImageObject"   >     <img       itemprop="url"       src="{{ article.getShemaOrgImageUrl() }}"       alt=""       class="d-none"     >   </div>   <...></div> 

В данном примере представлена микроразметка статьи. Действие микроразметки ограничено дивом с атрибутами itemscope, itemtype = Article. Внутри включает микроразметку автора статьи и дату публикации. Включает в себя также краткое описание статьи и изображение. В данном кейсе при помощи бэкенда на этапе публикации парсится весь список изображений и выдается фронтенду при помощи метода getShemaOrgImageUrl().

Я не хотел бы сильно погружаться в детальные гайды по микроразметке, поэтому просто укажу несколько полезных статей на эту тему.
1. Микроразметка для сайта интернет-магазина: как настроить разметку Schema.org для товаров и категорий
2. Микроразметка товаров

Итог

Хотелось бы, чтобы этот материал был вам полезен. Я старался предоставить информацию для работы с SEO-версткой максимально сжато. Надеюсь, я смог достичь этой цели. Данной информации не хватит для формирования по-настоящему SEO-friendly сайта, поэтому я рекомендую использовать дополнительные материалы при разработке своих страниц. Эта тема сложна и обширна. Для плодотворного продвижения и удержания позиций сайта в поисковой выдаче необходимо работать в паре с SEO-специалистом и постоянно вести работы над улучшениями своих продуктов. Спасибо за уделенное время!

Подробнее..

SEO-оптимизация сайта на React или как добиться конверсии от поисковиков если у вас Single Page Application

30.11.2020 14:07:23 | Автор: admin
SEO-оптимизация сайта на React или как добиться конверсии от поисковиков если у вас Single Page ApplicationSEO-оптимизация сайта на React или как добиться конверсии от поисковиков если у вас Single Page Application

Смоделируем ситуацию: Вы являетесь членом команды веб-разработчиков, занимающихся созданием frontend-части молодого интернет-ресурса на базе React. И вот, когда уже начинает казаться что ваша разработка достигла определенной функциональной, качественной и эстетической кондиции, вы сталкиваетесь с достаточно сложным и не менее интересным вопросом: А что делать с SEO? Как добиться качественной конверсии от поисковых систем? Как сделать так, чтобы о вашем ресурсе узнал весь мир, не вкладывая в это огромного количества денег за платные рекламные компании либо сил в крупномасштабную дополнительную разработку? Как заставить контент вашего Single Page Application работать на вас в поисковых выдачах и приносить клиентов? Интересно? Тогда поехали

Привет! Меня зовут Антон и я являюсь full-stack-разработчиком со стажем работы более 12 лет. За время своей трудовой деятельности я работал над проектами различной сложности и с разнообразными стеками технологий. Последние 6 лет я сосредоточил scope своего внимания в большей мере на frontend, который стал в итоге профильным направлением, так как привлек у меня больший интерес по сравнению с backend-ом (не хочу при этом сказать, что backend в целом менее интересен. Просто дело вкуса и особенности развития карьеры исключительно в моём личном случае).

В данный момент я являюсь team-лидером команды разработчиков на проекте Своё.Жильё - это экосистема Россельхозбанка с помощью которой можно выбрать недвижимость, рассчитать стоимость кредита, подать заявку и получить ответ в режиме онлайн. Уже сейчас в экосистеме есть возможность оформить заявку на ипотечный кредит и выбрать недвижимость из более чем 1,2 млн вариантов жилья. Набор онлайн-сервисов позволяет сократить количество посещений офисов банка до одного непосредственно для подписания кредитного договора и проведения расчетов с продавцом.

Проект на момент написания данного материала является еще достаточно молодым, но уже начал приносить заметную конверсию в общую бизнес-модель банка.

Используемый стек и преследуемые цели

Не буду заострять внимание на полном стеке frontend технологий, используемых экосистеме Своё Жилье, а опишу лишь то, что действительно важно для дальнейшего рассказа, чтобы стало понятно, с чем в результате мы имеем дело. А именно:

  • Webpack

  • React

  • Redux

Из вышеперечисленного сразу становится ясно, что на выходе мы получаем Single Page Application на React, что влечет за собой как безграничное количество возможностей и плюсов данного стека, так и ряд подводных камней, связанных с реализацией SEO-friendly ресурса, который сможет в конечном счёте выполнить ряд задач, важных для продвижения в поисковых системах, социальных сетях и так далее:

  • Поисковой робот должен видеть все ссылки на страницы сайта;

  • Контент каждой из страниц должен быть доступен для индексирования поисковым роботом, дабы попасть в итоге в выдачи результатов поиска;

  • Контент страниц для корректной индексации должен содержать все необходимые элементы, важные для создания SEO-оптимизированного сайта.

В данном списке я не затрагиваю задачи, которые необходимо решать на стороне backend (такие как поддержка last-modified, оптимизация скоростных показателей и т.п.), чтобы искусственно не раздувать общий материал и не отвлекаться от основной темы.

Казалось бы, перечень задач не так велик и решался бы практически из коробки на любом обычном относительно стандартном интернет ресурсе Но тут нужно вернуться к тому, что мы имеем дело не с привычным веб-сайтом, у которого все страницы с их контентом отдаются с backend-а, а с Single Page Application, у которого контент страничек рендерится (отрисовывается средствами js) на стороне браузера. А ведь львиная доля поисковых роботов не умеет выполнять js-код при обходе интернет-ресурсов, и поэтому они попросту не увидят наш контент (Google умеет, но делает это пока недостаточно корректно и эффективно. Да и кроме Google, есть еще множество других целевых поисковых систем и кейсов, при которых голый SPA не сможет решить поставленные задачи).

Поэтому давайте нальём тёплого чайку и поэтапно пройдемся по целям и тому, что в них должно включаться для понимания и подбора оптимальных решений поставленных задач.

Для того, чтобы поисковые роботы увидели страницы сайта, им необходимо иметь возможность прочесть контент страницы, в том числе содержащий ссылки на другие страницы (при этом подход с sitemap я тут описывать не буду, но упомянул, на случай если кому-то станет интересно, можете погуглить. Мы пока обходимся без карт). Из этого вытекает, что поисковой робот всё же должен по старинке загрузить html-разметку, содержащую контент страницы с web-сервера. Ну и конечно же, каждая из страниц, запрашиваемых с web-сервера, должна отдавать код 200 (случаи с необходимостью переадресаций с кодом 301 я тут также рассматривать не буду) и приходить в виде стандартного html-документа, содержащего текстовый и медиа-контент данной страницы, а так же ссылки на другие страницы и, конечно же, необходимые для SEO-оптимизации элементы, такие как ряд обязательных meta-тегов, заголовков и так далее. Общий список необходимого SEO-тюнинга любого веб-ресурса достаточно велик и про него можно написать отдельный материал и не один. Затронем тут обязательный план минимум, который включит в себя следующие пункты:

1 - Каждая из страниц ресурса должна в блоке <head> включать в себя:

  • Meta-тег title (заголовок страницы)

  • Meta-тег description (описание страницы)

  • Meta-тег keywords (перечень ключевых фраз)

2 - Каждая страница должна иметь в блоке <body> основной заголовок внутри html-элемента <h1> расположенный как можно выше перед началом текстового контента.

3 - Каждое изображение, которое присутствует на странице в виде html-элемента <img>, должно иметь атрибут alt, описывающий содержимое данного изображения.

Ну и конечно же, на сайте не должно быть битых ссылок отдающих с web-сервера код ошибки 404 (либо иной) или какой-либо пустой контент вместо ожидаемого.

И тут снова вспоминаем, что у нас SPA (Single Page Application) и с backend-а приходит лишь пустая часть разметки html-документа, включающая в себя информацию для загрузки js и css кода, который после загрузки и выполнения отрисует нам контент запрошенной страницы.

Вот тут мы и начнем наши танцы с бубном. Перед началом хочется отдельно отметить, что на момент моего прихода в проект, он уже был частично написан с минимальным функционалом. И конечно хотелось реализовать SEO-оптимизацию с минимальным затрагиванием общей архитектуры приложения.

Подбор решения и реализация

Что же делать, если у Вас уже есть готовый SPA, либо просто отточенный архитектурный подход, нарушать который ради SEO было бы кощунством?

Ответ: Реализация пререндеринга, как конечного шага сборки приложения. Пререндеринг это процесс выполнения js-кода после его основной сборки и сохранение получившихся html-копий отрисованных страниц, которые в последствии и будут отдаваться с web-сервера при соответствующих запросах.

Пререндеринг

Для реализации данного кейса есть ряд готовых решений и инструментов с различными ограничениями, подходящих для разных стеков frontend-технологий и с разным уровнем сложности внедрения.

Конечно есть такие решения как Next.Js и ему подобные (а также другие способы реализации того же SSR). И я не могу не упомянуть об этом. Но изучив их, я пришел к выводу, что они вносят ряд ограничений (либо усложнений) в процесс конфигурации основной сборки и имеют крайне заметное влияние на архитектуру приложения. Также, есть сторонние внешние сервисы пререндеринга, но для закрытой экосистемы банка лишний внешний инструмент был бы крайне нежелателен (и опять же, зачем перекладывать зону ответственности на внешний инструмент, если можно реализовать его функционал внутри проекта).

После анализа, я пришел к максимально подходящему нам инструменту для покрытия описанных кейсов, реализующему проход по страницам SPA на React (и не только) и создание html-копий страниц.

Выбор пал на React-Snap.

Если в двух словах, то данный инструмент позволяет после сборки осуществить запуск Chromium-а и передать ему получившееся приложение. Затем пройти по всем его страницам, используя пул найденных ссылок так, как сделал бы это поисковой робот. При этом html-копии отрисованных средствами js страниц будут сохранены в выбранный каталог с сохранением иерархии путей, из которых они были получены относительно корня проекта.

Важной отличительной чертой данного подхода и инструмента является то, что для реализации его работы не важна специфика архитектуры самого приложения, так как он абсолютно стандартным образом будет запускать Ваш заранее собранный SPA в практически обыкновенном браузере.

Установка React-Snap не вызывает никаких дополнительных вопросов, так как его пакет доступен для скачивания стандартным образом из npm (и yarn).

Что же касается его настройки, тут, пожалуй, стоит проговорить несколько основных моментов, чтобы упростить быстрый старт тем, кто ранее не сталкивался с данным инструментом.

Конфигурация запуска React-Snap описывается в корневом файле package.json проекта. Давайте рассмотрим пример минимальной конфигурации:

"scripts": {    // Необходимые команды запуска hot-а, сборки и т.п.    "build:production": "webpack --mode production && react-snap"    // Другие необходимые команды},"reactSnap": {    "source": "dist", // Каталог собранного приложения    "destination": "dist", // Каталог для сохранения html-копий    "include": [ // Список энтрипоинтов для обхода страниц        "/",        "/404",        "/500"        // Другие необходимые энрипоинты    ]}

На самом деле, полный перечень доступных настроек достаточно широк, но лучше не стану его расписывать, чтобы вы смогли осознанно выбрать только необходимое конкретно в вашем случае.

К примеру, запуск React-Snap можно осуществить, просто добавив в блок scripts команду:

"postbuild": "react-snap"

Но тогда он будет запускаться после каждого билда, а в проекте их может быть несколько вариантов (например, для production и тестового стенда, где на последнем нам наоборот, может быть не нужен SEO и какой-либо еще функционал, такой как инструменты аналитики типа Google Analytics и т.п.).

Что касается блока include, его желательно описать, иначе, например, html-копия для странички ошибки (500, либо другая техническая страница, при наличии) не будет создана, так как не на одной из страниц сайта не фигурирует ни одной ссылки на нее. Как следствие, React-Snap не узнает о её наличии. В теории и поисковик на них ходить не должен, но бывают случаи, когда страница создается для распространения ссылки за пределами сайта, а на сайте на нее ссылки может и не быть (к примеру, баннеры для рекламных компаний и тому подобное). Это как раз тот самый случай. Тут стоит проанализировать, нет ли у вас еще каких-то (возможно аналогичных технических) страничек, на которые прямые ссылки на сайте отсутствуют.

Далее, для нормальной работы самого React-приложения у конечного пользователя, поверх DOM который придёт с web-сервера, нам потребуется внести небольшую правку в корневой render:

import { hydrate, render } from "react-dom";//  Ваш кодconst rootElement = document.getElementById("root"); // (или ваш id при олтличии)if (rootElement.hasChildNodes()) { // Если в корневом элементе есть контент, то  hydrate(<App />, rootElement); // "цепляем" приложение на существующий DOM.} else { // Иначе рендерим приложение стандартным образом  render(<App />, rootElement);}

Вот и всё что нам потребуется для начала (а возможно в ряде случаев и в принципе всё что необходимо будет сделать). Уже можно попробовать выполнить build с созданием html-копий страниц вашего ресурса. На выходе (с приведенным выше конфигом) в каталоге /dist вы получите тот же набор js и css файлов (а также других ресурсов), что и ранее, index.html, плюс файл 200.html и другие html-файлы с копиями контента ваших страниц.

Для полноты картины сразу опишу небольшой подводный камень с пояснением, для понимания, что при таком подходе на реальном production-web-сервере вам нужно будет позаботиться о следующем нюансе

Ранее у вас скорее всего по умолчанию на любой запрос, если ресурс отсутствует физически на сервере, отдавалась index.html, которая запускала приложение. Далее, в соответствии с запросом из адресной строки, приложение отрисовывало необходимую страницу, либо страницу 404, если не находило соответствие. Теперь же, наш index.html уже не является пустым, а содержит контент главной страницы. Но страничка с пустой html-разметкой для случая попытки запуска страницы без html-копии всё же существует. Это та самая вышеупомянутая 200.html. Таким образом, на web-сервере необходимо перенастроить дефолтный ресурс для случая 404 с index.html на 200.html, чтобы избежать открытия кривых страниц (с контентом главной страницы поверх которого будет пытаться запуститься наш SPA) при обращении на страницы, html-копий для которых нет, либо просто при некорректном обращении на несуществующую страницу.

И вот у нас есть готовое приложение, страницы которого доступны для любого поисковика.

Meta-теги, заголовки, описания

Если с вышеописанным разобрались, то перейдем к реализации следующей части нашей задачи, а именно к необходимым meta-тегам и другим SEO-нюансам на страницах.

<!doctype html><html lang="ru">  <head>    <meta charset="utf-8">    <!-- ...и т.д. -->    <title>Контент meta-тега Title</title>    <meta name="description" content="Контент meta-тега Description">    <meta name="keywords" content="ключевые фразы для meta-тега keywords">  </head>  <body>    <div id="root">      <div className="content">        <h1>Заголовок страницы H1</h1>        <p>Текстовый контент страницы...</p>        <img alt="Описание изображения" src="...">        <!-- ...и т.д. -->      </div>    </div>    <script src="http://personeltest.ru/aways/habr.com/application.js"></script>  </body></html>

На заголовки <h1> и alt-ы для картинок особое внимание заострять не буду. Тут всё просто: идем по существующему js-коду react-компонентов страниц и добавляем там, где этого нет (а также не забываем это делать в дальнейшем для новых компонентов). А вот относительно meta-тегов title, description и keywords стоит немного поговорить отдельно. Они должны быть уникальными для каждой страницы. О том, зачем нужен каждый из них и как его стоит формировать, будет полезнее почитать более профильные материалы по SEO. Для нас же стоит более прагматичная задача реализовать средствами js изменение контента данных тегов при навигации между страницами (таким образом у каждой html-копии страницы они будут разными как и положено, а при дальнейшей навигации по приложению после его запуска, они так же будут меняться в зависимости от текущей странички, но уже силами js приложения).

В целом, для реализации данного функционала есть готовый инструмент:

React-Helmet

Можно использовать его, либо на его основе написать что-то своё. Суть дела не изменится. Предлагаю просто перейти по ссылке и изучить то, что делает данный React-компонент и воспроизвести у себя необходимый функционал с его помощью либо написав собственное решение.

В итоге мы добавили необходимые для эффективного SEO элементы на страницы нашего интернет-ресурса.

Подводные камни, нюансы реализации и советы

Хочу в первую очередь затронуть один нюанс, знать о котором будет полезно при дальнейшей разработке. Как правило, при создании html-копий рано или поздно появятся кейсы, при которых поведение приложения для пререндера должно будет отличаться от поведения приложения в браузере у реального пользователя. Это может касаться случаев, начиная от наличия каких-либо прелоадеров, которые не нужны в html-копиях или статистического функционала, который не должен выполняться на этапе создания html-копий (и возможно даже будет вызывать ошибки при их создании) заканчивая банальным объявлением адреса для API backend-а, который вероятно настроен у вас для hot в разделе devServer webpack-конфига как proxy, а в самом приложении указан как относительный, что не заработает, так как во время работы пререндера hot не запущен и нужно ходить на реальный адрес backend-а. Как вариант, могу также привести пример в виде распространенного окошка, которое сейчас есть практически на любом интернет-ресурсе, говорящее о том, что на сайте используются Cookies. Как правило, окошко отображается на любой страничке, пока пользователь в какой-то момент один раз не закроет его. Но вот беда: пререндер то не знает, что что-то нужно закрыть, а соответственно контент данного окошка будет присутствовать на всех html-копиях, что плохо для SEO.

Но не всё так страшно и решение есть. В таких местах в приложении мы можем использовать условие для запуска тех или иных функций (или использования тех или иных переменных, как в примере с адресом API). Дело в том, что у пререндера есть специфическое имя user-agent-а ReactSnap (кстати через параметры можно задать своё при необходимости). К примеру:

const isPrerender = navigator.userAgent === "ReactSnap";

Как и где это можно объявить и использовать, думаю, не нуждается в дальнейшем объяснении. Полагаю, как минимум пара мест, где это пригодится, найдётся в любом проекте.

Также стоит затронуть случай, с которым с большой долей вероятности вам придется столкнуться. А именно: React-Snap обошел не все страницы, либо, нам стало необходимо, чтобы он не заходил в какие-либо разделы или на определенные страницы и не создавал для них html-копии.

Тут сразу стоит внести понимание в процесс работы пререндера React-Snap. Он запускает наше приложение и осуществляет обход по ссылкам, найденным на страницах. При этом учитываются именно html-элементы <a>. Если пререндер не сохранил html-копию для какой-либо страницы (либо мы намеренно хотим этого добиться), то скорее всего переход на эту страницу сделан (либо вы намеренно можете так сделать) с использованием, к примеру, onClick а не через обязательный атрибут ссылки - href. Тут нужно упомянуть, что стандартные компоненты Link либо NavLink из react-router-dom фактически создают в DOM именно html-элемент <a> с href, так что если не отбиваться от классических подходов, то проблем не будет.

Следующим полезным знанием будет то, что нам обязательно необходимо позаботиться о минификации размеров DOM, который будет содержаться в наших html-копиях, так как большой html-документ будет дольше загружаться с backend-а, съедать больше трафика, да и поисковые роботы могут попросту не добраться до необходимого контента, если, к примеру, у вас в <head> документа все стили заинлайнины, как и все svg-изображения в <body>, что раздует каждую из html-копий до огромных размеров. Для понимания: если логотип вашего ресурса рендерится как inline-svg, то в файле каждой html-копии он будет присутствовать именно в таком виде.

Выход: настроить webpack таким образом, чтобы при сборке все стили складывались в css-файлы, а inline-svg заменить на использование <img> (либо средствами css) для отображения картинок (и то и другое будет загружаться один раз, а далее браться из кеша браузера и, что главное, задублированный контент таких ресурсов будет отсутствовать в html-копиях).

Еще один небольшой совет: общее количество и список всех созданных html-копий страниц, либо ошибок создания и различные вызванные редиректы (к примеру 404), а также прочие проблемные места мы сможем сразу увидеть и проанализировать благодаря достаточно понятному и подробному логу, который будет выводиться в процессе работы пререндера React-Snap. Не стоит забывать смотреть в него после сборки, так как на этом этапе мы всегда сможем увидеть те же проблемы на сайте, что увидит поисковой робот, но при этом у нас будет возможность заблаговременно что-то поправить при необходимости.

Заключение

Пожалуй, вышеописанного будет достаточно, чтобы начать и относительно быстро реализовать SEO-friendly сайт, написанный в виде Single Page Application. Далее всё будет зависеть лишь от особенностей конкретно вашего интернет-ресурса и тех целей, которые вы будете преследовать при его создании. Я постарался описать основные нюансы и подводные камни, с которыми пришлось столкнуться в процессе аналогичной разработки.

Основные плюсы данного подхода заключаются в том, что мы получаем инструментарий, который не требует архитектурных доработок приложения, дополнительного обучения программистов в команде и высоких трудозатрат на реализацию. После внедрения технологии, вы просто продолжаете разрабатывать ваше приложение по всем традициям React и придерживаясь ранее реализованной архитектуры. При этом ваше приложение уже не будет являться обычным SPA в привычном смысле, так как старт любой страницы будет сопровождаться загрузкой копии содержимого данной страницы, а дальнейшая навигация по приложению будет осуществляться уже привычным образом средствами SPA, что позволит поисковым роботам полноценно взаимодействовать с вашим контентом и выводить в результатах поиска актуальные ссылки с соответствующими описаниями страниц, а конечным пользователям как и ранее будет доступен весь спектр функционала Single Page Application.

Ну вот мы и добрались до финала. Сейчас вам удалось познакомиться с реально работающим на продакшн-версии проекта Своё.Жильё от Россельхозбанка подходом по реализации SEO-friendly интернет-ресурса на примере React-приложения и рассмотреть основные тезисы и подводные камни процесса создания SEO-эффективного сайта на основе SPA. Надеюсь, что полученные в данном материале знания будут полезны и найдут применение. Спасибо за уделённое на прочтение время.

Подробнее..

Server-Side Rendering с нуля до профи

18.01.2021 14:21:57 | Автор: admin

  • В данной статье мы разберем влияние SSR на SEO оптимизацию приложения.
  • Пройдем с вами путь по переносу обычного React приложения на SSR.
  • Разберем обработку асинхронных операций в SSR приложениях.
  • Посмотрим, как делать SSR в приложениях с Redux Saga.
  • Настроим Webpack 5 для работы с SSR приложением.
  • А также рассмотрим тонкости работы SSR: Генерация HTML Meta Tags, Dynamic Imports, работа с LocalStorage, debugging и прочее.




Пару лет назад, работая над своим продуктом Cleverbrush мой друг и я столкнулись с проблемой SEO оптимизации. Созданный нами сайт, который по идее должен был продавать наш продукт, а это был обычный Single Page React Application, не выводился в Google выборке даже по ключевым словам! В ходе детального разбора данной проблемы родилась библиотека iSSR, а также наш сайт начал появляться на первой странице Google. Итак, давайте по порядку!

Проблема



Главной проблемой Single Page приложений является то, что сервер отдает клиенту пустую HTML страницу. Её формирование происходит только после того как весь JS будет скачан (это весь ваш код, библиотеки, фреймверк). Это в большинстве случаев более 2-х мегабайт размера + задержки на обработку кода.

Даже если Google-бот умеет выполнять JS, он получает контент только спустя некоторое время, критичное для ранжирования сайта. Google-бот попросту видит пустую страницу несколько секунд! Это плохо!

Google начинает выдавать красные карты если ваш сайт рендерится более 3-х секунд. First Contentful Paint, Time to Interactive это метрики которые будут занижены при Single Page Application. Подробнее читайте здесь.

Также есть менее продвинутые поисковые системы, которые попросту не умеют работать с JS. В них Single Page Application не будут индексироваться.

На ранжирование сайта еще влияет множество факторов, часть из них мы разберем далее в этой статье.

Рендеринг



Существует несколько путей как решить проблему пустой странички при загрузке, рассмотрим несколько из них:

Static Site Generation (SSG). Сделать пререндер сайта перед тем как его загрузить на сервер. Очень простое и эффективное решение. Отлично подходит для простых веб страничек, без взаимодействия с backend API.

Server-Side Rendering (SSR). Рендерить контент в рантайме на сервере. При таком подходе мы сможем делать запросы backend API и отдавать HTML вместе с необходимым содержимым.

Server-Side Rendering (SSR)



Рассмотрим подробнее, как работает SSR:

  • У нас должен быть сервер, который выполняет наше приложение точно так же, как делал бы это пользователь в браузере. Делая запросы на необходимые ресурсы, отображая весь необходимый HTML, наполняя состояние.
  • Сервер отдает клиенту наполненный HTML, наполненное состояние, а также отдает все необходимые JS, CSS и прочие ресурсы.
  • Клиент, получая HTML и ресурсы, синхронизирует состояние и работает с приложением как с обычным Single Page Application. При этом важным моментом является то, что состояние должно синхронизироваться.


Схематично SSR приложение выглядит вот так:

SSR

Из вышеописанной работы SSR приложения мы можем выделить проблемы:

  • Приложение делится на сервер и клиент. То есть у нас по сути получается 2 приложения. Данное разделение должно быть минимально иначе поддержка такого приложения будет сложной.
  • Сервер должен уметь обрабатывать запросы к API с данными. Данные операции асинхронные, являются Side Effects. По умолчанию renderToString метод React работающий с сервером синхронный и не может работать с асинхронными операциями.
  • На клиенте приложение должно синхронизировать состояние и продолжать работать как обычное SPA приложение.


iSSR



Это маленькая библиотека которая способна решить проблемы асинхронной обработки запросов к данным а также синхронизации состояния с сервера на клиент. Это не очередной убийца Next.JS, нет! Next.JS прекрасный фреймверк имеющий множество возможностей, но чтобы его использовать вам придется почти полностью переписать ваше приложение и следовать правилам Next.JS.

Посмотрим на примере, как просто перенести обычное SPA приложение на SSR.

К примеру, у нас есть простейшее приложение с асинхронной логикой.

Код приложения
import React, { useState, useEffect } from 'react';import { render } from 'react-dom';const getTodos = () => {  return fetch('https://jsonplaceholder.typicode.com/todos')    .then(data => data.json())};const TodoList = () => {  const [todos, setTodos] = useState([]);  useEffect(() => {    getTodos()      .then(todos => setTodos(todos))  }, []);  return (    <div>      <h1>Hi</h1>      <ul>        {todos.map(todo => (          <li key={todo.id} style={{ textDecoration: todo.completed ? 'line-through' : 'none' }}>{todo.title}</li>        ))}      </ul>    </div>  )}render(  <TodoList />,  document.getElementById('root'));



Данный код рендерит список выполненных задач, используя сервис jsonplaceholder для эмуляции взаимодействия с API.

Сделаем данное приложение SSR!



Шаг 1. Установка зависимостей



Для установки iSSR нужно выполнить:

npm install @issr/core --savenpm install @issr/babel-plugin --save-dev


Для настройки базовой билд системы установим:

npm install @babel/core @babel/preset-react babel-loader webpack webpack-cli nodemon-webpack-plugin --save-dev


Один из неочевидных моментов разработки SSR приложений является то, что некоторые API и библиотеки могут работать на клиенте но не работать на сервере. Одним из таких API является fetch. Данный метод отсутствует в nodejs где будет выполняться серверная логика нашего приложения. Для того, чтобы у нас приложение работало одинаково установим пакет:

npm install node-fetch --save


Для сервера будем использовать express, но это не важно, можно использовать любой другой фреймверк:

npm install express --save


Добавим модуль для сериализации состояния приложения на сервере:
npm install serialize-javascript --save


Шаг 2. Настройка webpack.config.js



webpack.config.js
const path = require('path');const NodemonPlugin = require('nodemon-webpack-plugin');const commonConfig = {  module: {    rules: [      {        test: /\.jsx$/,        exclude: /node_modules/,        use: [          {            loader: 'babel-loader',            options: {              presets: [                '@babel/preset-react'              ],              plugins: [                '@issr/babel-plugin'              ]            }          }        ]      }    ]  },  resolve: {    extensions: [      '.js',      '.jsx'    ]  }}module.exports = [  {    ...commonConfig,    target: 'node',    entry: './src/server.jsx',    output: {      path: path.resolve(__dirname, './dist'),      filename: 'index.js',    },    plugins: [      new NodemonPlugin({        watch: path.resolve(__dirname, './dist'),      })    ]  },  {    ...commonConfig,    entry: './src/client.jsx',    output: {      path: path.resolve(__dirname, './public'),      filename: 'index.js',    }  }];



  • Для компиляции SSR приложения конфигурационный файл webpack должен состоять из двух конфигураций (MultiCompilation). Одна для сборки сервера, вторая для сборки клиента. Мы передаем в module.exports массив.
  • Для конфигурации сервера нам нужно задать target: 'node'. Для клиента задавать target не обязательно. По умолчанию конфигурация webpack имеет target: web. target: node позволяет webpack обрабатывать сервер код, модули по умолчанию, такие как path, child_process и прочее.
  • const commonConfig общая часть настроек. Так как код сервера и клиента имеет общую структуру приложения, они должны обрабатывать JS одинаково.


В babel-loader необходимо добавить плагин:
@issr/babel-plugin
Это вспомогательный модуль @issr/babel-plugin позволяющий отследить асинхронные операции в приложении. Замечательно работает с babel/typescript-preset, и прочими babel плагинами.

Шаг 3. Модификация кода.



Вынесем общую логику нашего приложения в отдельный файл App.jsx. Это нужно для того, чтобы в файлах client.jsx и server.jsx осталась только логика рендеринга, ничего больше. Таким образом весь код приложения у нас будет общий.

App.jsx
import React from 'react';import fetch from 'node-fetch';import { useSsrState, useSsrEffect } from '@issr/core';const getTodos = () => {  return fetch('https://jsonplaceholder.typicode.com/todos')    .then(data => data.json())};export const App = () => {  const [todos, setTodos] = useSsrState([]);  useSsrEffect(async () => {    const todos = await getTodos()    setTodos(todos);  });  return (    <div>      <h1>Hi</h1>      <ul>        {todos.map(todo => (          <li key={todo.id} style={{ textDecoration: todo.completed ? 'line-through' : 'none' }}>{todo.title}</li>        ))}      </ul>    </div>  );};



client.jsx
import React from 'react';import { hydrate } from 'react-dom';import { App } from './App';hydrate(  <App />,  document.getElementById('root'));



Мы поменяли стандартный render метод React на hydrate, который работает для SSR приложений.

server.jsx
import React from 'react';import express from 'express';import { renderToString } from 'react-dom/server';import { App } from './App';const app = express();app.use(express.static('public'));app.get('/*', async (req, res) => {const html = renderToString(<App />);  res.send(`  <!DOCTYPE html><html lang="en"><head>    <meta charset="UTF-8">    <title>Title</title></head><body>    <div id="root">${html}</div></body></html>`);});app.listen(4000, () => {  console.log('Example app listening on port 4000!');});



В коде сервера обратите внимание, что мы должны расшаривать папку с собранным SPA приложением webpack:
app.use(express.static('public'));
Таким образом, полученный с сервера HTML будет работать далее как обычный SPA

Шаг 4. Обработка асинхронности.



Мы разделили логику вынеся общую часть, подключили компилятор для клиент и сервер частей приложения. Теперь решим остальные проблемы связанные с асинхронными вызовами и состоянием.

Для обработки асинхронных операций их нужно обернуть в хук useSsrEffect из пакета @issr/core:

App.jsx
import React from 'react';import fetch from 'node-fetch';import { useSsrEffect } from '@issr/core';const getTodos = () => {  return fetch('https://jsonplaceholder.typicode.com/todos')    .then(data => data.json())};export const App = () => {  const [todos, setTodos] = useState([]);  useSsrEffect(async () => {    const todos = await getTodos()    setTodos(todos);  });  return (    <div>      <h1>Hi</h1>      <ul>        {todos.map(todo => (          <li key={todo.id} style={{ textDecoration: todo.completed ? 'line-through' : 'none' }}>{todo.title}</li>        ))}      </ul>    </div>  );};



В server.jsx заменим стандартный renderToString на serverRender из пакета @issr/core:

server.jsx
import React from 'react';import express from 'express';import { serverRender } from '@issr/core';import serialize from 'serialize-javascript';import { App } from './App';const app = express();app.use(express.static('public'));app.get('/*', async (req, res) => {  const { html } = await serverRender(() => <App />);  res.send(`  <!DOCTYPE html><html lang="en"><head>    <meta charset="UTF-8">    <title>Title</title></head><body>    <div id="root">${html}</div>    <script src="http://personeltest.ru/aways/habr.com/index.js"></script></body></html>`);});app.listen(4000, () => {  console.log('Example app listening on port 4000!');});



Если запустить приложение сейчас, то ничего не произойдет! Мы не увидим результата выполнения асинхронной функции getTodos. Почему так происходит? Мы забыли синхронизировать состояние. Давайте исправим это.

В App.jsx заменим стандартный setState на useSsrState из пакета @issr/core:

App.jsx
import React from 'react';import fetch from 'node-fetch';import { useSsrState, useSsrEffect } from '@issr/core';const getTodos = () => {  return fetch('https://jsonplaceholder.typicode.com/todos')    .then(data => data.json())};export const App = () => {  const [todos, setTodos] = useSsrState([]);  useSsrEffect(async () => {    const todos = await getTodos()    setTodos(todos);  });  return (    <div>      <h1>Hi</h1>      <ul>        {todos.map(todo => (          <li key={todo.id} style={{ textDecoration: todo.completed ? 'line-through' : 'none' }}>{todo.title}</li>        ))}      </ul>    </div>  );};



Внесем изменения в client.jsx для синхронизации состояния переданного с сервера на клиент:

client.jsx
import React from 'react';import { hydrate } from 'react-dom';import createSsr from '@issr/core';import { App } from './App';const SSR = createSsr(window.SSR_DATA);hydrate(  <SSR>    <App />  </SSR>,  document.getElementById('root'));



window.SSR_DATA это объект, переданный с сервера с кешированнным состоянием, для синхронизации на клиенте.

Сделаем передачу состояние на сервере:

server.jsx
import React from 'react';import express from 'express';import { serverRender } from '@issr/core';import serialize from 'serialize-javascript';import { App } from './App';const app = express();app.use(express.static('public'));app.get('/*', async (req, res) => {  const { html, state } = await serverRender(() => <App />);  res.send(`  <!DOCTYPE html><html lang="en"><head>    <meta charset="UTF-8">    <title>Title</title>    <script>      window.SSR_DATA = ${serialize(state, { isJSON: true })}    </script></head><body>    <div id="root">${html}</div>    <script src="http://personeltest.ru/aways/habr.com/index.js"></script></body></html>`);});app.listen(4000, () => {  console.log('Example app listening on port 4000!');});



Обратите внимание, что функция serverRender передает не только HTML, но и состояние, которое прошло через useSsrState, мы его передаем на клиент, в качестве глобальной переменной SSR_DATA. На клиенте, данное состояние будет автоматически синхронизировано.

Шаг 5. Билд скрипты.


Осталось добавить скрипты запуска в package.json:

"scripts": { "start": "webpack -w --mode development", "build": "webpack"},


Redux и прочие State Management библиотеки



iSSR отлично поддерживает разные state management библиотеки. В ходе работы над iSSR я заметил, что React State Management библиотеки делятся на 2 типа:
  1. Реализует работу с Side Effects на слое React. Например Redux Thunk превращает вызов Redux dispatch в асинхронный метод, а значит мы можем имплементить SSR как в примере выше для setState. Пример с redux-thunk доступен по ссылке
  2. Реализуют работу с Side Effects на отдельном от React слое. Например Redux Saga выносит работу с асинхронными операциями в Саги.


Рассмотрим пример реализации SSR для приложения с Redux Saga.

Мы не будем рассматривать этот пример так детально как предыдущий. Ознакомится с полным кодом можно по ссылке.

Redux Saga


*Для лучшего понимания происходящего, читайте предыдущую главу

Сервер запускает наше приложение через serverRender, код выполняется последовательно, выполняя все операции useSsrEffect.

Концептуально Redux работая с сагами не выполняет никаких асинхронных операций. Наша задача отправить action для старта асинхронной операции в слое Саг, отдельных от нашего react-flow. В примере по ссылке выше, в контейнере Redux мы выполняем

useSsrEffect(() => { dispatch(fetchImage());});


Это не асинхронная операция! Но iSSR понимает, что что то произошло в системе. iSSR будет идти по остальным React компонентам выполняя все useSsrEffect если таковые будут и по завершению iSSR вызовет каллбек:

const { html } = await serverRender(() => ( <Provider store={store}>   <App /> </Provider>), async () => { store.dispatch(END); await rootSaga.toPromise();});


Таким образом мы можем обрабатывать асинхронные операции не только на уровне с React но и на других уровнях, в данном случае мы в начале поставили на выполнение нужные нам саги, после чего в callback serverRender запустили и дождались их окончания.

Я подготовил много примеров использования iSSR, вы можете их найти по ссылке.

SSR трюки



На пути в разработке SSR приложений существуют множество проблем. Проблема асинхронных операций это только одна из них. Давайте посмотрим на другие распространенные проблемы.

HTML Meta Tags для SSR



Немаловажным аспектом в разработке SSR является использование правильных HTML meta tags. Они сообщают поисковому боту ключевую информацию на странице.
Для реализации данной задачи рекомендую использовать один из модулей:
React-Helmet-Async
React-Meta-Tags
Я подготовил несколько примеров:
React-Helmet-Async
React-Meta-Tags

Dynamic Imports


Чтобы снизить размер финального бандла приложения, принято приложение делить на части. Например dynamic imports webpack позволяет автоматически разбить приложение. Мы можем вынести отдельные страницы в чанки или блоки. При SSR мы должны уметь обрабатывать данные фрагменты приложения как одно целое. Для этого рекомендую использовать замечательный модуль @loadable

Dummies


Некоторые компоненты или фрагменты страницы можно не рендерить на сервере. Например, если у вас есть пост и комментарии, не целесообразно обрабатывать обе асинхронные операции. Данные поста более приоритетны чем комментарии к нему, именно эти данные формируют SEO нагрузку вашего приложения. По этому мы можем исключать не важные части при помощи проверок типа:
if (typeof windows === 'undefined') {}


localStorage, хранение данных


NodeJS не поддерживает localStorage. Для хранения сессионных данных мы используем cookie вместо localStorage. Файлы cookie отправляются автоматически по каждому запросу. Файлы cookie имеют ограничения, например:
  • Файлы cookie это старый способ хранения данных, они дают ограничение в 4096 байт (фактически 4095) на один файл cookie.
  • localStorage это реализация интерфейса хранилища. Он хранит данные без даты истечения срока действия и очищается только с помощью JavaScript или очистки кеша браузера / локально сохраненных данных в отличие от истечения срока действия файлов cookie.


Некоторые данные должны быть переданы в URL. Например, если мы используем локализацию на сайте, то текущий язык будет частью URL. Такой подход улучшит SEO, поскольку у нас будут разные URL-адреса для разных локализаций приложения и обеспечить передачу данных по запросу.

React Server Components


React Server Components возможно будет хорошим дополнением для SSR. Его идеей является снижение нагрузки на Bundle за счет выполнения компонент на сервере и выдачи готового JSON React дерева. Нечто подобное мы видели в Next.JS. Читайте подробнее по ссылке

Роутинг


React Router из коробки поддерживает SSR. Отличие в том, что на server используется StaticRouter с переданным текущим URL, а на клиенте Router определяет URL автоматически при помощи location API. Пример

Debugging


Дебаг на сервере может выполняться также как и любой дебаг node.js приложений через inpsect.
Для этого нужно добавить в webpack.config для nodejs приложения:
devtool: 'source-map'
А в настройки NodemonPlugin:
new NodemonPlugin({  watch: path.resolve(__dirname, './dist'),  nodeArgs: [    '--inspect'  ]})

Также, для улучшения работы с source map можно добавить модуль
npm install source-map-support --save-dev

В nodeArgs опций NodemonPlugin добавить:
--require=source-map-support/register
Пример

Next.JS


Если вы создаете приложение с нуля, рекомендую обратить внимание на данный фреймверк. Это самое популярное решение на данный момент для создания с нуля приложений с поддержкой SSR. Из плюсов можно выделить то, что все идет из коробки (билд система, роутер). Из минусов необходимо переписывать существующее приложение, использовать подходы Next.JS.

SEO это не только SSR!



Критерии Google бота для SEO оптимизации включают множество метрик. Рендер данных, получение первого байта и т.д. это лишь часть метрик! При SEO оптимизации приложения необходимо минимизировать вес картинок, бандла, грамотно использовать HTML теги и HTML мета теги и прочее.
Для проверки вашего сайта при SEO оптимизации можно воспользоваться:
lighthouse
sitechecker
pagespeed

Выводы


В данной статье я описал основные проблемы, но далеко не все, для разработки SSR приложений. Но цель данной статьи показать вам, что SSR это не так страшно. С данным подходом мы можем жить и делать отличные приложения! Всем, кто дочитал до конца желаю успешных и интересных проектов, меньше багов и крепкого здоровья в это нелегкое для всех нас время!
Подробнее..

Как настроить Facebook Conversion API с помощью GTM Server Side

07.06.2021 22:20:16 | Автор: admin

Отслеживание событий на стороне сервера и Conversion API были доступны на Facebook в течение нескольких лет. Но, начиная с 2021 года, FB стал активнее это продвигать. Если у вас есть свой менеджер в Facebook, помогающий с вашей учетной записью, он, скорее всего, позвонит вам и порекомендует настроить Conversion API.

По этому если с вами уже связались или вы сами решили что вам нужно настроить CAPI (Conversion API) прошу под кат. Там я описываю один из рекомендуемых методов настройки, а именно через Google Tag Manager Server Side.

FB CAPITagFB CAPITag

Для настройки Facebook Conversion API с помощью Google Tag Manager сервер контейнера нужно сначала настроить работу Universal Analytics или GA4 через GTM SS. Все события которые вы хотите отслеживать в Facebook должны быть настроены в UA/GA4 так как вся информация для отправки запроса в FB CAPI будет формироваться на основе событий отправленных в Google Analytics.

В этой статье я не буду рассказывать, как создать и настроить веб контейнер GTM или отслеживание событий с помощью FB web pixel так как предполагается что вы уже хорошо знакомы с настройкой GTM контейнеров.

Что касается изначальной настройки GTM SS это зависит от того какой сервис выбудете использовать для предоставления серверов для вашего серверного контейнера. У каждого есть свои плюсы и минусы. Вы можете выбрать любой подходящий вам это никак не повлияет на работу FB CAPI.

У каждого провайдера серверов для GTM SS есть своя инструкция по настройке контейнера, по этому будем предполагать что вы воспользовались ею и у вас уже есть работающий GTM SS контейнер и ссылка на него.

В текущих реалиях что использовать UA или GA4 для FB CAPI не имеет значения. FB рекомендует GA4 так как он позволяет более легко передавать дополнительные параметры, но с моего опыта нет никаких проблем в передаче дополнительных данных с помощью UA custom dimensions. Так что если у вас не настроен GA4 ничего страшного.

И так после того как разобрались со всеми зависимостями наконец приступим к настройке.

1) Прежде всего, вам необходимо настроить UA или GA4 в GTM Web для отправки событий в GTM SS. Для этого вам нужно установить transport_url параметр указав в качестве значения ссылку на ваш GTM SS сервер.

Для GA4:

GA4 tagGA4 tag

Для UA:

UA tagUA tag

2) Теперь нужно настроить GA на сервер контейнере GTM. Для GA4 создайте тег GA4 a для UA тег Universal Analytics. Также нужно создать триггер в соответствии с вашим типом тега. Тип триггера Custom, выберите Some events. Имя клиента равно Universal Analytics или GA4 в зависимости от выбранного вами типа тега.

Пример тега:

UA Server Side TagUA Server Side Tag

Пример триггера:

UA TriggerUA Trigger

3) Загрузите шаблон тега Facebook из репозитория GitHub и импортируйте его в шаблон тега сервер контейнера. Templates -> Tag Templates -> New. Затем в правом верхнем углу нажмите на точки и выберите импорт. На Github также можно найти и другие FB шаблоны тегов но я использую этот так как он умеет работать с UA а не только с GA4 и имеет больше настроек чем другие.

Server Side Tag ImportServer Side Tag Import

Импорт шаблона:

Server Side TemplateServer Side Template

4) Создайте тег Facebook Conversion API внутри GTM SS контейнера. Tag -> New -> Выберите тег Facebook, который вы импортировали на предыдущем шаге. Добавьте свой идентификатор пикселя Facebook и токен доступа к Facebook API (я рекомендую добавить их в качестве переменных, поскольку вам понадобятся эти значения для каждого Facebook тега). Если вы не знаете свой токен доступа к Facebook API, эта документация поможет вам его найти. Добавьте триггер для тега Facebook Conversion API: new trigger -> custom trigger -> event name equals page_view.

Пример триггера:

5) По такому же принципу вы можете настроить все остальные события которые вас интересуют.

Таким образом у вас будет готова базовая настройка FB CAPI.

Если вы хотите оставить FB Web Pixel вам нужно будет настроить дедупликацию событий. Так как получится что у вас FB web pixel и FB CAPI шлют те же события.

Чтобы настроить дедупликацию FB Conversion API, вам необходимо отправлять уникальный идентификатор события из браузера и с сервера. Одни и те же события из браузера и сервера должны иметь один и тот же идентификатор события. Больше информации про дедупликацию можно найти в документации.

В галерее шаблонов GTM есть Unique Event ID переменная которая создает уникальный ID для каждого события. Используйте эту переменную в FB Web Pixel для отправки event_id а также передавайте ее на сервер с помощью UA custom dimension или GA4 параметра и используйте в FB CAPI теге для отправки того же event_id.

Настройка FB CAPI требует терпения) Так что желаю всем удачи в этом нелегком деле и надеюсь этот пост поможет вам в этом.

Подробнее..

Идеальное хэширование

11.01.2021 16:10:01 | Автор: admin

Какова сложность поиска элемента по ключу?

Это зависит от того, какую структуру данных использовать.

В односвязном списке - линейная сложность.

В отсортированном массиве или в двоичном дереве поиска - логарифмическая сложность.

В хэш-таблице - сложность константная. Но это в лучшем случае. А в худшем стремится к линейной

А можно ли создать идеальную хэш-таблицу, чтобы сложность поиска элемента даже в худшем случае оставалась константной?

В общем случае - нет. Но если список всех ключей установлен заранее и не изменяется, а хэш-коды у всех ключей различны, то можно построить идеальную хэш-таблицу без коллизий, где поиск любого элемента происходит за несколько тривиальных операций, причём, количество этих операций не зависит от размера хэш-таблицы.

Идеально! Поговорим о том, как это сделать.
Кстати, на курсе "Алгоритмы и структуры данных" на платформе OTUS у нас есть отдельный модуль, посвящённый вопросам создания хэш-таблиц.


Представьте англо-русский словарь. Английские слова являются ключами, а перевод - значениями. Время поиска любого слова в таком словаре может происходит за константное время, как если бы мы обращались к элементу массива по индексу!

Взял, такой, хэш-код слова dog, вычислил хэш-функцию, поколдовал ещё немножко, и, вуаля, в руках уже собака на поводке указателе!

Как такое возможно?

Предположим, в словаре 10.000 слов-ключей. Для их хранения мы открываем хэш-таблицу на 10.000 элементов. Возможно ли создать волшебную хэш-функцию-биекцию, которая каждый ключ отображала бы на индекс массива, где он должен лежать? Наверное, это возможно, если создать небольшую нейронную сеть и обучить её.

Если же ограничиваться простейшей хэш-функцией вида (A * k + B) % N, с возможностью подбора лишь двух коэффициентов A и В, то создать волшебную биекцию вряд ли удастся - коллизий не избежать. В этой формуле k - уникальный хэшкод (ulong) уникального ключа, N - количество ключей.

Идея идеального хэширования заключается в двухэтапном хэшировании.

На первом этапе находим квартиру, а на втором этапе - комнату, где располагается искомое значение.

Это напоминает метод разрешения коллизий методом цепочек. Но если в методе цепочек в каждой квартире расположен односвязный список комнат, то в идеальном хэшировании мы в каждой квартире создадим отдельную хэш-таблицу с матрицей комнат. Это будут квадрокомнатные квартиры, но обо всём по порядку.

Первый этап

Минимизация количества комнат в квартирах.

Поскольку список всех ключей известен заранее, то можно подобрать такие коэффициенты, чтобы максимальное количество комнат (коллизий) в одной квартире было минимальным. Достаточно несколько десятков попыток, чтобы минимизировать максимальное количество коллизий.

Например, за 100 итераций подбора коэффициентов для словаря из 10.000 ключей максимальное количество коллизий для одного элемента не превышает 10.

Итак, на первом этапе мы подбираем глобальные коэффициенты А и В для хэш-функции вида (A * k + B) % N. Эта функция вычисляет номер квартиры, в которой находится значение для заданного ключа. При этом минимизируется максимальное количество комнат (коллизий) в каждой квартире.

Второй этап

Для размещения K элементов в одной квартире мы резервируем K комнат. Такая квадрокомнатная квартира позволит без особого труда подобрать коэффициенты A и B для размещения K элементов без единой коллизии, потому что значения всех ключей известно заранее (напомним, что хэш-коды всех ключей различны). Коэффициенты подбираются для каждой квартиры отдельно и хранятся в каждом элементе первой хэш-таблицы, вместе с количеством комнат.

Вот и всё!

Для поиска любого элемента в идеальной хэш-таблице необходимо выполнить следующие действия:

  1. Найти номер квартиры i по хэш-коду ключа k: (A * k + B) % N.

  2. Взять коэффициенты для вычисления номера комнаты: Ai, Bi, K.

  3. Найти номер комнаты по формуле: (Ai * k + Bi) % K

  4. Вернуть значение из найденной комнаты.

В любом случае (как в лучшем, так и худшем) на поиск элемента потребуется константное количество действий, которое не зависит от общего количества элементов.

Расход памяти

Может показаться, что наличие квадрокомнатных квартир потребует слишком много памяти для хранения нашей идеальной хэш-таблицы. Продемонстрируем, что затраты по памяти не превышают линейную сложность (троекратный расход).

Возьмём, для примера, хэш-таблицу из N = 10 элементов. В каждом элементе может быть от 0 до 10 коллизий. Вычислим вероятность коллизий, умножим на затраты по памяти и найдём математическое ожидание объёма памяти для размещения одного элемента.

Итого: для хранения квартир нужно N ячеек памяти, для хранения комнат - примерно 1.9 * N. Суммарный расход памяти: 2.9 * N = О(N) - линейный.

Заключение

Если вы уже закончили работу над крупным проектом, все настройки которого хранятся в хэш-таблице, то вы можете выписать список всех-всех-всех параметров (ключей) и создать идеальную хэш-таблицу для их хранения, чтобы увеличить скорость доступа к этим элементам.


А теперь небольшой бонус. 15 января я проведу Demo Day курса "Алгоритмы и структуры данных" на платформе OTUS, приглашаю всех желающих узнать подробно о курсе и задать вопросы лично.

Также хочу посоветовать еще несколько статей из своего блога, которые уже успели получить хороший отклик у читателей:

Подробнее..

Как стать инхаус SEO-специалистом?

27.05.2021 12:14:32 | Автор: admin

Как стать инхаус SEO-специалистом?


Популярный SEO-специалист и маркетолог Кевин Индиг (Kevin Indig) в своем блоге поделился собственным опытом и описал плюсы и минусы по работе SEOшника в агентстве и инхаус команде. Мы перевели и адаптировали данный материал для блога программы для кластеризации семантического ядра KeyClusterer.


***


За свою более чем 10-летнюю карьеру мне посчастливилось наблюдать за многими SEO-оптимизаторами, применяющими различные навыки и стратегии в SEO (и тут я не ошибся, так как по моему мнению, инхаус SEO это навык), и понять отличия успешных инхаус SEO-специалистов от их менее успешных коллег. Поэтому те сеошники, которые развивают этот навык, имеют значительный рост компетенций, а те, кто этого не делает топчатся на месте или остаются позади. В этой статье я поделюсь своими знаниями и опытом, чтобы вы могли оказаться в первой категории.


В SEO не так важны ваши знания сами по себе. А важно то, какой результат в итоге получит клиент. Проблема предоставления конечного результата заключается в том, что у многих инхаус SEO-специалистов не имеется достаточных ресурсов, заинтересованности и поддержки руководства для достижения необходимых результатов.


Снова и снова слыша об одних и тех же проблемах, я решил написать инструкцию для инхаус сеошников и поделиться собственным опытом.


Мы начнем с фундаментальных различий между инхаус и агентством, потому что для многих SEO-специалистов переход из агентства в in-house может быть не таким простым и гладким, как это могло показаться. Затем мы рассмотрим 3 основные проблемы инхаус SEO, указав причины и решения для каждой из них. В конце мы расскажем о том, как заинтересовать людей переходить на сторону клиента.


Хочу сказать большое спасибо моим друзьям Джеки Чу, Мэтту Хауэллс-Барби и Игалу Столпнеру за их вклад в эту статью.


Глоссарий:


  • Агентство работа в рекламном агентстве и продвижение клиентских сайтов данного агентства.
  • Инхаус работа непосредственно на стороне клиента и продвижение проектов компании.

Инхаус SEO и агентство разные вещи


Инхаус SEO или рекламное агентство


Разница между агентством и инхаус


Агентство


  • Плюсы. В агентстве вам приходится работать над множеством разнообразных проектов и задач. Это изучение и анализ большого количества сайтов, взаимодействие с командой проекта, KPI и отчетность, решение сопутствующих проблем. Однако, при этом вы получаете колоссальный опыт работа в агентстве поможет максимально быстро начать карьеру в SEO за счет того, что вы научитесь работать в команде, соблюдать дедлайны, оптимизировать рабочие процессы, продуктивно заниматься продвижением клиентских проектов используя внутренние регламенты, да и в целом постоянно прокачивать знания по SEO.
  • Минусы. Проблемой агентств является не всегда простая коммуникация с клиентом, а также сопутствующие сложности отстаивания и внедрения новых идей. Недостаточно просто давать рекомендации по улучшению оптимизации. Вам нужно уметь "продавать" их, отвечать на запросы клиентов и стимулировать их к выполнению задач. Некоторые клиенты выполняют задачи быстро, другие медленно. Задача усложняется тем, что зачастую общение оптимизатора с клиентом идет не напрямую, а через аккаунт-менеджера, который не всегда может корректно и точно донести ваши мысли по улучшению сайта, а на бумаге в рекомендациях это может выглядеть не так убедительно, нежели при непосредственном общении напрямую.

Инхаус


  • Плюсы. Работая на стороне клиента вы зачастую сконцентрированы на решении одной из проблем подопечного сайта (глобальное улучшение позиций выдаче, низкие позиции одного из разделов и т.п.). Обычно вы не распыляетесь на 10 проектах как в агентстве, а сосредотачиваетесь на одном сайте (возможно, на нескольких), глубоко изучаете продукт и рынок и погружаетесь в вертикаль приоритетных задач. Именно работая на стороне клиента вы становитесь экспертом в области и можете оказать значительное влияние на рост позиций вашего проекта. Работая в компании, вы более глубоко погружаетесь в процессы ее работы, пристально следите за конкурентами и у вас есть больше времени, чтобы подумать как о глобальных проблемах, так и заняться решением мелких, но не менее важных проблем, до которых в агентстве у вас бы никогда не дошли руки (в агентствах 90% задач по сайту шаблонные, а на "мелочи" просто не хватит времени).
  • Минусы. Проблемы инхауса заключаются в бюрократии, получении ресурсов и попытках реализации стратегии компании. Многие сеошники страдают от нехватки ресурсов (программисты, копирайтеры, дизайнеры) и им приходится бороться, чтобы доказать руководству, что на данный момент решение их задач важнее, чем иные задачи компании.

Два момента, которые будут вас преследовать везде и всюду (инхаус и агентство) это озвучивание и внедрение идей. Не важно, кому вы рассказываете свою идею: клиенту или своему боссу. Этому тоже важно научиться. Без должного умения не только составить рекомендации, но и доказать необходимость их внедрения, вся ваша работа в итоге может быть малоэффективной.


Также нужно понимать, чего хотят клиенты и что им нужно на самом деле. Эти два понятия иногда отличаются. Клиент может рассказывать, что ему нужен красивый сайт, оригинальная подача контента и прочие плюшки. Но, на самом деле все это вторично, т.к. все что нужно клиенту на самом деле сделать его бизнес прибыльным и успешным. Ибо, без продаж эффект от всех этих красивостей и наворотов быстро сойдет на нет.


Джаред Гарднер о переходе из агентства в инхаус


При переходе из агентства в инхаус главная проблема, с которой я столкнулся, это не ждать одобрения со стороны руководства, а просто действовать и идти дальше. Когда вы работаете в компании, вы берете на себя больше ответственности за проекты от начала до конца. Ведь именно для этого вас и нанимали, как опытного сеошника для работы на результат.


Понятно, что, в любом случае бывают необходимы различные согласования тех или иных задач, но в данном случае инициатива только приветствуется, в отличие от агентства, где отправив рекомендации на согласование можно ждать дни, а то недели не то что до согласования работ клиентом, но хотя бы до простого ответа, что клиент их просмотрел. С другой стороны, в это время можно заниматься работой над проектами других клиентов. Но, работая в компании, вы должны быть в курсе всех дел компании даже после отправки задач в работу. Иными словами к сайту нужно относиться как к своему личному проекту.


Тем не менее, агентства отличная площадка для наработки опыта SEO-специалистов. Когда вы перейдете в инхаус, вы столкнетесь с 3 основными проблемами, которые взаимосвязаны между собой.


3 самых больших проблемы инхаус SEO и пути их решения


3 основных проблемы инхаус SEO


Самая большая проблема в SEO это когда ты не знаешь, что нужно делать, но тебе нужно показать результат. Успешные агентства умеют быстро давать результат, быстро учатся и выполняют все необходимые работы за счет наработанной годами экспертизы, которая помогает идти в ногу с алгоритмами Яндекс и Google. Вам же, для достижения необходимых результатов нужны ресурсы, умение продавать и демонстрировать ценность вашей работы для компании.


Проблема 1: Нехватка ресурсов


Сеошники обычно надеются на программистов, копирайтеров и дизайнеров для достижения поставленных целей и результатов. Недостаток этих ресурсов одна из самых серьезных проблем в инхаус SEO.


Недавно я спросил своих подписчиков в Твиттере, так ли это, и многие жаловались, что компании не ставят SEO в приоритет, руководство не понимает его, а SEO-специалистам очень трудно продемонстрировать его ценность.


3 основных проблемы инхаус SEO


Я сталкивался с этими проблемами во многих компаниях. Не существует идеального решения, но со временем я узнал, что делать с каждой из этих проблем.


  • Причина 1: Компании хотят быстрых результатов, но в SEO требуется время, чтобы добиться результата.
  • Причина 2: У программистов / дизайнеров / копирайтеров другие приоритеты.
  • Причина 3: Компания не видит необходимости инвестировать в SEO.

Решение 1: По моему опыту, нехватка ресурсов для сеошников часто является результатом плохой бизнес-модели или ее отсутствия. Оптимизаторы просят предоставить им ресурсы, но очень часто не могут показать, как это может увеличить доход компании.


Не в обиду сказано, но, я считаю, что сеошникам следует быть более конструктивными при просьбе предоставить те или иные ресурсы. Легко указать пальцем, но сложно задать себе вопрос, почему у других команд разные приоритеты? Возможно это потому, что мы недостаточно хорошо поработали, чтобы показать, почему SEO должно быть в приоритете.


Опытные инхаус-специалисты знают, что ключ к привлечению внимания это установить связь между вашим запросом и доходом. Задача SEO-специалистов правильно показать влияние трафика на доход. И это порой бывает весьма проблематично.


Например, большинство компаний ориентированы либо на продажи, либо на продукты. Согласитесь, легче понять взаимосвязь между трафиком и, например, подпиской на продукт, что, в конечном итоге, приводит к доходу, поскольку между лидами и транзакциями отсутствуют какие-либо барьеры. В компаниях, ориентированных на продажи, SEO определяет MQL (маркетинговые лиды). Это означает, что существует разрыв между тем, что предлагает маркетинг и заключением сделок, за что SEO-специалисты не могут нести ответственности. В этом случае разумнее определять цели с точки зрения лидов, а не доходов.


Как видите, всегда есть от чего отталкиваться, чтобы сформулировать свои цели и взять их под свою ответственность. Но сеошники часто не уделяют достаточно времени, чтобы разобраться, как компания зарабатывает деньги и как можно к этому привязать свои цели.


Следующий шаг выяснить, как рекомендации по SEO-оптимизации влияют на трафик в целом. Как я уже упоминал, для этого нужна целая инструкция. Однако, наиболее важные вопросы, на которые нужно ответить при прогнозировании трафика, это:


  • Влияют ли ваши рекомендации по SEO на определенный тип страниц или сразу на все?
  • Можете ли вы предсказать, какой потенциальный объем поиска может охватить то или иное предложение по оптимизации?
  • Сделал ли конкурент нечто подобное, и можете ли вы переманить его трафик себе?

И только потом вы сможете проанализировать и спрогнозировать, сколько трафика вы потенциально можете привлечь и как это повлияет на рекламную компанию. Прогноз никогда не бывает идеальным, но это и не обязательно. Важно понять, как минимум, относительный процент прироста трафика или лидов.


Искусство инхаус SEO по большому счету состоит в том, чтобы сбалансировать ожидания с убедительным экономическим обоснованием. Вы никогда не сможете гарантировать трафик в SEO, однако нужно максимально оправдать ожидания вашего руководства. Только потому, что вы не можете что-то гарантировать, это не значит, что этого не может произойти. Логичность рассуждений и немного математики, которая покажет варианты достижения результатов, могут убедить руководство предоставить вам все необходимые ресурсы. Это как уроки математики в школе: недостаточно просто показать результат нужно показать, как вы к нему пришли.


Решение 2: Один из способов получить необходимые ресурсы, это показать быстрый результат в первые 30 дней после прихода в компанию. Это время ваш шанс на будущий успех. Это ваш шанс получить желаемые ресурсы. Чем более значимый результат вы сможете показать, тем больше ресурсов вы получите, потому что доказали, что можете это сделать. Если упустили это время, пытайтесь работать с небольшими проектами, чтобы постепенно получить ресурсы для более крупных. Согласитесь, весьма убедительно звучит фраза: Послушайте, мы здесь мы достигли положительного результата. Представляете, что мы могли бы сделать с еще большим количеством ресурсов!?.


Решение 3: Зная, на что ориентирована ваша компания (на продажи или на продукт), вы можете узнать, что из этого им нужно, после чего вы сможете помочь им это заполучить. В большинстве случаев это будут регистрации или лиды, но иногда это может быть поиск кандидата на ключевую роль или получение отзывов о чем-либо. Работайте над поиском подобных возможностей, чтобы показать, что вы можете быть полезным для компании и поверьте, это окупится вам сполна.


Постройте прочные отношения с руководителями команд в вашей компании (ИТ, копирайтеры). Посидите с ними за чашкой кофе или обедом, разузнайте кто они, поговорите о их целях, задачах и проблемах. Некоторые называют это игрой, но я считаю, что это просто выстраивание настоящих отношений и работы для достижения общей цели. Эти связи могут упростить решение ваших задач.


Мэтт Барби испытал это на своем опыте.


Мэтт Барби испытал это на своем опыте


"Работа инхаус сильно отличается от работы в агентстве. Это то же, что попытаться сравнить стартап из 40 человек и корпорацию из 4000 сотрудников. Тем не менее, есть некоторые общие истины, которые здесь применимы. К чему я веду не имеет значения, есть ли у вас правильное решение проблемы. Важнее всего то, что вы знаете, как продать идею внутри компании, получить ресурсы, необходимые для поддержки решения, и как (и когда) использовать имеющиеся у вас рычаги воздействия в процессе. Последний момент очень важен. О наращивании социального капитала уже написано немало статей, и это именно то, что я имею в виду под рычагами воздействия. Я вижу, как многие люди в компаниях ошибаются (а затем часто разочаровываются) просто потому, что пошли по неправильному пути. Иногда вам нужно позволить своей идее умереть, чтобы создать какой-то рычаг, который можно использовать в другом месте.


Если вы когда-нибудь наблюдали за кем-то, занимающим руководящую должность, и задавались вопросом: Как этот человек достиг таких высот? Я ведь знаю намного больше, чем он! ну, скорее всего, он продает намного лучше, чем вы. Независимо от того, какая у вас должность в компании, вы должны быть отчасти продавцом. Разница лишь в том, что, когда вы фактически продаете идею человеку внутри компании, заключается в том, вы, по сути, продаете ее своим коллегам. Поймите это, и вы достигнете успеха."


Мэтт Хауэллс-Барби (Matt Howells-Barby), старший Директор по приобретению HubSpot и соучредитель Traffic Think Tank



Решение 4: Найдите человека, который успешно выполняет задачи и научитесь у него, как это делать самому. И неважно, в какой команде он работает. Просто найди его и пойми, как он или она это делает, чтобы вы тоже могли этому научиться и применять его опыт на своих проектах.


Решение 5: Развивайте навыки повествования. Успешная продажа идеи в компании это результат здравых рассуждений, а также заинтересованности (подробнее об этом в следующей главе). Умение кратко рассказывать истории (продавать) это очень важно. Иногда хорошее повествование может быть более захватывающим, чем демонстрация идеальной денежной ценности в предоставлении рекомендации по SEO. Так, руководству будет проще довериться вам и вашей идее.


Джеки Чу девушка, которая испытала это на своем опыте.


Джеки Чу &ndash; девушка, которая испытала это на своем опыте


Хотя определенно есть люди, которым еще стоит немного подучить SEO в техническом плане, я считаю, что наличие сильных личностных лидерских качеств, умение рассказывать истории имеет решающее значение для успешного инхаус SEO. Реальность такова, что корпоративные сайты на самом деле даже не всегда корректно справляются с основными задачами оптимизации, и это потому, что оптимизация чего-то вроде бы незначительного, например тегов заголовков или масштабного изменения hreflang, может быть значительным вкладом в наращивание позиций сайта.


Даже вне вашей работы вы выполняете значительный объем работы по развитию SEO ваших проектов. Когда я вижу, как инхаус SEO-специалисты борются с трудностями, они, к сожалению, часто правы в отношении проблемы SEO, однако настоящая проблема состоит в том, что они не могут найти ресурсы, заинтересованность коллег и правильную расстановку приоритетов. Именно здесь необходимо быть сильным коммуникатором и уметь правильно доносить свои мысли и идеи, чтобы помочь снизить уровень неизбежных конфликтов, возникающих между командами, работающими над одним проектом, но имеющих разные цели.


Существует множество преимуществ инхаус SEO-специалиста, но вы должны уделять столько же внимания развитию своих навыков межличностного общения, как и развитию технических навыков. Даже если вы каким-то образом можете добиться огромных успехов без наличия сильных личностных качеств, если вы не сделаете своим приоритетом продвижение команды и своей работы, маловероятно, что вы и дальше будете находить поддержку в компании. И у вас никогда не будет возможности довести дело до конца без хорошо заложенной основы. Джеки Чу, ведущий специалист по глобальной поисковой оптимизации в Uber.


Джеки Чу (Jackie Chu), главный специалист по поисковой оптимизации в Uber



Проблема 2: Техническое SEO выстраивается в маркетинге, а не в продукте


Проблема с SEO и организационным проектированием связана с проблемой нехватки ресурсов. Суть в том, что сеошники не получают ресурсов, потому что они живут в рамках маркетинга, а команды инженеров живут в рамках продукта. Разрыв этой связи приводит к разным стратегическим планам, но, исходя из моего опыта, все эти проблемы можно решить.


  • Причина 1: Некоторые руководители путают SEO с контент-маркетингом и в результате помещают SEO в маркетинг.
  • Причина 2: Корпорации часто рассматривают трафик как маркетинговую метрику и вершину воронки.
  • Причина 3: В большинстве компаний нет специальных команд по развитию, которые объединяют маркетинг с командами инженеров.

Решение 1: SEO и техническое SEO это разные вещи, и эта разница со временем только увеличивается. SEO-специалисты это чаще всего специалисты широкого профиля, но для крупных сайтов вам нужны технические сеошники. В лучшем случае технический SEO находится в рамках продуктового и контентного маркетинга. Иногда директор по SEO или вице-президент по SEO может возглавлять команды технического SEO и контент-маркетинга, как в моем случае. Но, в реальности, все по-другому.


В качестве решения, компании, ориентированные на продукт (сайты, ориентированные на инвентаризацию), должны поощрять команды по развитию, а также SEO-специалистов. Компаниям, ориентированным на продажи, следует использовать контент-маркетинг или гибридный подход.


Игал Столпнер стал успешным на сайте investing.com, отчасти потому, что он хорошо разбирается в своем деле.


Игал Столпнер стал успешным на сайтеinvesting.com


"Ключ к успеху инхаус SEO это стать частью этого процесса. В большинстве компаний стратегический план реализуется продуктами или исследованиями и разработками. Как инхаус SEO-специалист, вы должны быть уверены, что находитесь прямо в центре этого процесса и что никакие существенные изменения или запуски не проходят мимо вас.


Конечно, независимо от того, насколько хорошо вы вовлечены в этот процесс, время от времени вы будете получать сопротивление со стороны других отделов. Как показывает опыт, долгосрочный успех SEO зависит от качества продукта и от приоритета опыта конечного пользователя. Часто отделы продаж и бизнеса стремятся к противоположному, отдавая предпочтение бизнес-возможностям, а не другим вещам. В этом случае задачи инхаус SEO остаются несколько позади. Рекомендации Google, тематические исследования третьих сторон и другие опубликованные материалы и заявления должны использоваться для защиты соответствующих задач от неверных решений. Будьте актуальными и конструктивны."


Игал Столпнер (Igal Stolpner), вице-президент по развитию и SEO-оптимизации в investing.com



Если компания изначально не настроена на это, можно попытаться настаивать, но это будет очень сложно и не факт, что вы чего-то добьетесь. В данном случае, решить эту проблему можно просто показывая руководству плачевность текущего состояния компании.


Решение 2: Обучение принципам SEO всей компании, от дизайнера до отдела продаж, инженеров и копирайтеров также может дать свой плод.


Когда я работал в Atlassian, я понял, что у меня никогда не будет достаточно ресурсов, чтобы сделать все, что я запланировал. Поэтому, я начал образовательную кампанию, чтобы всех сотрудников обучить основам SEO. Я провел много семинаров с инженерами, дизайнерами и писателями контента, чтобы показать им, как небольшие изменения в их работе могут повлиять на успех компании. Я создал шаблонные контрольные списки, раздал всем сотрудникам и начал процесс обучения. В итоге я создал много внутренней документации на Confluence (аналог вики), чтобы люди имели справочные материалы и могли учиться в удобном для них темпе.


Самое главное, я отслеживал результаты и показывал их людям. Такая обратная связь побудила их продолжать учиться больше. Иногда это было просто ключевое слово, которое улучшало рейтинг. В других случаях это был какой-то рубеж, которого мы достигли. Им это очень понравилось. Вы будете удивлены, насколько многого можно достичь с помощью этой стратегии.


Обучая других сотрудников, вы, тем самым, увеличиваете и свой багаж знаний, а также повышаете ваше влияние на коллег, что, несомненно, поможет вам в решении других задач в будущем.


Решение 3: Иногда лучшее решение просто уйти из компании. Это звучит жестко, но если вы постоянно сталкиваетесь с организационными ограничениями, переходите в другую компанию. Не всякая игра стоит свеч.


Проблема 3: SEO-специалисты не умеют демонстрировать важность SEO-оптимизации


Показать (денежную) важность SEO сложно, потому что вы не можете обещать результат, но это не значит, что вы ничего не можете сделать. Как раз таки можете.


  • Причина 1: Атрибуция по последнему взаимодействию. Многие компании измеряют вовлеченность на основе последнего действия посетителя. Это не всегда прозрачно для SEO, потому что пользователи посещают сайт несколько раз, пока не совершат конверсию.
  • Причина 2: Отсутствие понимания того, как бизнес зарабатывает деньги. Многие сеошники не понимают всех факторов, влияющих на получение дохода.
  • Причина 3: Слишком много внимания уделяется статистическим данным. Трафик, рейтинги и SEO-видимость полезны, но это лишь средство для достижения цели. Мне приходится часто видеть, как SEO-специалисты останавливаются на достигнутом, но не смотрят на конверсии и доход.

Решение 1: Очень важный шаг показать влияние SEO это сравнивать атрибуцию по первому и последнему взаимодействию. Если вы настроите ее правильно, первое взаимодействие окажет гораздо большее влияние. Однако это означает, что вам нужны модели атрибуции, а создать их не так уж просто.


Готовые модели атрибуции часто не настолько эффективны, но это лучше, чем ничего. Бета-версии Google Analytics и Hubspot, кажется, движутся в правильном направлении. Я также думаю, что с развитием машинного обучения мы найдем правильную атрибуцию с первого взаимодействия. Если у вас нет команды аналитиков или специалистов по обработке данных, которая могла бы правильно атрибутировать конверсии, воспользуйтесь готовым решением или же уходите от использования модели атрибуции.


Решение 2: Отслеживайте конверсии на определенных страницах (если у вас централизованный сайт). Не каждой компании нужна полноценная модель атрибуции. Иногда достаточно сказать мы получаем x конверсий на этих страницах, а они получают y трафика от SEO. Этого может быть достаточно, чтобы продемонстрировать денежную ценность SEO. Это также одна из причин, почему я считаю, что сеошники более успешны в таких отраслях, как электронная коммерция: там легче отслеживать конверсии.


Решение 3: Используйте конкурентный анализ. Вы можете доказать важность оптимизации, показав руководству, как делают конкуренты. Для этого вам нужен конкурент, который ранжируется лучше вас. В противном случае, этот вариант убеждения вам ничего не даст.


Решение 4: Продавайте прибыль, а не трафик. Если ваша цель продавать трафик или ранжирование, вам будет труднее получить ресурсы. Поэтому, нужно фокусироваться на прибыли или лидах.


Как продвигать SEO внутри компании


Как продвигать SEO внутри компании


Успешные инхаус SEO-специалисты становятся SEO-менеджерами


Продвигать SEO внутри компании значит заинтересовать людей темой SEO, точно так же, как Гай Кавасаки привлекает людей на платформу Canva. Умение вызвать интерес может решить множество проблем, таких, как: нехватка ресурсов или поддержка со стороны руководства. Но как этого добиться?


Определите четкую стратегию SEO


Четкость это залог успеха стратегии и исполнения. Чем лучше люди понимают, что вы планируете делать и как вы достигаете своих целей, тем легче им поддержать вас или дать обратную связь.


Не так давно я написал руководство по определению стратегии SEO с нуля. Я по-прежнему придерживаюсь семи ключевых атрибутов: дальновидность, осуществимость, тактика, прогрессивность, надежность, актуальность, внимательность. Однако эта часть руководства посвящена как, а не что, поэтому я могу показать вам, как сделать стратегию четкой и понятной.


Как создать стратегический план по SEO


Как создать стратегический план по SEO


Стратегический план по SEO это план того, что и когда нужно делать. Я точно знаю, что чем четче и точнее проработан ваш план, тем выше ваши шансы на его выполнение. Здесь мы возвращаемся к продажам и продвижению: четкая постановка вопроса первый шаг к привлечению дополнительных ресурсов.


Стратегический план также обеспечивает предсказуемость, что позволяет измерять усилия по сравнению с доходами. Это ценно не только для вас, но и для вашего руководителя, что может избавить вас от неудобных бесед.


Как необходимо составлять план по SEO-продвижению:


  1. Определить конечные цели.
  2. Описать задачи и ключевые результаты.
  3. Спрогнозировать прирост трафика.
  4. Согласовать план с заинтересованными лицами.
  5. Отслеживать и сообщать о результатах.

Определение конечных целей


Ваши конечные цели должны совпадать с целями вашего менеджера. Зачастую этими целями являются MQL или доход. Вверху описания вашей стратегии должна быть цифра, отражающая влияние на компанию или, по крайней мере, трафик, который вы планируете привлечь в течение года.


Что я усвоил на собственном горьком опыте, так это необходимость пересматривать план, чтобы ничего не упустить. Фактически, эти цели не являются незыблемыми, и держаться за них только из тщеславия никакого смысла нет. Я рекомендую хотя бы раз в полгода сверять цели с вашим менеджером, чтобы убедиться, что вы на правильном пути, и, при необходимости, вносить соответствующие корректировки.


Задачи и ключевые результаты


Разбейте годовые цели на задачи и ключевые результаты и всегда имейте возможность вносить небольшие корректировки, если это будет необходимо. Если вы не разбираетесь еще с данной концепцией, вам потребуется время, чтобы к ней привыкнуть.


Задачи это большие проекты, которые помогают вам в достижении ваших конечных целей, например, создание контента или оптимизация шаблона страницы. Ключевые результаты это измеримые рубежи, которые приведут вас к этому: определенное количество органического трафика, рейтинги, показатели в интернете и т.п.


При определении тактики или спецификаций очень важно ориентироваться на детали. Например, вас попросили исправить ошибки 404. Однако, вы со своей стороны должны уточнить требования и то, какой необходим конечный результат.


Прогноз прироста трафика


Опять же, по этому аспекту необходима целая инструкция. Ключевой момент прогнозов трафика заключается в том, что они не обязательно должны быть абсолютно точными, но вам нужно показать, как вы к ним пришли. Например, вы предлагаете оптимизацию шаблона страницы и прогнозируете повышение рейтинга на одну позицию или увеличение трафика на 10% и как это отразится на доходности компании. Это тот тип мышления, который необходимо развивать и совершенствовать.


Имейте в виду, что вы не виноваты в том, что SEO не всегда можно предсказать. Но ваша вина, если вы не справились с ожиданиями относительно потенциальной рентабельности инвестиций.


Согласование с заинтересованными лицами


Очень важно регулярно проводить встречи с заинтересованными лицами компании (отделами продаж, инженерами, другими маркетинговыми командами, продуктами и т.д.), чтобы показать им, на каком этапе вы сейчас находитесь, что нужно вам и что необходимо им.


Не секрет что, чем раньше вы подключите команды в процесс, тем выше ваши шансы на успех. Они могут помочь вам разобраться в запросе и правильно определить все запросы, а вы со своей стороны можете привлечь их внимание к процессу, а возможно, даже вызвать у них заинтересованность!


Отслеживание результатов и отчетность


Убедитесь, что результаты совпали с вашими ожиданиями и согласованными спецификациями. Затем отслеживайте, документируйте и сообщайте о результатах.


Теперь рассмотрим следующий пункт.


Циклы обратной связи


Положительные результаты вызывают интерес у руководства. Вот почему циклы обратной связи это ключ к продвижению SEO. С помощью регулярных отчетов, вы должны показать компании, что то, что вы и другие сотрудники делаете имеет влияние на ее развитие. Отправляйте отчеты по электронной почте или создавайте отчеты в документах Google.


Исходя из моего личного опыта, нужны 3 типа отчетов:


  1. Еженедельные / ежемесячные отчеты.
  2. Автоматизированные отчеты.
  3. Годовая отчетность.

Еженедельные / ежемесячные отчеты


Я советую отправлять еженедельный отчет заинтересованным лицам, например, другим SEO-оптимизаторам, вашей команде или вашему боссу. Ежемесячные отчеты можно рассылать более широкой группе людей, например, руководителям компании, инженерам, дизайнерам или редакторам, в зависимости от того, работает ли SEO в рамках продукта или маркетинга.


Еженедельные и ежемесячные отчеты должны содержать информацию о прогрессе в достижении ваших целей, наиболее важные показатели и комментарии к цифрам. Каждую цифру следует сравнивать по неделям, месяцам и годам для определения контекста.


Автоматизированные отчеты


Вам необходимо создать специальную папку для сбора информации о таких проблемах, как падение трафика, аудиты или конкурентный анализ. Эти отчеты должны находиться в одном месте, чтобы все имели доступ к ним и могли ссылаться на них в своих еженедельных, ежемесячных и годовых отчетах.


Годовые отчеты


Раз в год (или раз в 6 месяцев) я предлагаю вам создавать отчет на макроуровне, где будут описываться более крупные тенденции. В этом отчете вы покажете, как вы достигли своих целей, почему вы преуспели / потерпели неудачу, что необходимо улучшить, а также влияние SEO на рост показателей.


Ошибка, которую я совершал в прошлом, я слишком поздно рассылал такие макроотчеты, когда большинство стратегий уже были окончательно закреплены. Узнавайте, когда в компании будет проходить планирование на следующий год, и подготовьте отчет для публикации примерно за 2 недели до начала планирования.


Инхаус SEO это навык


Внутреннее SEO это то, чему вы должны научиться, работать и улучшать с течением времени. Считать, что вы просто пришли в компанию, и все, что вам нужно сделать, это провести строгий SEO-аудит, неправильно. Это только первый шаг.


Мы будем рады, если вы поделитесь своим мнением и опытом о работе в агентстве и инхаусе в комментариях к данной статье.

Подробнее..

Как мы запустили агрегатор удаленных вакансий и зачем в нем ML

26.05.2021 18:20:11 | Автор: admin

В один прекрасный день в конце 2020 года мы решили сделать еще один агрегатор удаленных вакансий, начав с исключительно IT-позиций. Логично спросить: зачем? Мол, на рынке их уже достаточно. Ответ на этот вопрос звучит очень просто: мы понимали, как улучшить текущие решения как минимум по пяти параметрам.

  • Количество (агрегировать больше всех в мире);

  • Реальная удаленка (а не позиции в стиле "remote until COVID-19");

  • Актуальность (часто на схожих сайтах можно найти большое количество неактуальных вакансий);

  • Хороший поиск (по нашему мнению поиск на текущих сайтах с удаленными вакансиями находится на уровне 2005 года);

  • Фильтр по гражданству.

О последнем параметре я и хочу сегодня рассказать.

Прежде, чем вы начнете читать. Сегодня мы запустились с Bergamot на ProductHunt. И, если у вас вдруг возникло желание поддержать наш продукт, будет круто. Ищите нас тут.

Проблема

Иногда компании устанавливают ограничения для граждан некоторых стран (например, компания готова нанимать только ребят с гражданством США / или конкретным типом визы ЕС). Как правило, на страницах с описанием вакансий нет отдельного поля где выводились бы подобные ограничения. И поиска/фильтра, соответственно, тоже нет. Поэтому соискателю приходится внимательно читать текст каждой вакансии, чтобы понять, есть ли вообще смысл откликаться на эту позицию.

Мы знали, как решить эту проблему, а именно показывать пользователю только те вакансии, на которые он реально может претендовать, учитывая его гражданство.

Анализ

Сначала мы думали решить эту задачу простыми алгоритмическими методами. Базовая идея заключалась в следующем:

Шаг 1

Ищем определенные ключевые слова в тексте, например: only, remote in, authorized to work in и так далее.

Шаг 2

Ищем рядом с ключевыми словами локацию. Как правило, это слово, которое начинается с заглавной буквы. Если такое слово-локация находится, то оно и является ограничением.

Окей, если в вакансии написано USA only, то такая логика работает идеально. Но если капнуть глубже, становится понятно, что ограничения могут быть обозначены самыми разными, например:

  • This role is remote and you can be based anywhere across the UK

  • Living in Europe is a must

  • This opportunity is only open to candidates within Canada at this time

  • Location: Argentina (any part of the country its great for us!)

  • и еще сотни других описаний.

Очевидно, алгоритмами задачу не решить и мы попробовали использовать силу ML-a.

Задача

На всякий случай ещё раз сформулирую задачу. На входе текст с описанием вакансии, в котором, как правило, содержится описание компании, стек технологий, требования, условия, бенефиты и так далее. На выходе у нас должны быть параметры:

restriction: 0 (no) / 1 (yes)

если restriction = 1, то тогда необходимо выделять еще и страну, по которой есть ограничение

Решение

Структура решения

Итак: на входе у нас текст, в котором обычно содержится куча всего. Задача была несколько сложнее, чем просто написать обычный классификатор. Сначала нужно было найти, что именно классифицировать.

Так как мы пытаемся решить проблему с локациями, для начала нам нужно найти их в тексте. Потом выделить все предложения, в которых содержались локации и уже для них написать классификатор.

Нахождение локаций

Сначала мы также хотели решить задачу в лоб: найти где-нибудь список всех стран и городов и просто искать их вхождение в тексте. Но опять же, задача оказалась не такой очевидной.

Во-первых, ограничения касались не только стран и столиц мира, а также небольших городов и штатов. Например Can work full time in Eugene, OR / Hammond, IN. А сделать список локаций всех уровней уже сложнее.

Во-вторых, написания локаций в вакансиях часто отличались от стандартного (например 100% Remote in LATAM).

Поэтому для выделения локаций мы приняли решение использовать NER. Пробовали разные готовые варианты:

В итоге выбор пал на spaCy, потому что из готовых и бесплатных вариантов spaCy EntityRecognizer показал наилучший результат.

Итого: нам удалось выделить в тексте локации.

Разделение на предложения

Для разделения на предложения, где есть локации, мы тоже использовали spaCy.

На выходе мы получили список предложений из текста, где содержатся локации. Вот примеры таких предложений:

  • The position is remote so the only thing is they have to be in the US and be able to work Eastern or Central time.

  • This job is located out of our Chicago office, but remote, US-based applicants are still encouraged to apply.

  • This is a remote role, but we're looking for candidates based in Montreal, Canada.

Классификатор

Эти предложения и должна была разметить модель. Важно у нас не было возможности сделать датасет с десятками тысяч таких предложений (на это нужно очень много времени), поэтому при подборе модели нам надо было учесть эти ограничения.

Решили попробовать несколько моделей, среди которых как более простые CNN и LSTM, так и более современные transformers. Последние предсказуемо оказались лучше, обучение которых сводилось по сути к fine-tunning это нам точно подходило, ведь датасет, как я уже сказал выше, был невелик.

Среди transformers наилучший результат показала архитектура RoBERTa (roberta-base) с показателем точности 94% для нашего датасета.

Нормализация локаций

На основе классификатора и NER-a для каждой вакансии мы получили вот такие дополнительные поля:

restriction: 1 (yes); location: London

Restriction отдавал классификатор. А вот Location выдавал NER. Из-за того что в поле Location могли быть разные написания городов и стран, мы еще сделали дополнительную нормализацию через Google API. Остановились на том, чтобы сделать ограничения по странам.

То есть на выходе получалось:

restriction: 1 (yes); location: United Kingdom

Итог

В итоге мы теперь умеем это делать и кандидаты могут фильтровать неподходящие для них вакансии. Mission accomplished (вроде бы! вы можете сами потестить Bergamot и написать, что думаете).

Подробнее..

Это нормально, если 30-40 URL выдают ошибку 404? Google об отношении поисковых ботов к битым ссылкам

03.03.2021 06:16:05 | Автор: admin
Обеспокоенным вебмастерам с большим количеством битых ссылок в Google Search Console можно расслабиться. Оказывается, когда почти половина страниц сайта отзывается 404-й ошибкой это норма для поискового бота Google.

Представитель корпорации Джон Мюллер сказал, что это обосновано алгоритмом работы кроулера, анализирующего сайт и каждую страницу на нем. Поисковый бот продолжает сканировать страницы, которые были удалены, причем даже те, что были удалены несколько лет назад. Помешать поисковику заниматься анализом мертвых страниц нельзя.

И что с этим делать? Ничего. Если вы уверены, что страницы больше не существует, то можно выдохнуть. Бот Google проанализирует битую ссылку и проигнорирует ее. На оценку Core Web Vitals и позиции сайта в поисковой выдаче наличие ошибок 404 не повлияет.

Кстати, планируется, что в мае этого года Google обновит факторы ранжирования и добавит новый алгоритм Page Experience. Новый алгоритм ранжирования будет состоять из 7 параметров. Также Google анонсировала новый инструмент Core Web Vitals, который придет на смену и объединит сервисы Lighthouse, Chrome DevTools, PageSpeed Insights, Search Consoles Speed Report.

В 2021 году в Google ожидаются большие изменения в ранжировании. Так что стоит обратить внимание на новый алгоритм и сервисы для проверки.
Подробнее..

Как аналитика помогает нашей IT компании получать крупные контракты из SEO

02.03.2021 12:21:43 | Автор: admin

Крупные контракты на кастомную разработку для американского бизнеса, которые приходят к нам из SEO, позволили нам, IT аутсорсинговой компанией со 170 сотрудниками в 2017 году (сейчас 300), покрыться небольшим жирком. Он дает нам возможность инвестировать в разработку аналитических инструментов для собственных нужд и настраивать масштабируемый процесс лидогенерации. Началось все с меня как технического сеошника, продолжается созданием маркетинговой команды под меня и под мою методологию. Раз в это инвестирует руководитель B2B компании в сфере разработки ПО на заказ, это работает на западном рынке, и это можно масштабировать, то может и вам будет это интересно?

С чего ты взял, что SEO может давать enteprise контракты?

Если бы я мог вам расшарить коммерческую информацию, было бы здорово. Но, с другой стороны, все равно вы ее проверить не сможете.

Поэтому давайте рассуждать логически.

  1. Я пришел в компанию в начале 2017 года как единственный специалист по входящему маркетингу в компании, но формально как сеошник, в начале 2018 ушел. Входящий или inbound маркетинг, если кратко, это действия, которые приносят лидов с сайта такого качества, чтобы они потом легко селзами превращаются в клиентов. Этим входящий маркетинг отличается от всех других видов маркетинга.

  2. Ближе к концу 2019 года я вернулся и начал формировать отдел. Теперь в нем я как руководитель, а также еще 3 человека (копирайтер, сеошник и пиарщик) - и мы не собираемся останавливаться на этом размере. Как вы думаете, с чего бы руководителю компании инвестировать в кого-то или во что-то все больше и больше, если только это не выгодно?

Все это хорошо, но так как это статья для аналитиков, то нужно больше пруфов.

Например, как определить, что потенциально крупный клиент пришел именно из SEO, а не других каналов?

Это сделать можно, но только если у вас настроен анализ воронки. Давайте приведу пример:

Это скрин из яндекс метрики, из него видно, что из поиска Google пришел предположительно американец на один из наших лендингов, потом перешел на другой и сразу же оставил заявку, чему подтверждением является срабатывани цели на т.н. thank you page. Из яндекс метрики мы не видим, что за запрос нам пришел (может, спам?), эти данные можно получить только из CRM. На скрине ниже виден текст его запроса.

Минуты отличаются. Но в этот день с этой страницы был только один лид, поэтому мы его идентифицировали быстроМинуты отличаются. Но в этот день с этой страницы был только один лид, поэтому мы его идентифицировали быстро

После матчинга данных из счетчика аналитики с данными из CRM мы можем увидеть текст сообщения. Фразы big visualization project и we dont have a budget limit as we need a very high quality dev team как бы намекает, что контракт может быть очень интересным. Заявка пришла с коропоративного домена, что позволяет сделать исследование компании. Эта информация на скрине замазана, могу сказать лишь, что это компания работает со сферой Oil and Gas. Станет она нашим клиентом или нет - пока неизвестно, но лид этот считается качественным, так как полностью соответствует экспертизе компании, а заказчик - из интересующего нас региона. И - он пришел из SEO. Это горячий лид, которого не надо спрашивать, нужна ли вам услуга или нет, она ему нужна, он находится на стадии выбора поставщика решений.

Этим, кстати, SEO-сфокусированный inbound маркетинг существенно отличается от outbound маркетинга (генерация лидов через линкедин, емейл-рассылки, таргетированную рекламу в соцсетях и брендированную рекламу), и единственное, что может ему составить конкуренцию, это контекстная поисковая реклама.

Строго говоря, все вышеперечисленное не доказывает, что SEO дает крупные контракты. К сожалению, я не могу расшарить коммерческую информацию по тем случаям, когда это действительно видно. Поэтому попрошу поверить мне на слово и сконцентрироваться на дальнейших рассуждениях.

Ну ок, ты нам показал, что теоретически это возможно. Предположим, мы тебе поверили. Рассказывай, что надо сделать, чтобы у нас тоже приходили лиды из нужной нам страны с запросам на разработку по нужной нам экспертизе из SEO.

Знания - ничто, контекст - все!

Для начала давайте определимся, что может сделать SEO специалист, если бюджет выделен только на его зарплату. Много чего, или мало чего. Зависит от его квалификации.

Я расскажу, что делал я, чтобы были понятны тонкие моменты, которые не видны, если ты даешь простые инструкции. Если лень это читать - сразу переходите к следующему разделу статьи с инструкциями под названием Что нужно сделать, чтобы SEO стало каналом стабильной качественной лидогенерации для IT компании?

Итак, поехали.

Когда я только пришел, то начал со стандартных активностей по техническому SEO. Например, блог представлял собой архив с пейджингом. Я пересмотрел статьи в блоге, понял, что они на разные темы, попробовал эти темы сформулировать правильно, превратил темы в хайлевельные теги и вынес их в подменю блога, что позволило убрать пейджинг. Сделано было и многое другое, более традиционное для активностей, которые называются техническим SEO. Не хотелось бы на этом останавливаться, так как это не является целью данной статьи. Это особо лидов не увеличило. Трафик с сайта продолжал идти преимущественно нецелевой из Индии. Моя задача по использованию SEO для лидогенерации не решилась.

Пытался заниматься т.н. крауд-маркетингом, т.е. заходил на форум по теме и ссылки там ставил. Но это было как-то скучно, долго и не масштабируемо. Хотя пару лидов было.

Мне рекомендовали закупать ссылки, но у меня был страх экспериментировать с этим, так как это похоже на игру в казино. В результате закупки ссылок ты можешь или получить все или потерять все. Да еще Google стращал, мол, не делайте этого. А западные эксперты твердили на разные лады - главное контент, главное контент, content is a king.

Мне повезло, что я пришел в техническое SEO с бекграндом человека пишущего (формальное журфаковское образование). Также мне повезло, что я на халевельном уровне стараюсь разобраться, как работают технологии. Этот бекграунд, а также отсутствие серьезных результатов после внедрения технического SEO и, соответственно, бюджетов, с одной стороны, и вера в силу бестпрактик, с другой стороны, привел меня к мысли, что надо писать контент (англоязычный). Но совершенно не было понятно, на какую тему. А если мне эти темы предлагали, то мне было совершенно непонятно, почему именно эти темы, а не другие.

Точно я знал только одно: мне нужны ссылки, но только естественные. Также мне нужен трафик, много трафика. Результатом моих изысканий стало предположение, что надо писать холиварные статьи типа JAVA vs PHP или мотивационные типа Software developers who started after 35 (кстати, стала вирусной и дала кучу ссылок и 50 000 переходов на сайт). Результатом этой активности стало малюсенькое увеличение лидов, что было неплохо, но и не очень хорошо. Особенно в свете того, что плохо масшабировалось. Прямо как из истории про проститутку в книге Черный лебедь. Под знаком непредсказуемости.

В общем я выгорел и ушел в другую более крупную компанию, где было поменьше работы. Но оставил наследство в виде методологии: самое главное не SEO, а контент, надо нанять копирайтеров, пусть они пишут и лиды пойдут, а также нужен линкбилдер.

Через год мне позвонил руководитель компании и говорит: мы наняли 3 копирайтеров и руководителя к ним, а также линкбилдера, у нас появился бюджет на ссылки, плюс взяли сеошника. Потом он добавил: когда ты ушел у нас пошел резкий рост лидов (отложенный эффект моих прошлых активностей), мы захотели это масштабировать - наняли эту команду по твоему совету, думали в четыре раза вырастут лиды. А в итоге выросло не намного, но самое главное - мы никак не можем взять клиентов - лиды недостаточно качественные (или селзы плохо работают?).

К этому времени мне надоело работать в корпорации, куда я перешел, так как для меня там не оказалось по факту интересных задач и я согласился стать руководителем маркетинга. Мы взяли в команду сеошника и поехали.

Первым делом я стал думать, почему у нас нет крупных лидов на разработку. Есть только мелкие. А расходы при этом увеличились на маркетинг. В итоге я сформулировал гипотезу: все дело в том, что мы делаем неправильный мёд контент, мы размещаем неправильно ссылки, и мы снова делаем только техническое SEO!

Меня спросили: ну ок, раз ты такой типа умный, скажи как правильно, будем делать правильно. Я в ответ - э нет, ребята, давайте-ка вместе все это вырабатывать в формате воркшопов. Создадим базу знаний и чеклисты по SEO, копирайтингу, линкбилдингу. Внедрим что-то типа Scrum митингов, поставим KPI, каждую неделю будем подводить итоги. И будем учиться достигать большего.

Тут надо сказать, что big boss из меня так себе. Да, до прихода в IT маркетинг я руководил работающей только на сайт командой из 5-8 человек в одной медийной компании. Но это были контент-менеджеры, они просто загружали готовый контент (его много было ежедневно), ну был еще рерайтер на новости. Там никаких бестпрактик и KPI не было. Соответственно и требования к персоналу были не высокие. Здесь же требовалось высокое качество исполнения.

В общем из 5 человек спустя несколько месяцев на инбаунд направлении осталось только 2 (копирайтер и сеошник). Вскоре нас покинул и сеошник со словами, я не понимаю, что от меня хотят. А через год и копирайтер со словами, я просто пишу тексты, что ты от меня еще хочешь?

И остался я в какой-то момент - один одинёшенек.

Конечно, я очень сильно порадовал моего шефа сокращением издержек производства. Но было одно но. Меня совершенно не устраивала складывающаяся ситуация. Я не хотел работать как волк-одиночка, как в прошлом, я хотел работать с командой, которая может работать со мной по моей методологии.

Проблема была в том, что у меня не было никакой методологии, а была только профессиональная интуиция, ну и кое-какие навыки работы руками. Это очень мало для создания команды, а тем более для масштабирования.

Пришлось много думать, очень много думать. Думать до работы, думать после работы, думать после того, как проснулся, думать перед тем, как заснуть.

В итоге я придумал (хотя, если бы умел читать нужные книги или профильное образование - додумался бы быстрее).

Мистер очевидность понял, что надо научиться все цифровывать.

Ладно, вру, не сам додумался, в корпорации где я успел поработать, мой менеджер так всегда делал и я у него подсмотрел.

Итак, для того, чтобы понять, почему мы вбухиваем кучу денег в контент и в ссылки - ничего серьезного не происходит, мне надо было понять простую вещь: на каком этапе у нас что-то не получается и как это изменить.

В итоге я изобрел следующий велосипед:

  1. Сначало надо определиться, в какой ситуации мы находимся. Их может быть три: а) ничего не делали, хотим лидов, что делать. б) много чего делали, лидов нет или мало, что делать. в) лиды есть, хотим больше, что делать.

  2. Дальше надо определить, кто и что должен делать, а что не должен. И самое главное, что считать результатом его завершенной работы. Я в этой статье приведу подробное описание на примере сеошника. Примеров для копирайтеров или пиарщиков и т.д. пока не привожу, как-нибудь, в следующий раз.

  3. Теперь нам нужно понять критерии, хорошо ли у нас идет процесс или нет и понять это как можно раньше.
    Тут вот какое дело: результат всегда можно посмотреть - увеличилось или нет количество лидов нужного качества из нужного региона по SEO.
    А вот понять, какой отрезок процесса можно оптимизировать - уже сложнее.

Итогом стала оцифровка процесса работы сеошника, процесса работы отдела и ожидаемых результатов работы.

Мы согласовали с руководителем, что для воплощения методологии необходимо нанять в штат кроме меня еще и пиарщика (уже в команде), двух копирайтеров (пока с одним работаем, второго ищем), и сеошника (уже нашли, он видел заготовку этой статьи и не испугался).

Отзыв сеошника, который в жизни не видел этой методологии, но не испугался и понял, что от него хотят: "Изначально была не согласна, что основные технические ошибки нужно исправлять в конце или в перерывах. Но если задуматься, то реально же, в выдаче в топе много сайтов с многочисленными ошибками, но контент там качественный-значит это работает. Я раньше работала сразу со многими сайтами и у меня не было возможности так глубоко прорабатывать сайты, поэтому работа и строилась на исправлении ошибок, а потом контент. Из статьи стало понятно, что это целая философия и это реально очень интересно".

Работа команды по этой методологии (а не только меня как раньше), думаю, позволит нам вырастить лидов в течение года в два раза и отобьет возросшие затраты. Что позволит ставить планы еще более далекоидущие. Но расскажу об этом в следующих материалах, когда будет что рассказать. Хотя уже сейчас видим рост лидов, не традиционный для начала года (хотя возможно, и год нетрадиционный, все-таки постковидный). В любом случае - прогресс просматривется.

Что и в каком порядке должен делать SEO специалист в команде

Все активности сеошника я делю на 4 категории:

  1. keyword analysis (сбор семантического ядра).

  2. SEO competitor analysis (анализ конкурентов).

  3. keyword position tracking (анализ результатов SEO-работы).

  4. Другие активности.

Keyword Analysis

Для данной активности признаком завершенной работы является наличие:

  1. Списка слов, по которым планируется продвижение (выход в топ-3 и выше) в этом месяце, потому что именно эти позиции дают максимум трафика.

  2. Обоснования, почему нужно фокусироваться именно на этих словах.

  3. Списка страниц сайтов, которые уже занимают необходимые нам места в топ-3 в нужном нам регионе нужного нам поисковика (Google USA). Это, в первую очередь, список страниц сайтов наших конкурентов.

Давайте остановимся на этой категории подробнее

Надо ли объяснять, зачем продвигать отдельные страницы по отдельным словам?

На всякий случай поясню: потому что существуют слова, которые могут конвертить (т.е. превращать посетителя сайта в лида, который при должной отработке сейлзами станет клиентом). Это не является неким секретом. На слайде ниже виден пример, как это работает, из реальной жизни.

Из таких примеров я обычно делаю следующий вывод: существуют так называемые лидогенерирующие слова (коммерческие запросы), которые вводят наши потенциальные клиенты. В случае, если по этим словам находится наш материал и он в топ-3, то максимально высока вероятность того, что такой посетитель станет нашим целевым лидом. Эта вероятность тем выше, чем выше по этому слову наша страница.

Выглядит все сравнительно просто, если не обращать внимание на маленький нюанс: вероятность того, что вы точно узнаете, по какому слову к вам пришли из поиска ваши клиенты, близится к нулю.

Сделал Google это нарочно еще в 2013 году, потому что понял очень простую вещь если слова генерят клиентов, зачем бесплатно отдавать информацию о таких словах владельцам сайтов, пусть узнают о них только заказав услуги поисковой рекламы у Google. Заказ контекста у Google работает, вещь хорошая, если бы не пару проблем: стоимость клика в нашей нише может быть и 20, и 50, и более у.е. за слово. При этом не каждый клик приносит лида и не каждый клик является кликом от человека, а не робота (проблема скликивания бюджета практически не решена в Google Ads). Я уж молчу про особенности алгоритмов Google Ads, которые при наличии конкуренции не будут давать вам гарантированно первое место по словам (даже если вы переплатите), если ваш контент плохо соответствует этим словам.

Итак, существуют слова, которые могут приносить лидов с большей степенью вероятности (вложись в них и отобьешь все маркетинговые бюджеты максимально быстро, да еще прибыль получишь!), но вы не знаете точно эти слова.

Что вам остается в этой ситуации?

Начинать продвигать страницы по целому списку слов, а не по одному какому-то слову в надежде, что среди этих слов будет как-раз то, которое лидогенерирующее (и желательно, не одно).

Тут возникает другая проблема. Если у нас на сайте сотни страниц и каждая страница может продвигаться по целому списку слов, то этот метод не выглядит рабочим. Это сколько же надо ресурсов, чтобы за всем уследить!

Но благо она решаема не силой, а умом. Решение в свое время сформулировал один известный сеошник Brian Dean: вам не надо сотни постов, у меня 40 постов, которые дают мне трафик в 100 000 человек в месяц.

Я переформулировал для себя его фразу так: мне не надо продвигать все страницы сайта, мне надо продвигать только те страницы сайта, которые уже приносят мне лидов или которые хоть и не приносят пока лидов, при должной доработке смогут приносить лидов в ближайшем будущем (т.е. быстрее, чем другие страницы).

Тут возникают четыре проблемы:

1. Как определить, какие страницы приносят больше всего лидов сейчас?

2. Что надо сделать, чтобы они приносили еще больше лидов?

3. Как определить, какие страницы могут приносить лидов в ближайшем будущем быстрее, чем остальные, хоть сейчас и не приносят?

4. Что надо сделать, чтобы страницы, не приносящие лидов вообще, начали приносить хоть сколько-то лидов для начала?

Давайте обо всем по порядку.

Какие cтраницы приносят вам больше всего лидов сейчас?

Это страницы, с которых отправляют заявки. Важный момент: если заявку у вас можно отправить не с каждой страницы, а только со страницы с контактной формой, то лидогенерирующей страницей будет та страница, которая является последней в списке страниц, просмотренных лидом перед отправкой сообщения. Но лучше форму поставить на каждой странице, не искушать судьбу.

Итак, вы можете из своей системы аналитики получить список страниц, после просмотра которых лид отправляет заявку. После соответствующей обработки у вас должен получиться отчет типа такого (список страниц, отсортированный по количеству лидов по убыванию).

Чтобы быстро получать такой отчет (и целый ряд других), мы разработали свой универсальный Business Intelligence Tool (BI), который подключается к базе данных нашего сайта (CRM) и автоматически выдает нам необходимые данные для принятия решений.

Например, такой отчет должен показать, какие страницы больше всего приносили заявок (неспамных) из любого необходимого региона в любой промежуток времени с необходимым скорингом. Показатель не спам крайне важен, иначе вы примете неправильные решения (вам могут, например, отправлять много заявок об обмене ссылками, и эти заявки не должны попадать в аналитику, поэтому мы доработали CRM сайта так, чтобы прямо там в интерфейсе можно было проставлять метку спам до того, как данные уйдут в BI).

Что надо сделать, чтобы лидогенерирующие страницы приносили еще больше лидов?

Я лично вижу только два варианта:

  1. На эту страницу должно приходить еще больше трафика по еще большему количеству лидогенерирующих слов (естественно, связанным по теме единым кластером).

  2. Эта страница должна иметь потенциал конвертить максимальное количество трафика по этим словам.

Как видим, здесь работа, как минимум, для трех специалистов:

  1. Сеошник должен определить лидогенерирующие слова и предложить SEO ТЗ после анализа конкурентов для копирайтера.

  2. Копирайтер должен не просто вставить слова в текст, но и повысить конвертирующую способность содержимого этой страницы (сonversion rate optimization), т.е. должен быть маркетингоориентированным.

  3. Дизайнер должен визуально контент упаковать наиболее эффективным способом, т.е. должен быть маркетингоориентированным.

Я понимаю, что все вышеизложенное может звучать чересчур теоретизированно, поэтому предлагаю рассмотреть следующий пример из практики.

Пример: по итогам анализа эффективности работы сайта в декабре мы определили, что в январе нам лучше всего начать переработку статьи-лендинга по PHP разработке, потому что она приносит больше всего лидов (на самом деле нет, пример просто для иллюстрации), а мы хотели бы число лидов с нее еще больше увеличить (т.е. масштабировать).

Для этого выгрузим отчет из нашей аналитики и посмотрим, какие позиции по каким словам она занимала по итогам месяца и что это за слова.

С помощью нашего BI solution я автоматически (т.е. не свожу вручную данные из разных таблиц) за 5 минут получаю сведенные данные из Google Search Console и Google Keyword Planner. Это список из более чем 200 слов (на слайде показаны только 9), по которым у нас наибольшее количество показов нашей страницы в нужном нам регионе (Google USA). У нас много impressions? Значит, можем сформулировать гипотезу: Google считает нас высокорелеватными, но надо поднажать, и мы получим результат быстрее, чем если будем делать что-то другое.

Как анализировать этот, в общем-то, типовой отчет?

Сначала мы смотрим, какие слова из перечисленных имеют наибольший Volume. Как видим, это php development company (volume или прогнозируемый спрос равен 210 запросом в месяц) и php development companies (тоже 210).

Эти слова похожи на лидогенерирующие (человек конкретно ищет компанию), аналитика даже показывает, что по этому слову есть клики (при этом стоимость клика, если бы мы покупали рекламу по этому слову в Google ADS доходит до 48.53 у.е. за один клик!).

Формулируем гипотезу, что по слову php development company мы можем продвинуться быстрее в топ-3 и выше, потому что мы уже между 5 и 6 позицией в среднем за месяц. При этом количество impressions на этой позиции этой страницы в этом регионе 539, что больше search volume, а не меньше (т.е. показы не случайны, стабильны, место стабильно).

Делаем вывод, что это слово должно войти в список слов, по которым мы будем продвигаться в первую очередь в текущем месяце.

Таким же образом мы проходим по каждому слову и по каждой необходимой нам странице и получаем список слов для продвижения в этом месяце.

Далее задача будет заключаться в том, что сеошник должен копирайтеру составить ТЗ, в котором указать по каждому слову список страниц конкурентов, которые уже в топ-3 по этому слову в необходимом регионе (как правильно снять выдачу в условиях персонализированной выдачи Google это отдельный квест) и бонусом список всех конкурентов из рекламной выдачи.

Если анализ SEO-выдачи может дать представление нам о SEO-показателях, позволивших этой странице выйти в топ, то анализ рекламной выдачи - дать инсайты о методах конверсии, которые мы можем применить в своих статьях.

Пример: проанализировав итоги января, мы определили, что по слову php development company в США:

По такому же принципу мы подготовили выгрузку по другим необходимым нам словам.

Копирайтеры теперь смогут посмотреть, как тексты конкурентов отличаются от наших текстов, сравнив их и улучшив не только по SEO, но и конверсионно.

Кроме того, им можно подготовить SEO ТЗ на основе данного анализа с указанием, например, частотности и других параметров.

Предполагается, что при правильном применении данной информации лидогенерирующие страницы улучшатся по SEO (вырастут позиции по необходимым словам) и по конверсии (станут более понятными, попадающими в боли аудитории). И соответственно станут приносить еще больше лидов.

Как определить, какие страницы могут приносить лидов в ближайшем будущем быстрее, чем остальные, хоть сейчас и не приносят?

По факту статьи-лендинг по PHP разработке не приносит нам лидов. Хотя по большому количеству слов в топ-3. Что это означает?

Это означает, что нахождение в топ-3 по лидогенерирующим словам не означает автоматически, что у вас появятся лидыПосле такого вывода на SEO хочется поставить крест.

А может быть, не на SEO, а на методологии? Может, методология ошибочна, когда SEO сводится к выводу в топ-3 по лидогенерирующим словам?

Не спешите с выводами.

На самом деле, с методологией все в порядке. У нас, как минимум, осталась одна крупная гипотеза, почему так происходит с этой страницей (а с другим лендингами в топе так не происходит).

Дело в том, что выше нас находятся страницы с более серьезным ценностным предложением (как в рекламе, так и в SEO) и CTA (элементами призыва к действию). А это уже маркетинговые дела, более того, затрагивающие в целом бренд. В итоге наш посетитель удовлетворен результатами тех, кто в топ-1 и в рекламе, а нас уже не включает в свой short-лист кандидатов на рассмотрение.

Если бы мы делали сейчас ставку на PHP development, мы бы увидели, что страница находится в топ-3 по лидогенерирующим словам, но не приносит лидов.

Это означало бы, что мы должны включить эту страницу в свой ближайший план на продвижение по SEO (из топ-3 в топ-1, из топ-10 в топ-3 и так далее) и по увеличению конверсии.

Наличие страницы в топ-3 по лидогенерирующим словам в нужном нам регионе по итогам месяца именно по этому показателю мы определяем, какие страницы могут приносить лидов в ближайшем будущем быстрее и, соответственно, на них и надо тратить время.

Что надо сделать, чтобы страницы, не приносящие лидов вообще, начали приносить хоть сколько-то лидов для начала?

У любого сайта (кроме нового или того, над которым работа ведется неправильно либо недостаточно) всегда есть четыре типа страниц по параметру SEO / конверсии:

1. страницы, приносящие лидов;

2. страницы, не приносящие лидов, хоть и находящиеся в топ-3 по лидогенерирующим словам;

3. страницы, не приносящие лидов и не в топ-3 по лидогенерирующим словам, но находящиеся в индексе поисковой системы по этим словам, например, в топ-10 или ниже;

4. страницы, которых вообще нет на сайте, так как их только планируют создать (например, для прокачки нового направления).

Третий тип страниц самый частый. Впрочем, как и четвертый.

Но третий самый болезненный для бизнеса. Работа работалась, зарплата платилась, контент размещался. Лидов как не было, так и нет.

Поэтому больше всего на свете любого сеошника и маркетолога интересует, как продвигать эти страницы, как обеспечить их вывод в топ? Желательно быстро и недорого.

Но больше, чем сеошника и маркетолога, это интересует владельца бизнеса.

Поверив обещаниям специалистов, что достаточно разместить несколько качественных материалов (которые надо писать долго, быстро вряд ли напишешь качественное, быстро можно только своровать что-то) и лиды будут, фаундер или CEO чувствуют себя обманутыми, когда лидов нет.

В таких случаях, во-первых, необходимо находить причину, почему контент есть (пусть и качественный), а лидов нет. Во-вторых, иметь политическую волю не бросать инвестиции на полпути, разочаровавшись либо в исполнителях, либо в направлении. И эта воля должна базироваться на аналитике.

Я использую следующий вид аналитики. Если статья или статьи в топ-3, но не приносят результатов, то проблема либо в том, что не по всем необходимым словам она в топ-3 (увы, не всегда гипотетически лидогенерирующее слово действительно лидогенерирущее), либо (что чаще) в том, что статья плохо конвертит.

Если у владельца бизнеса есть четкая информация по этому поводу, он может принимать взвешенное решение, что делать дальше с инвестициями: продолжать вливать деньги в работу текущих специалистов, чтобы они все-таки вывели в топ-3 соответствующие страницы сайта по нужным словам, либо найти новых исполнителей, либо изменить слова, по которым идет продвижение, либо (в самую последнюю очередь) сменить направление (да и то, только по причине, что в топ-3 по всем словам этого направления находятся такие страницы, с ценностным предложением которых вы не можете конкурировать).

К сожалению, я не знаю быстрых и недорогих способов, дающих надежный результат.

Да, можно накупить ссылок на эту страницу, но есть вероятность бана гугла. Я до сих пор такой способ применять не рискую.

Да, можно купить много недорогого контента, но вспомним слова Брайана, которые я привел выше.

Зато я знаю работающий, да, долгий и дорогой, но надежный способ:

  1. Разумеется, сначала нам надо определить, лидов на какое направление мы хотим привлекать. Предположим, мы определили, это Custom Business Intelligence Development.

  2. Предположим, у нас на сайте нет ни одной страницы по этому направлению (у нас так было какое-то время назад).

  3. Для начала нам надо определить, есть ли вообще в нише спрос на кастомную разработку. Как мы это можем сделать?

  4. Сначала собрать семантическое ядро. Для этого подойдет тулза типа Semrush.

  5. Мы нашли, к примеру, слово custom business intelligence. По внешнему виду наиболее лидогенерирующее слово из топика, да еще имеет 30 запросов в месяц в Google USA. Перепроверяем спрос через Keyword Planner (Semrush периодически врет) запросов всего 10, ну, тоже неплохо.

  6. Делаем стандартный срез рынка по этому слову.

7. Делаем вывод: рынок есть (так как есть конкуренты). Конкуренты предлагают в основном кастомизировать свои готовые решения, а не просто с нуля что-то создавать. Делаем вывод, что без наличия своего готового решения, которое можно быстро кастомизировать, выход на рынок будет высококонкурентным занятием. Так как для всех сегментов рынка такое решение создать сложно, надо сконцентрироваться на нескольких. И маркетинговая стратегия должна включать создание контента не только и не столько для тех, кто уже хочет заказать кастом, сколько для тех, кто еще находится на ранней стадии воронки продаж (хочет узнать, что такое BI, как им получить бизнес-результат именно в их нише и так далее). То есть это процесс nurturing или взращивания лидов. Он никак не будет быстрым.

А что же должен делать сеошник в этой ситуации?

Помогать с анализом рынка или самому анализировать (я вот, например, так и делал) и продолжать собирать слова и определять стоящий за ними интент для понимания, на какой стадии принятия решений находится клиент, ищущий информацию по этому слову.

И здесь мы плавно переходим к следующей категории активностей сеошника: анализу SEO конкурентов.

Резюме. Надеюсь, я смог объяснить, почему я считаю, что, во-первых, keyword analysis должен быть первым в списке активностей сеошника, во-вторых, почему результатом активности keyword analysis должен быть список слов, по которым планируется продвижение в текущем месяце, в-третьих, как должно выглядеть объяснение, почему именно эти слова мы должны продвигать, и в-четвертых, зачем нужны списки страниц, которые уже в топ-3 по каждому из этих слов.

SEO Competitor Analysis

Как мы разобрались ранее, самое главная задача сеошника это определить список лидогенерирующих слов, по которым гипотетически стоит продвигаться (т.е. обеспечивать вывод соответствующих страниц сайта в топ-3).

Конечно, всегда проще улучшать то, что есть. Если у сеошника уже есть сайт с контентом, который надо улучшить, он может проанализировать через ту же Google Search Console+Keyword Planner, по каким лидогенерирующим словам он уже ранжируется, чтобы выбрать слова для приоритетного продвижения и соответствующие страницы.

Сложнее создавать что-то с нуля. В этом случае необходимо не просто искать слова, но и сразу проверять выдачу: а есть ли там страницы конкурентов. И это работа сеошника.

И здесь вскрывается одна проблема: отчет о результатах анализа конкурентов представляется в такой форме, что Лично мне становится грустно, когда я вижу некоторые такие отчеты. Поэтому я решил рассказать о том, какой отчет по результатам анализа конкурентов я считаю завершенной работой. Лучше сделать это на примере. Пример здесь

Итого, только по результатам правильного анализа одного слова мы можем получить следующую информацию:

  1. Список страниц с рекламной выдачей и SEO-выдачей (до топ-3) по региону. Он нужен, чтобы создать с нуля свою аналогичную страницу или улучшить существующую. Список должен быть привязан к конкретному слову. По этому слову нужно показать данные по Volume, CPC и Competition из Keyword Planner.

  2. Список конкурентов, в приоритете от большего рейтинга домена до меньшего и чтобы было видно сравнение с вашим. В дальнейшем вам надо, в первую очередь, анализировать домены с рейтингом выше вашего, но если и ниже тоже можно смотреть, вдруг там увидите что-то интересное.

  3. Список других лучших страниц на сайте конкурентов и слов, по которым эти страницы ранжируются. Нужны не все страницы, а только те, идеи с которых вы можете использовать для создания своего контента. Страницы указываются только вместе со словами, по которым они в топ-3. Кстати, вот и способ пополнения семантического ядра. Надо понимать: создав один лендинг, вы можете по нему не выйти в топ только по той причине, что вы не так экспертны в глазах гугла по сравнению с конкурентами, которые не только лендинг создали, но и написали серию материалов по смежной теме (подробнее о т.н. topic cluster читаем здесь). Поэтому пишите больше материалов, но только надо четко понимать, на какие темы лучше написать быстрее, а на какие вообще не стоит писать.

  4. Список внешних площадок для размещения ссылок на вас по результатам анализа ссылочного профиля конкурентов (пример отсюда). Если мы обнаруживаем, что наш конкурент размещается на интересных площадках, о которых мы ранее не знали, или размещается способом, о котором мы ранее не знали, мы можем попробовать скопировать его стратегию.

Резюме. Надеюсь, я смог объяснить, почему я считаю, что, во-первых, сеошник должен делать анализ конкурентов в обязательном порядке, во-вторых, этот анализ невозможен без предварительного определения слов, по которым делается анализ, в-третьих, результаты анализа необходимо предоставлять правильно.

Keyword Position Tracking

Из предыдущих моих примеров стало очевидным, почему я все продвижение строю вокруг ключевых слов. Во-первых, увеличение количества слов в топ-3 увеличивает шанс прихода таргетированного трафика, т.е. трафика, который с большей вероятностью будет давать вам лидов. Во-вторых, если лиды не растут из SEO, вы всегда можете проверить, не потому ли это происходит, что вы не в топ-3 по лидогенерирующим словам и просто-напросто у вас нет трафика по этим словам. Логично, что если нет трафика то нет лидов, а если трафик есть, но не по по тем словам, по которым вы хотите продвигаться, то в этом может быть вторая причина, почему нет лидов слова просто нелидогенерирующие. Ну и третья причина это отсутствие конвертирующей способности текста (т.е. ваш текст хуже текста конкурента, хоть по SEO-показателям он в топ-3 и получает трафик).

Так мы плавно подходим к необходимости постоянного трекинга позиций. Если вы все равно считаете, что это не так важно, почитайте хотя бы мнение Ренда Фишкина, основателя MOZ и одного из самых уважаемых в SEO-сообществе специалистов.

Как и все в этом мире, анализ позиций нужно делать правильно.

Для данной активности признаком завершенной работы является наличие:

  1. Списка лидогенерирующих слов, по которым мы будем отслеживать изменение позиций в первую очередь, так как ведем над ними работу прямо сейчас, в этом месяце или спринте.

  2. Списка лидогенерирующих слов, по которым мы не ведем работу, но по которым из-за изменения алгоритмов гугла у нас пошло резкое изменение позиций например, они стали резко падать или резко расти. Получив такую информацию, копирайтеры могут перестроить месячную стратегию или стратегию спринта по горячим следам.

  3. Уведомление команды о том, что произошло резкое изменение позиций.

Список лидогенерирующих слов, по которым мы будем отслеживать изменение позиций в первую очередь

Здесь не обойтись без специальных инструментов. Мы не смогли найти подходящие инструменты, несмотря на огромный рынок готовых решений (тот же Semrush) и разработали свой BI solution c функцией трекинга. Интерфейсы бесплатных решений типа Google Search Console и даже Google Data Studio для этой задачи не подходят.

Предположим, мы определили в декабре, что одна из наших задач не терять наши позиции в топ-3 по определенному списку потенциально лидогенерирующих слов.

Мониторинг соответствующего отчета может показать, что по ряду слов (выделено красным) мы выпали из топ-3 для конкретной страницы. Это повод забить тревогу и поднять на уши весь отдел. Если бы мы не делали анализ позиций, мы бы никогда не узнали о том, что по каким-то словам мы потеряли позиции. А за потерей позиций обычно идет потеря трафика и лидов.

Мониторинг соответствующего отчета может также показать, что по ряду слов (выделено красным) мы резко попали в топ-3 для конкретной страницы. Это тоже повод уведомить отдел, что по определенному отслеживаемому слову у нас рост позиций и имеет смысл ковать железо, пока горячо и попытаться еще улучшить позиции до топ-1.

Список лидогенерирующих слов, по которым мы не ведем работу, но по которым из-за изменения алгоритмов гугла у нас пошло резкое изменение позиций

Итак, надеюсь, выглядит логичным, что в начале месяца мы подводим итоги предыдущего месяца и смотрим, удалось ли по результатам соответствующей работы увеличить количество слов (которые мы планировали увеличить) в топ-1 и топ-3. Также мы смотрим, нет ли резких всплесков в позициях и нельзя ли это масштабировать (в случае роста позиций) или нивелировать (в случае падения позиций).

Но это все касается только тех слов, на которых мы заранее фокусируемся.

Однако часто бывают ситуации, когда в погоне за позициями по определенным словам могут либо резко упасть, либо резко подняться позиции по другим словам, тоже лидогенерирующим, но просто не тем, на которых вы сейчас сконцентированы.

Под концентрацией я понимаю выделение ресурсов копирайтера и пиарщика. Конечно, если у вас неограниченный ресурс создателей и распространителей контента, вы можете сразу фокусироваться на многом и продвигать много направлений на сайте, множество услуг. Но реальность часто такая, что вы вынуждены выбирать одно приоритетное направление и прокачивать только его.

Итак, было бы неплохо видеть, нет ли необычного всплеска позиций по словам, которые относятся к другим направлениям, которые вы двигаете и если есть, насколько интересен это всплеск и готовы ли вы немного свернуть в сторону, чтобы оседлать эту волну.

Например, согласно отчету выше мониторинг показывает, что есть слово с огромным volume (это смешанный коммерческо-информационный запрос) и у нас по нему много impressions, даже есть клики. И по этому слову у нас постепенно улучшаются позиции органически без специальных действий по SEO оптимизации. И этот запрос относится к направлению, которое мы в целом продвигаем, но не продвигаем именно сейчас.

Однозначно, надо информировать остальной отдел о том, что нужно вставить в текущий план развития сайта дожимание позиций по этому слову до топ-10 и топ-3. Это выглядит как наиболее выгодное вложение инвестиций в данный момент не так часто удается увидеть, что по словам с большим трафиком ты двигаешься в топ.

Другие активности

Это последняя категория активности, а отнюдь не первая(за исключением случаев, когда с сайтом все действительно плохо, например, он не индексируется и так далее).И, соответственно, она должна выполняться в последнюю очередь, после того, как сделан перерыв в предыдущих активностях.

Что это за активности?

  • On-page optimization(расстановка ключей по тексту, оптимизация метатегов, сниппетов, повышение CTR, прописывание альтов, schema).

  • Off-page optimization(disavow токсичных ссылок, регистрация в простых каталогах, где есть конкуренты и DR которых выше, чем у нас). Здесь я не пишу про массовую закупку ссылок - мы это не практикуем. Мы стараемся писать контент, который сам обрастет ссылками. Речь про регистрации в белых каталогах, например, в нашей сфере, это clutch и другие.

  • Скорость сайта(постановка ТЗ программистам по увеличению скорости, при возможности самостоятельная оптимизация изображений в целом по сайту).

  • Технические ошибки(внедрение всех рекомендаций того же Semrush до 100% отсутствия ошибок).

  • Структура сайта(прописывание навигационных ссылок (хлебных крошек), мониторинг единообразия структуры сайта).

  • Оптимизация краулингового бюджета(отслеживание неработающих статей (ноль позиций) и формулировка рекомендаций: удалить или обновить).

Что нужно сделать, чтобы SEO стало каналом стабильной качественной лидогенерации для IT компании?

Я эту задачу сейчас решаю так.

1) Выберите одно главное тематическое направление, на которое вы будете тратить самое большое количество времени. Мы, например, выбрали направление Custom Elearning Software Development и ряд вспомогательных. Если вы выбрали несколько направлений, но выделили мало ресурсов, то вы не добьетесь результата ни по одному напарвлению. Увеличение количества направлений должно идти рука об руку с ростом количества персонала, их обрабатывающих.

2) Определите, у вас уже есть лиды на это направление с сайта или нет.

  • Если есть лиды уже - определилите, с каких страниц, т.е. какие страницы по этому направлению у вас самые конвертящие. Именно их вам надо будет улучшать: делать лучше контент (сравните с конкурентами и бестпрактиками), увеличивать количество ссылок на него с более авторитетных ресурсов, чем ваш, а также увеличивать количество лидогенерирующих ключевых слов в топ-3, по которому этот контент приносит трафик.

  • Если нет лидов еще - определите, отрабатывают ли по SEO те страницы, которые вы уже разместили на сайте и с которых хотите, чтобы были лиды? Это означает, находятся ли они в топ-3 нужного вам региона (например, Google USA) по нужным вам ключевым словам. Если не находятся, то вам надо бросить усилия, чтобы находились. Если находятся, вам нужно сравнить свой контент с конкурентами на предмет, у кого лучше уникальное торговое предложение. Нахождение в топ-3 даже по коммерческим словам еще не означает, что у вас будут лиды. Вам нужен хороший контент. Также вы должны максимально хорошо понимать, а действительно ли эти слова принесут вам лидов. И держать в голове, что всегда есть риск, что слова, которые вы определили как лидогенерирующие на самом деле такими не являются. Чтобы этот риск диверсифицировать, вам нужно стараться продвигаться сразу по относительного большому количеству слов.

3) Определите лидогенерирующие слова, которые могут принести вам лидов по вашему направлению.

  • Если ваша страница, с которой вы ждете лидов, уже показывалась, то выгрузите из нее статистику по словам с позициями и показами из Google Sarch Console и дополните их данным по спросу и кокнуренции из Keyword Planner. Это можно сделать вручную в Excel, но скучно, мы создали свое собственное BI решение, которое делает это автоматически и предоставляет актуальные данные, которых нет ни в одном из доступных решений, которые есть на рынке.

  • Если ваша страница еще не показывалась по лидогенерирующим словам или вы только задумываетесь о создании таких страниц, то вам нужно подыскать такие слова с посощью различных инструментов сбора семантического ядра (таких как Semrush). После это посмотреть, а что пишут конкуренты и написать не хуже, а если конкуренция высокая - то намного лучше, чем они.

  • При приятии решения о том, какие слова из списка лидогенерирующих вам надо поставить в приоритет по продвижению, делайте акцент на тех, по которым и большой спрос, и покупают рекламу и которое - самое главное - по своему интенту показывает, что человек находится на самом горячем этапе его готовности к покупке этапе выбора поставщиков решений. Проанализируйте уже существующий контент по этим словам у конкурентов и посмотрите, оказываете ли вы такие же услуги или суть этих услуг в чем-то другом. Если конкурентов по словам нет, то велика веротяность, что вы выбрали не те слова.

4) Анализируйте результаты продвижения каждый день, чтобы оперативно корректировать тактики.

  • Если вы относительно долго что-то делаете по этой методологии, а ничего не происходит (вы не растете в топ-3 по словам, которым хотите, или растете, но лидов нет), возможно, у вас недостаточно контента (например, у вас по одному тематическому направлению всего один лендинг и нет блогпостов), или на этот контент недостаточно ссылаются авторитетные площадки, или же сам контент не экспертный, а просто копирайтерский, сеошный. Нужно проработать каждую из этих возможных проблем отдельно.

  • Также бывают ситуации, когда у вас на сайте загружен контент по разным тематическим направлениям, и вы сконцетрированы на одном, то внезапно могут расти позиции по другому направлению или падать. Такие всплески надо отслеживать и своевременно принимать соответствующие решения.

5) Примите правильные решения по ресурсам.

Один сеошник вряд ли может увеличить лидов компании, особенно, если будет делать только техническое SEO. Нужен, как минимум, один копирайтер, а лучше два (а еще лучше не копирайтер, а журналист), нужен пиарщик. Нужен руководитель маркетингового отдела с готовой методологией, который выступает и как проект менеджер, и как ментор (если вы вынуждены брать с рынка не полностью готовых спецов, потому что или готовых нет, или они не хотят у вас работать - им и так хорошо, либо очень дорогие). Нужно, чтобы этот руководитель собрал именно команду, а не отдельных исполнителей и в этой команде было бы видно, как работа каждого влияет на работу другого и в целом на результаты команды. Естественно, у вас хотя бы парт-тайм должен быть дизайнер и программист, потому что сайту всегда нужны доработки, которые снимают рутину с отдела за счет автоматизации и позволяют заняться более творческими задачами. Дальше - больше. Вам нужна правильная методология линкбилдинга и бюджет на нее (мы вот планируем в качестве эксперимента взять на аутсорс это направление, уже нашли специалистов, но пока не использовали), вам также нужна правильная методология закупки рекламы и бюджет на нее (мы таких спецов нашли, но пока не использовали). И это касается только инбаунда. В идеале вам нужен еще аутбаунд, тот же линкедин, но это уже совсем другая история.

P.S. Поделитесь кармой или комментами, если вы хотите, чтобы я рассказал больше подробностей о том, как мы разрабатывали наше кастомное SEO / Marketing BI solution (относительно недорогое в разработке) на базе SQL Server (Data Warehouse+OLAP cube) и Excel, с какими сложностями мы столкнулись в его разработке, как оно сейчас работает и какие у нас на него планы.

Подробнее..

SEO-плагины пишутся шарлатанами?

25.02.2021 16:13:17 | Автор: admin

Или лучше "Значительная часть SEO-плагинов под WordPress пишется шарлатанами?", если формулировать вопрос с доскональной точностью.

По ряду причин в последнее время я занимаюсь перебором SEO-плагинов на своем собственном сайте. Включаю то один, то другой от флагманов к малоизвестным. Смотрю, что как работает. И вот что увидела.

1. Ключевые запросы

Главное, что бросилось в глаза, это работа плагинов с классическими SEO-ключами. Ходят слухи, что те НЕ нужны ни Яндексу, ни Гуглу в последние несколько лет. Что поисковые системы успешно научились распознавать синонимы и вообще отлично улавливают общий смысл текста.

Соответственно, прямые вхождения SEO-ключей уже не актуальны они особо не помогают, а иногда наоборот вредят. Потому что наводят на подозрения, даже если вписаны аккуратно и не смотрятся чужеродными.

Косвенным подтверждением этой теории выступает тот факт, что в новейших стандартных темах Вордпресс строка keywords в принципе отсутствует в блоке header. Это несложно увидеть в исходном коде. Причем и плагины, о которых я сейчас пишу, такую строку никуда не добавляют. Однако продолжают требовать ключи в своих вебмастерских внутренних интерфейсах.

Если не заполнять соответствующие графы или заполнить их не точными словами-фразами, то начинают ругаться и выдавать советы типа "этот ваш материал надо бы улучшить", "вы в красной зоне, а не в зеленой", "страница нормальная всего на 58%", "в тексте не обнаружено", "плотность не та"...

Создается впечатление, что разработчики решили просто не убирать рудиментарные куски из своих продуктов. Вместо чего сделать вид, будто эти куски продолжают давать прежний вклад в совокупную оптимизацию сайта.

Они фактически вводят пользователей в заблуждение. Спасибо, если приписывают в каком-нибудь неприметном месте, что эти рекомендации по запросам, мол, наша собственная внутренняя оценка. Но ведь все эти грозные фразы (двумя абзацами выше) явно сигнализируют иное: "вам светят проблемы с поисковиками"; "оптимизация никуда не годится". А сигнал ведь ложный.

Про то, что часть плагинов до сих пор не умеет идентифицировать падежи или множественное число, я даже молчу. И это не какие-то аутсайдеры, наоборот из популярных, лидеры по количеству активных установок. Видимо, у всех проблемы с локализацией?

Плюс есть момент с платными версиями. Покупайте, мол, наши платные пакеты и работайте с большим количеством ключевых запросов (помимо другого дополнительного функционала). Однако что значит "работайте"? В контексте происходящего?.. Количество ключей увеличится, окей а качество анализа и рекомендаций?

1.1. Качество контента

Это уже сто лет известно, но все-таки продолжает раздражать. Странные алгоритмы оценки статей. Длина абзацев еще ладно. Но "читаемость"? "Водность"? "Бессмысленность и тленность"?

Условный Главред или Орфограммка потому и прославились, что не каждый суслик агроном. В смысле, не так уж здорово машинам удается оценивать тексты, нормальный сервис надо еще поискать. И даже обнаруженному нормальному не стоит верить огульно. Но нет, плагинщики "я сделялъ" настаивают.

Фе.

2. Мета-описания description

Наблюдение номер два: разработчики любят включать в пакеты такой функционал, как автоматическую генерацию мета-описаний. Реализуется это как вырезание кусков текста с вашей веб-страницы.

Но ведь выбирать цитаты для сниппета умеют и Яндекс, и Гугл. Причем делают это на вполне приличном уровне. Можно усомниться в том, что они возьмут наиболее удачный кусок статьи в качестве цитаты. Однако откровенного мусора, как минимум, не насыплют.

А некоторые плагины именно насыпают мусор например, принудительно втыкают в начало "автоматически сгенерированного description" метки и рубрики записи. В самых тяжелых случаях не разделяя их ни пробелами, ни знаками (*да, правда было). Причем далеко не всегда предусмотрена техническая возможность настраивать "состав автосниппета" или достаточно гибко корректировать процесс вручную.

То есть поисковики очевидно справятся с этой работой лучше. Если не лезть.

А разработчики плагинов, простите, имитируют_функциональность.

3. И полное игнорирование моего мнения

Творят что хотят, даже не ставя меня в известность. Иногда полное ощущение, будто некий гамадрил с дубинкой хозяйничает по всему сайту. На вскидку:

  1. Мне тишком хлопали noindex на все страницы пагинации. Скромно замечу, что пагинация не обязательно делается автоматически в самом Вордпрессе, в Гутенберге, в числе базовых блоков есть "разрыв страницы".

    А у меня есть статья на 3000+ слов, которую я посчитала уместным разбить на несколько страниц потому что мне так видится логичным. И да, я прекрасно знаю, что листать поперек удобно на мониторах и не удобно на телефонах; на телефонах сподручнее прокручивать вниз. Но это мое дело, n'est-ce pas?

    Логика работы плагина явно противоречит логике работы CMS.

  2. Мне переписывали роботс. Причем спрашивали, "вам сохранить существующий роботс, скопировать все оттуда?" а положительный ответ сначала принимали, а потом... Потом все-таки пытались вываливать в выдачу пачку легендарных мусорных страниц wp-json. Потому что запрещающая строка в итоге куда-то самопроизвольно пропадала из файла.

  3. Карту сайта тоже переписывали кто во что горазд. Например, умудрялись поместить в нее ссылку на удаленный черновик записи. WTF?

У каждого разработчика свой взгляд на запрет/разрешение индексации, как я поняла. И каждый норовит скрутить настройки незаметно, открыть/закрыть очередные разделы по своему усмотрению. Каждый позиционирует свой плагин, как инструмент для "правильного" настраивания вашего сайта. У всех версии настроек разные и все "правильные".

Ни_разу никто не вывел сообщение-предупреждение "такие-то настройки я сейчас изменю". Какого черта?

***

Предвижу советы про наем профессионала. Который все отладит как мне надо, в крайнем случае вставит-сотрет куски кода и вообще... Разрешите возразить.

Это нормально и довольно широко распространено, когда имярек сам себе вебмастер, и сисадмин, и контент-менеджер, и копирайтер, и все остальные члены команды в одном лице. И в код такие люди благополучно суются, только это ведь не правильно.

Обратите внимание, как плагины позиционируются и рекламируются. Их представляют "инструментами для простой удобной настройки" и бла-бла-бла. А фактически заявленный функционал не обеспечивается. Зачастую имеет место имитация в комплекте с искусственным усложнением жизни вебмастера, чтобы тот видел активность (и оставался в тонусе). Спасибо.

унылый_котик.жпг

Такие дела.

Подробнее..

Перевод В 2020 году две трети поисковых запросов в Google завершалось без нажатия на ссылку

24.03.2021 12:04:07 | Автор: admin


В августе 2019 года было опубликовано исследование ныне уже несуществующего поставщика данных о посещениях Jumpshot, демонстрирующее, что 50,33% всех поисковых запросов Google завершалось без клика на веб-ресурсы в результатах поиска. Сегодня благодаря новым данным SimilarWeb удалось внести в этот анализ существенное дополнение.

С января по декабрь 2020 года 64,82% поисковых запросов в Google (суммарные данные по десктопам и мобильным устройствам) завершилось результатами поиска без кликов на сторонние веб-ресурсы. Вероятно, в этой статистике недооценены некоторые мобильные и почти все голосовые запросы, поэтому возможно, что более двух третей всех поисковых запросов Google являются тем, что называется запросами с нулевыми кликами (zero-click searches). Некоторые специалисты указывают, что нулевые клики это немного ошибочный термин, поскольку к этой группе относится и поиск, который завершается кликом внутри самого Google SERP (например, при нажатии на звуки животных здесь или при нажатии на номер телефона на поле с картой). Однако терминология, похоже, устоялась, поэтому её нужно объяснить.

Предупреждение: надо сказать, что эти данные нельзя напрямую сравнивать с теми, которые были опубликованы в 2019 году, потому что выборка данных посещений SimilarWeb отличается от данных Jumpshot. Во-первых, данные за 2020 год учитывают весь мир, а в предыдущем анализе Jumpshot приведена выборка только по США. Кроме того, SimilarWeb объединяет и мобильные, и десктопные устройства, в том числе и устройства Apple/iOS (к которым у Jumpshot не было доступа). Тем не менее, высока вероятность того, что если бы предыдущая выборка по-прежнему была доступна, она бы демонстрировала похожий тренд на увеличение поедания кликов сервисом Google.

Вот основная статистика по данным:

  • SimilarWeb проанализировал примерно 5,1 триллиона поисковых запросов Google за 2020 год
  • Эти запросы выполнялись на более чем 100 миллионах мобильных и десктопных устройств, с которых SimilarWeb собирает данные о посещениях
  • Из этих 5,1 триллионов поисковых запросов 33,59% привело к кликам на органические результаты поиска
  • 1,59% привело к кликам на платные результаты поиска
  • Оставшиеся 64,82% завершили поиск без непосредственного клика на сторонний веб-ресурс
  • Процент поисковых запросов, которые привели к клику, гораздо выше на десктопных устройствах (органический CTR 50,75%, платный CTR 2,78%)
  • На мобильных устройствах поисковых запросов с нулевыми кликами гораздо больше (77,22%)

Я создал несколько графиков этих данных, однако полный охват собранной SimilarWeb информации гораздо богаче.

Интересно рассмотреть CTR мобильных и десктопных устройств по отдельности.


Как видно из диаграммы, органический CTR на десктопах по-прежнему больше 50%. Десктопные устройства (которые в этом анализе включают в себя ноутбуки и большие планшеты) также демонстрируют чуть больший CTR платных ссылок. Подозреваю, что в США эти показатели побольше, а в странах и регионах с меньшим количеством рекламодателей и меньшими бюджетами на рекламу, они, скорее всего, ниже.


Этот график показывает, насколько сильно ситуация отличается для мобильных устройств, на которых производится гораздо больше поисковых запросов по всему миру, в США и в выборке SimilarWeb. Здесь мы видим, что усилия Google по оптимизации поиска в первую очередь для мобильных устройств принесли огромные дивиденды для трёх четвертей всех мобильных поисковых запросов клики необязательны.

Учёные, экономисты, специалисты и, как я надеюсь, люди из мира борьбы с монополиями, сделают свои выводы из этих данных. Хоть у меня есть собственные сложившиеся взгляды по этому вопросу, пусть цифры говорят сами за себя.

Однако я считаю важным предоставить некоторый контекст относительно мощи монополии Google. В 2020 году поисковый гигант имел более 91% всемирной доли рынка и более 87% рынка США. Как говорится в исследовании GroupM, опубликованном на прошлой неделе в Wall Street Journal, Google также контролирует огромную долю всей рекламы в США, в том числе более 95% поисковой рекламы и более 50% дисплейной рекламы.


Источник: The Wall Street Journal

Однако Google / Alphabet планируют на этом остановиться. Шосана Водински из Gizmodo в своём анализе планов Google по замене рекламных куки проприетарной системой Google для сбора информации о поведении пользователей под названием FLoC сообщила следующее:

Этот план предоставит Google эксклюзивный доступ к огромному объёму пользовательских данных, которые компания и так по большей мере монополизировала.

Такое доминирование это пугающая, но кажущаяся неизбежной перспектива. Аналогично тому, как GDPR препятствовал любым шансам европейских технологических компаний на конкуренцию с технологическими гигантами США, этот шаг по реализации приватности, похоже, в прогнозируемом будущем гарантирует господство Google в сфере поисковой онлайн-рекламы и в вебе (той его части, которая не разделена между Facebook и Amazon).

Для наглядности я изучил данные с января 2018 года (самые ранние данные SimilarWeb, вошедшие в этот проект) по декабрь 2020 года.


График немного скачет, но мы можем сделать несколько любопытных выводов:

  • Общий объём поисковых запросов растёт, однако в падении в конце 2019 года может быть виновна пандемия (может быть, причина и в уменьшении выборки SW, сложно об этом судить)
  • Доля платных поисковых запросов очевидно растёт, и если внимательнее изучить числа, это справедливо и для мобильных, и для десктопных устройств
  • Органические клики выросли в 2020 после долгого плато и небольшого снижения. Похоже, это вызвано увеличением доли использования десктопов в 2020 году (опять из-за Covid-19, вынудившего нас больше сидеть за большими экранами), поэтому после вакцинации ситуация, возможно, поменяется.
  • В конце 2020 года зафиксирована самая высокая доля поисковых запросов с нулевыми кликами. Вероятно, эксперимент Google с ограничением featured snippets (быстрых ответов) в первом квартале (который сейчас, похоже, закончился) может продемонстрировать любопытные корреляции.

Хорошие новости: сегодня в Google как никогда много поисковых запросов и доступно больше кликов.

Плохие новости: на последние три года Google получала огромное преимущество от увеличения всемирных объёмов поисковых запросов, а когда снижение опасности пандемии отвлечёт больше людей от их ноутбуков и десктопов и вернёт их к мобильным устройствам, то проблема поисковых запросов с нулевыми кликами станет ещё более серьёзной.



На правах рекламы


Эпичные серверы это надёжные серверы на Linux или Windows с мощными процессорами семейства AMD EPYC и очень быстрой файловой системой, используем исключительно NVMe диски от Intel. Попробуйте как можно быстрее!

Подробнее..

Кейс по SEO анализируем поисковый спрос и корректируем стратегию продвижения

26.11.2020 14:19:49 | Автор: admin

В 2019 году мы получили от потенциального клиента запрос на продвижение англоязычного сайта по теме soaking tubs (это такие глубокие ванны для полного погружения в воду). Мы изучили клиентский интернет-магазин, а затем решили сделать анализ поискового спроса для одного из запросов и выяснить, соответствуют ли ему страницы сайта. Как оказалось, ситуация даже по одному запросу не совсем такая, как ожидал клиент.

Рассказываем, какие результаты дал анализ поискового спроса и что мы предложили клиенту для продвижения англоязычного сайта в органических результатах Google.


Общий поисковый спрос для всех регионов США


Для начала мы сделали общий анализ поискового спроса для всех регионов США.

Запрос: japanese soaking tubs
Частотность для США: 12100

1. Всего хвостов: 707

2. Общая частотность: 35 000
Запросов с частотностью >0: 204
Запросов с частотностью 0 (возникали разово): 503

3. Запросов с продающими добавками (sale, buy, price, etc.): 25
Их общая частотность: ~500

4. Основных категорийных запросов: 2 (japanese soaking tub / japanese soaking tubs)
Их частотность: 24200

5. Оценочное количество хвостов / подкатегорий: 30+


Из полученных данных мы сделали 2 основных вывода:


  1. Пользователи осведомлены о продукте: на это указывает достаточно высокая частотность основных запросов.
  2. Примерно треть пользователей ищет продукт по дополнительным свойствам: поисковый спрос не сконцентрирован исключительно на двух основных запросах. При этом количество дополнительных свойств достаточно большое.


Вопросы, возникшие после предварительного анализа поискового спроса:


  1. Существуют ли синонимы для основных запросов?
  2. Почему не развит спрос с продающими добавками, будет ли он развиваться?
  3. Насколько развиты подкатегории (много ли у таких запросов собственных хвостов)?
  4. Как вели себя подкатегории в прошлом, будут ли развиваться?
  5. Насколько текущая структура сайта соответствует структуре поискового спроса?


Развитие поискового спроса


Анализ хвостов запроса japanese soaking tubs показал наличие существенного набора запросов, которые ассоциируются с продуктовыми свойствами и подходят как для отдельных продуктов, так и для подкатегорий. Например, можно выделить следующие условные группы запросов (japanese soaking tubs + keyword).
По размеру:
small (for small spaces, for small home, etc.)
2 person / for two
size
24 / 30 / 36 / 41 / 46/ 48 / 60 inch

По месту:
outdoor
(in / for) bathroom
(in / for) shower
etc.


По способу установки:
freestanding
portable
etc.

По материалу:
wood / wooden (japanese soaking tubs wood, japanese hinoki wood soaking tub, wood fired japanese soaking tub)
acrylic
stone
stainless +steel
copper
etc.


По виду:
round
ofuro
deep
heated
etc.
По аксессуарам:
with seat
etc.
По локализации:
USA
отдельные штаты (Utah, etc.)
отдельные города (NYC, Seattle, etc.)
также достаточно часто в выдаче для USA встречается добавка UK

Синонимы


У запроса есть прямые синонимы и хвосты, расширяющие смысл:

  • japanese STYLE soaking tub (хвост основного запроса)
  • japanese SITTING tub (синоним)
  • japanese BATH tub
  • japanese soaking BATH
  • возможны другие

Почти все указанные запросы обладают частотностью >0 и имеют собственные хвосты (т.е. развиваются). Например, запрос japanese soaking tubs wood имеет хвост japanese soaking tubs wood OUTDOOR, т.е. здесь пересекаются 2 подкатегории.


Выводы:


  1. Поисковый спрос уже достаточно развит и, скорее всего, будет развиваться далее.
  2. Пользователи обучаются в процессе поиска товарной категории: об этом говорит наличие большого набора категорийных запросов и отсутствие для них продающих добавок.
  3. Соответственно, чем лучше структура сайта будет совпадать со структурой запросов пользователей, тем выше будет оценка экспертности сайта в глазах пользователей.
  4. Наличие запросов-синонимов показывает, что часть потенциальных покупателей, скорее всего, не будет попадать на сайт, если эти запросы будут проигнорированы в структуре категорий, фильтров и контента страниц.


Вопросы:


  1. Какие запросы из указанных выше используются на основной странице категории?
  2. Какие элементы на странице делают её сильной для этих запросов?
  3. Как оптимизированы другие страницы сайта, исходя из структуры реального поискового спроса, и учитывают ли другие страницы эти запросы?
  4. Какие именно страницы: карточки товаров, категории, фильтры, главная, статьи привлекают тематический трафик по этим запросам?


Анализ страниц сайта клиента


Для запроса japanese soaking tubs была взята основная релевантная страница сайта https://***.com/category/japanese-bathtubs


Динамика запросов этой страницы





Текущие запросы страницы в поиске


Keyword - Position - Search Volume
Keyword Position Search Volume
japanese style bathtub usa 3 70
buy japanese bath 7 70
plastic ofuro 8 20
japanese bath tubs 9 590
japanese soaking tub drop in bathtub 10 20
japanese tub 11 1900
japanese style tub 11 170
japanese soaking bath 11 110
japanese soaking tubs 12 12100
japanese soaking tub 12 12100
drop in japanese soaking tub 13 110
japanese style soaking tub 13 260
japanese red tub 14 30
japanese square bath 17 30
japanese tub for sale 17 90
metal japanese soaking tub 19 30
japanese soaking bathtubs for sale 20 20
japanese ofuro bath uk 21 90
buy japanese bathtub 22 30
outdoor japanese soaking tubs 22 480
japanese plunge bath uk 24 70
japanese style shower and bath 25 20
japanese style bath 32 480
wooden soaking tub kit 36 70
cedar japanese soaking tub 40 50
ofuro cover 60 20
japanese bath 74 4400
cedar ofuro 79 20


Как видим, страница присутствует в поиске Google по 28 запросам. При этом для региона US только 5 из них находятся в топ-10, ещё 12 запросов в топ-20, а 11 запросов (40%) вне досягаемости пользователей.

Выходит, что страница тематически релевантна и хорошо оценивается поисковиком. Но структура запросов страницы в поиске не соответствует структуре реального поискового спроса, описанного выше.

В первую очередь страница находится в топе по запросам-синонимам с продающими и локализующими добавками:

  • japanese BATH BUY
  • japanese BATH soaking
  • japanese BATH tubs


  • japanese STYLE tub
  • japanese STYLE BATHTUB USA
  • japanese STYLE soaking tub


  • japanese tub
  • japanese tub FOR SALE
  • japanese soaking BATHTUBS FOR SALE


Частичный трафик страница может собирать по запросам, описывающим свойства, однако они тоже скорее относятся к хвостам запросов-синонимов (не включают в себя слово soaking либо tub):

  • japanese RED tub (по цвету, нет soaking)
  • japanese SQUARE bath (по форме, нет soaking, нет tub хвост синонима)
  • PLASTIC ofuro (по материалу, чистый синоним, вообще нет вхождения japanese soaking tub)
  • METAL japanese soaking tub (по материалу, чистая подкатегория-хвост)


Два основных запроса также определены как релевантные и занимают достаточно высокие позиции, однако очевидно, что их можно усилить.

При этом, судя по названиям товаров, страницы товаров собирают только частичный тематический трафик. Выборочный анализ карточек товара показал, что страницы товаров фактически оптимизированы как страницы категорий. Однако на них есть ряд существенных ошибок, которые не позволяют страницам быть релевантными основными запросам.

Также мы заметили, что названия фильтров не совпадают с текущими запросами и не показывают полный набор искомых свойств. Ещё мы обнаружили ошибку генерации фильтров, которая не позволяет большому количеству тематических страниц участвовать в поиске.


Предложение по SEO-продвижению англоязычного сайта для клиента


Придя к выводу, что локализация (степень локальных маркеров) для данной ниши несущественна и пока может не приниматься во внимание, вот какой план действий мы предложили клиенту.

1. Оценить реальный поисковый спрос по всем выделенным запросам, составить семантическое ядро и визуализировать возможную структуру.

2. Оценить возможности текущих страниц сайта в соответствии с выделенными запросами.

3. Оценить структуру запросов конкурентов в поиске:
визуальный обзор поисковой выдачи по семантическому ядру;
оценка показателей сайтов конкурентов;
сравнение силы конкуренции для основных страниц;
оценка релевантности страниц конкурентов по избранным запросам (за счёт чего они находятся в топе).

4. Провести технический аудит сайта, чтобы выявить проблемы, затрудняющие SEO-продвижение англоязычного сайта, и подготовить технические задания на доработку метатегов, фильтров, карточек товаров, категорий, других типов страниц и внутренней перелинковки.

5. Уточнить общую стратегию продвижения.

6. Подготовить стратегию линкбилдинга.

7. Подготовить технические задания на информационные статьи по запросам, выделенным из основного семантического ядра для каждой категории.


Результаты


Клиент оценил проведенный аудит, но решил не воплощать предложенную нами стратегию в жизнь. Как мы поняли, масштаб и объём работ не соответствовал ожиданиям клиента.

Действительно, вложения в SEO это забег на длинную дистанцию, приносящий результаты не мгновенно. Для эффективности в краткосрочной перспективе можно использовать другие методы продвижения: например, контекстную рекламу. А для оптимальных результатов мы рекомендуем комбинировать инструменты продвижения, подобранные исходя из исходных позиций и желаемых результатов.

Дмитрий Разахацкий,
ведущий SEO-специалист компании Alconost

Агентство интернет-маркетинга Alconost Ads занимается поисковым продвижением многоязычных сайтов, проводит полный SEO-аудит, базовую оптимизацию, улучшает юзабилити, разрабатывает стратегию международного продвижения, анализирует статистику и многое другое для улучшения ваших позиций в поисковых системах.
Подробнее..

Плюсы и минусы 30 способов продвижения интернет-магазинов

26.02.2021 16:11:32 | Автор: admin

Обзор составлен в первую очередь для владельцев интернет-магазинов. Цель обзора - предоставить объективную оценку (насколько это возможно) проверенных способов продвижения, без приукрашивания положительных сторон и сокрытия недостатков, чтобы предприниматель мог принимать более взвешенные решения в вопросах интернет-маркетинга, опираясь на данные обзора.

В обзоре приведены относительные значения бизнес-метрик в связи с тем, что:

  • Рекламный бюджет и объем трафика будет отличаться при продвижении на всю Россию, отдельно по Москве, городу миллионнику или небольшому городу.

  • Стоимость услуг специалистов будет зависеть от того, кто будет выполнять работу агентство, фрилансер, сотрудник в штате или вы будете заниматься этим самостоятельно

  • Качество трафика будет зависеть от качества работы, опыта и экспертности специалистов

  • Время на запуск будет зависеть в большинстве случаев от размера товарной матрицы и регионов продвижения чем больше товаров и больше целевых регионов, тем больше времени нужно на подготовку запуска

Под стоимостью трафика я буду иметь ввиду сумму рекламного бюджета (там где он требуется)и стоимости услуг специалистов, по настройке рекламного инструмента.

Сначала будет рассматриваться рекламный канал в целом, далее - отдельно рекламный инструменты данного канала.

Справочники

Бизнес-метрики:

  • Объем трафика: мало

  • Качество трафика: высокое

  • Стоимость трафика: низкая

  • Время на запуск: быстро

  • Рентабельность: высокая

Плюсы:

  • Горячая аудитория (высокая вероятность совершения заказа)

  • Не требуется спец.знаний для настройки

Минусы:

  • Большая конкуренция при бесплатном размещении (в виду простоты добавления организации в справочник и прохождения модерации)

  • Жесткая привязка показов к региону присутствия

1) Справочники / Яндекс Справочник

Преимущества:

  • Быстрый запуск (1-7 дней с учетом модерации)

  • Большая часть возможностей доступна при бесплатном размещении

  • Можно загружать прайс-лист каталог товаров с фото, описаниями и ценами

  • Можно добавить без физического адреса как онлайн-компанию, выбрав целевой регион работы

  • Возможность показываться в поисковой выдаче по целевым запросам в специальных блоках организаций и карт

  • Скидкипри заказе платного размещения 12,5% на 180 дней, 25% на 360 дней

  • Рост позиций сайта в органической поисковой выдаче в целевом регионе (положительное влияние на SEO-продвижение)

Недостатки:

  • В конкурентных нишах не обойтись без платного размещения, т.к. попасть в первые 10 карточек новой компании не представляется возможным

  • Минимальный срок заказа платного размещения 90 дней

Особенности:

Стоимость платного размещения определяется автоматически с использованием технологий машинного интеллекта в соответствии с данными статистики Яндекса.
Стоимость зависит от нескольких параметров: географии, рубрики, периода, на который вы заказываете размещение, количества потенциальных целевых клиентов организации или филиала, прогнозируемого Яндексом.

Поданным Яндекспервые десять позиций в списке получают 86% кликов.
Как следствие, платное размещение:

  • не даст ощутимого прироста в продажах и скорее всего не окупится, если по основной тематике ваш интернет-магазин попадает в тройку лидеров

  • возможно даст прирост заказов, но рентабельность будет в лучшем случае на пороге окупаемости, если карточка вашего магазина занимает 4-10 позиции

  • даст рост заказов и скорее всего будет работать в плюс если карточка вашей компании ниже 10-го места в списке

Естьсписок запрещенных тематик, поэтому перед размещением убедитесь что ваши товары разрешены к дистанционной продаже и не запрещены к рекламе в Яндекс.Справочнике.

В картографических сервисах люди, как правило, хотят совершить покупку офлайн, поэтому в большинстве случаев платное размещение будет актуально для интернет-магазинов с розницей или собственной точкой самовывоза (т.к. указать ПВЗ курьерских служб не получится). Для чистых интернет-магазинов точно будет полезно бесплатное размещение.

2) Справочники / Google Мой бизнес

Преимущества:

  • Можно добавить без физического адреса как онлайн-компанию, выбрав целевой регион работы

  • Возможность показываться в поисковой выдаче по целевым запросам в специальном блоке карт

  • Рост позиций сайта в органической поисковой выдаче в целевом регионе (положительное влияние на SEO-продвижение)

Недостатки:

  • При добавлении адреса розничного магазина или склада подтверждение письмом через Почту России (в среднем письмо идет до 30 дней, часто теряется или почтальон не доносит до магазина).

3) Справочники / 2ГИС

Преимущества:

  • Быстрый запуск (5-7 дней с учетом модерации)

  • Большая часть возможностей доступна при бесплатном размещении

Недостатки:

  • Обязательно наличие физического адреса (не подойдет чистым интернет-магазинам, без розницы или собственной точки самовывоза)

  • Жесткая привязка показов карточки магазина к месту его расположения

  • В конкурентных нишах не обойтись без платного размещения

Особенности:

Стоимость платного размещения определяетсяв зависимости от города.Для принятия решения опирайтесь на рекомендации по платному размещению в Яндекс Справочнике.

4) Справочники / Zoon

Преимущества:

  • Основные возможности доступы при бесплатной регистрации

  • Быстрый запуск (до 7 дней с учетом модерации)

  • Небольшой плюс для регионального SEO-продвижения

Недостатки:

  • Нельзя добавить компанию без физического адреса (не подойдет чистым интернет-магазинам)

Особенности:

Есть платное размещение. Но:

  1. Минимальный срок заказа 6 месяцев (от 11 351 руб. в месяц)

  2. Большое кол-во негативных отзывов в интернете о неэффективности премиум-аккаунта на Зуне (почитать можноздесьиздесь). Если коротко то вы перекупаете трафик в картах Яндекс и Google через посредника в виде Zoon с солидной переплатой. Проще и выгоднее заказать рекламу напрямую в Яндексе и Гугле.

Сервис предоставляетскидки 12,5% при заказе на год и 25% при заказе на 2 года. Однако эффективность платного размещения в данном справочнике весьма сомнительна.


Контекстная реклама

Бизнес-метрики:

  • Объем трафика: много

  • Качество трафика: среднее

  • Стоимость трафика: средняя

  • Время на запуск: среднее

  • Рентабельность: средняя

Плюсы:

  • Возможность показывать рекламу в любом регионе (наличие розничных магазинов или точек самовывоза в целевых регионах не имеет значения)

  • Обязательная только разовая настройка, ведение (оптимизация) по желанию и необходимости (по мере накопления данных и выполнения плана)

  • Большой выбор инструментов показы рекламы в режиме реального времени по определенным запросам, либо догоняющая реклама по этим же запросам и интересам пользователя

Минусы:

  • Если отключить рекламу трафик и заказы перестанут поступать

  • При увеличении объема трафика увеличивается рекламный бюджет, себестоимость клика/заказа

  • Помимо рекламного бюджета требуется оплата услуг по настройке и оптимизации контекстной рекламы

  • Для самостоятельной настройки потребуются спец.знания

  • Для вывода на порог рентабельности необходимо время обычно от 2-4 недель (чтобы накопить статистику и провести оптимизацию)

Минимальная сумма пополнения рекламного бюджета в Яндекс.Директ 360 руб. с НДС, в Google Ads 1200 руб. с НДС

Отличия контекстной рекламы Яндекс.Директ и Google Ads:

  • В Google более жесткие требования к рекламодателям и продаваемым товарам чем в Яндекс, модерация в тематиках связанных со здоровьем долгая, сложная и не всегда заканчивается успехом

  • В Google сложный интерфейс на самостоятельную настройку уйдет больше времени по сравнению с Яндекс.Директом

  • В Google Ads нет возможности показывать рекламу в Крыму, т.к. Googleобязан соблюдать санкции,веденные Управлением по контролю за иностранными активами Министерства финансов США

  • Яндекс хорошо подходит для продвижения только в России. В странах СНГ с него еще можно получать какой-либо трафик, однако во всех остальных, где аудитория не говорит по-русски Google бесспорный лидер

5) Контекстная реклама / Яндекс.Директ / Поиск

Преимущества:

  • Горячая аудитория (высокая вероятность совершения заказа)

  • Быстрый запуск (3-7 дней с учетом модерации)

  • Возможность фильтровать нецелевые запросы

Недостатки:

  • Не подойдет, если на ваши товары нет сформированного спроса

  • Более высокая конкуренция по сравнению с поисковой рекламой в Google

  • По многим популярным запросам аукцион перегрет стоимость за пределами рентабельности

  • Скликивание части показов конкурентами в ручном и автоматическом режиме, а также различными сервисами

6) Контекстная реклама / Яндекс.Директ / РСЯ (Рекламная сеть Яндекса)

Преимущества:

  • Большой охват целевой аудитории

  • Подойдет всем, включая ниши без сформированного спроса

  • Более низкая стоимость клика по сравнению с поиском

  • Большое кол-во рекламных форматов текстовые объявления, изображения, видео, адаптивные, смарт-баннеры (генерируются автоматически на основе данных о ваших товарах)

  • Есть конструктор креативов (не нужно использовать дополнительное ПО для генерации баннеров)

  • Можно отключать неэффективные площадкиБольшой выбор способов таргетинга по ключевым фразам, посетителя своего сайта, по геолокации, по загруженным контактам, похожим аудиториям и краткосрочным интересам пользователей

  • Быстрый запуск (3-7 дней с учетом модерации)

  • Гораздо более качественные площадки по сравнению с рекламной сетью Google

Недостатки:

  • Более холодная аудитория по сравнению с поиском, как следствие вероятность совершения покупки ниже

7) Контекстная реклама / Яндекс.Директ / Ретаргетинг

Преимущества:

  • Подойдет всем, включая ниши без сформированного спроса

  • Быстрый запуск (1-3 дня с учетом модерации)

Недостатки:

  • Небольшой объем аудитории (обычно 3-5% от общего кол-ва посетителей сайта, привлекать больше можно, но как правило нерентабельно, из-за возрастающих ставок за клик)

8) Контекстная реклама / Google Ads / Поиск

Преимущества:

  • Горячая аудитория (высокая вероятность совершения заказа)

  • Возможность фильтровать нецелевые запросы

  • Более низкая конкуренция по сравнению с поисковой рекламой в Яндекс

Недостатки:

  • Не подойдет, если на ваши товары нет сформированного спроса

  • По многим популярным запросам аукцион перегрет стоимость за пределами рентабельности

  • Скликивание части показов конкурентами в ручном и автоматическом режиме, а также различными сервисами

9) Контекстная реклама / Google Ads / КМС (Контекстно-медийная сеть)

Преимущества:

  • Большой охват целевой аудитории

  • Подойдет всем, включая ниши без сформированного спроса

  • Более низкая стоимость клика по сравнению с поиском

  • Большое кол-во рекламных форматов текстовые объявления, изображения, видео, адаптивные

  • Есть конструктор креативов (не нужно использовать дополнительное ПО для генерации баннеров)

  • Можно отключать неэффективные площадкиБольшой выбор способов таргетинга по ключевым фразам, посетителя своего сайта, по геолокации, по загруженным контактам, похожим аудиториям и интересам пользователей

Недостатки:

  • Более долгая модерация по сравнению с рекламой в Яндекс

  • Огромное кол-во мусорных, некачественных площадок (при самостоятельной настройке отдельно изучите статьи о том как фильтровать трафик в КМС и не слить там бюджет)

  • Более холодная аудитория по сравнению с поиском, как следствие вероятность совершения покупки ниже

10) Контекстная реклама / Google Ads / Ремаркетинг

Преимущества:

  • Подойдет всем, включая ниши без сформированного спроса

Недостатки:

  • Небольшой объем аудитории (обычно 3-5% от общего кол-ва посетителей сайта, привлекать больше можно, но как правило нерентабельно, из-за возрастающих ставок за клик)

11) Контекстная реклама / Google Ads / YouTube

Преимущества:

  • Большой охват целевой аудитории

  • Подойдет всем, включая ниши без сформированного спроса

  • Более низкая стоимость клика по сравнению с поиском

  • Большое кол-во рекламных форматов

  • Есть готовые шаблоны для видео-объявлений

Недостатки:

  • Холодная аудитория

  • Много холостых показов и кликов от пользователей, не желающих смотреть вашу рекламу

  • Нужно много ресурсов на создание качественных роликов


12) SEO (поисковая оптимизация сайта)

Бизнес-метрики:

  • Объем трафика: много

  • Качество трафика: высокое

  • Стоимость трафика: средняя

  • Время на запуск: много

  • Рентабельность: высокая

Плюсы:

  • Горячая аудитория (высокая вероятность совершения заказа)

  • Если прекратить оплачивать услуги по продвижению трафик и заказы не обвалятся. Результат сохранится на долгие месяцы, часто на годы

  • При увеличении объема трафика себестоимость клика/заказа понижается (при условии фиксированного абонентского платежа)

  • Большой охват целевой аудитории

  • Более низкая стоимость клика/заказа по сравнению с контекстной и таргетированной рекламой (в среднем с 6 месяца и далее)

  • Можно получать трафик по низкочастотным запросам, по которым невозможно показываться в контекстной рекламе (из-за технических ограничений платформ и нерентабельности настройки под неизвестные или непопулярные товары)

  • Возможность продвигать товары в любом регионе без наличия розничных точек (у каждой поисковой системы есть свои технически особенности в реализации)

  • Не требуется рекламный бюджет по сравнению с контекстной и таргетированной рекламой

Минусы:

  • Не подойдет, если на ваши товары нет сформированного спроса

  • Первые месяцы результаты могут быть не видны. Выход на порог рентабельности, стабильный рост трафика и продаж начинается обычно с 3-6 месяца в зависимости от ниши, конкуренции, состояния на момент старта работ и бюджета на продвижение

  • Конкуренция с агрегаторами и маркетплейсами во многих нишах

  • Для самостоятельного продвижения требуется много времени(среднее время обучения около 6 месяцев) + нужно постоянно обновлять знания, т.к. поисковые алгоритмы и требования к сайтам постоянно меняются

  • Продвинуть сайт полностью самостоятельно в большинстве случаев не представляется возможным необходимы компетенции в seo-продвижении, копирайтинге, верстке, программировании и аналитике.

  • Сложно прогнозировать и гарантировать результат в виду зависимости от постоянно меняющихся алгоритмов поисковых систем, продвижения конкурентов, несогласованных изменений на сайте и других причин.

  • Монополизация топа поисковой выдачи сервисами самих поисковых систем по высоко и средне частотным запросам (Карты Яндекс и Google, Яндекс.Маркет и Google Покупки, Яндекс.Дзен и пр.).

SEO-продвижение интернет-магазина самый сложный и долгий в реализации, дорогой на старте, но один из самых эффективных рекламных каналов, если речь идет о больших объемах трафика. ROI (показатель возврата инвестиций) после первого года продвижения в большинстве случаев один из самых лучших по сравнению с другими каналами привлечения покупателей.

Поисковое продвижение в Яндекс

Преимущества:

  • Достаточно легко продвигаться в любом городе за счет выделения поддомена с программной адаптацией текстового контента под город

Недостатки:

  • В высоко-конкурентных нишах первый экран забит контекстной рекламой, блоком Яндекс.Маркета, Яндекс.Карт, Яндекс.Дзена. Как правило топ-3 отдается крупным гигантам типа Ozon, Wildberries, DNS, Мвидео и т.п. Как следствие в ряде ниш продвигаться по высокочастотным запросам не имеет смысла, т.е. около 15-20% потенциального трафика не собрать при всем желании.

Поисковое продвижение в Google

Преимущества:

  • Первый экран меньше забит собственными сервисами по сравнению с Яндексом. Можно собирать чуть больше трафика с высокочастотных запросов (до тех пор пока Google также как и Яндекс не станет монополизировать первый экран выдачи)

Недостатки:

  • Гораздо сложнее чем в Яндексе продвигаться в регионах без наличия физического адреса магазина. Google неплохо воспринимает структуру папок-городов на сайте, однако если идет продвижения поддоменами под Яндекс то дополнительные папки под Google нивелируют эффект в Яндексе. Продвижение одновременно под обе поисковые системы без физических точек под разные регионы технически очень сложная задача.


Прайс-агрегаторы

Бизнес-метрики:

  • Объем трафика: мало

  • Качество трафика: высокое

  • Стоимость трафика: средняя

  • Время на запуск: мало

  • Рентабельность: высокая

Плюсы:

  • Горячая аудитория (высокая вероятность совершения заказа)

  • Возможность показывать рекламу в любом регионе (наличие розничных магазинов или точек самовывоза в целевых регионах не имеет значения)

  • В большинстве случаев прайс-агрегаторы находятся в топ-10 по SEO (можно дополнительно напоминать о себе посетителям из поисковой выдачи за счет данного канала)

  • Быстрый запуск (с учетом модерации примерно 3-7 дней)

Минусы:

  • Не подойдет, если на ваши товары нет сформированного спроса

  • Площадки стимулируют магазины к демпингу, как правило заказы получают те у кого цены одни из самых низких с учетом доставки

  • Если отключить рекламу трафик и заказы перестанут поступать

  • При увеличении объема трафика увеличивается рекламный бюджет

  • Помимо рекламного бюджета требуется оплата услуг по настройке рекламного канала

  • Для самостоятельной настройки потребуются спец.знания

Прайс-агрегаторы и Маркетплейсы это разные сервисы. Размещение на прайс-агрегаторах дает переходы на собственный сайт, обработкой заказа занимаетесь вы. При размещении на маркетплейсах вы не получаете переходов на свой сайт, обработкой заказов занимается площадка. Т.к. наш обзор посвящен способам продвижения собственного интернет-магазина в нем не освящаются маркетплейсы типа OZON, WildBerries, Goods и др.

13) Прайс-агрегаторы / Яндекс.Маркет

Преимущества:

  • Дополнительный показ ваших товаров в товарном блоке на поисковой выдаче Яндекса по тематичным запросам

  • Дополнительных показ ваших товаров в рекламной сети Яндекса на тех площадках, которые используют рекламные блоки Маркета

  • Дополнительный показ ваших товаров по коммерческим запросам Яндекс.Картинках с ценой и ссылкой на карточку товара

Недостатки:

  • Жесткий контроль качества. Нужно всегда оперативно проверять заказы, прозванивать клиентов, все данные на сайте (стоимость отдельных товаров, их кол-во, наличие, условия доставки в конкретный регион), в Маркете и по факту должны сходиться. Если где-то не сошлись модераторы могут приостановить размещение до исправления ошибок. А после 5 приостановок заблокировать размещение.

  • Обязательно ИП или ООО для заключения договора (не подойдет для тестирования спроса без юр.лица)

  • Не подойдет потребованиям, если у вас минимальная сумма заказа в интернет-магазине от 2000 руб. или вы продаете запрещенные к рекламе на площадке товары

14) Прайс-агрегаторы / Regmarkets

Преимущества:

Недостатки:

  • Обязательно ИП или ООО для заключения договора (не подойдет для тестирования спроса без юр.лица)

15) Прайс-агрегаторы / price.ru

Преимущества и недостатки: не найдены


Бизнес-страницы в соц.сетях

Бизнес-метрики:

  • Объем трафика: мало

  • Качество трафика: среднее

  • Стоимость трафика: низкая

  • Время на запуск: мало

  • Рентабельность: средняя

Плюсы:

  • Быстрый запуск (1-2 дня на запуск)

  • Условно-бесплатно (если делать самостоятельно)

  • Не требуется спец.знаний

  • Может давать дополнительный трафик из поисковых систем по целевым запросам в нишах с низкой конкуренцией (если провести SEO-оптимизацию страниц)

  • Подойдет всем, включая ниши без сформированного спроса

  • Нет привязки к региону

  • Повышения охвата и эффективности при размещении одного поста сразу в нескольких соц.сетях

  • Чем больше база подписчиков тем больше продаж с каждым следующим постом

  • Заплатив один раз за подписчика можно продавать ему товары повторно, не платя снова за его привлечение

  • Возможность получать подписчиков и увеличивать охват целевой аудитории за счет репостов

  • Положительное влияние на SEO-продвижение интернет-магазина, за счет ссылок и переходов по ним из соц.сетей

Минусы:

  • На старте не дает продаж. Для того чтобы получать продажи необходимо регулярно публиковать новости/акции, полезные материалы чтобы наращивать базу подписчиков

  • Требуется много времени для органического роста подписчиков без дополнительных вливаний в рекламу страницы

  • Не имеет смысла без качественного контент-маркетинга. Канал эффективен только в связке с полезными регулярными постами.

  • Для удержания внимание подписчиков требуется делать уникальный, экспертный контент, что требует много ресурсов (либо время владельца, либо деньги для оплаты работы наемного эксперта).

16) Бизнес-страница во Вконтакте

Преимущества:

  • Возможность добавлять/обновлять товары (в т.ч. через плагины интернет-магазинов)

  • Возможность использовать виджеты, расширяющие базовый функционал страницы (рассылки по базе подписчиков, отзывы покупателей, акции и др.)

Недостатки: не найдены

17) Бизнес-страница в Instagram

Преимущества:

  • Возможность сохранять stories как отдельные пункты навигационного меню

Недостатки: не найдены

18) Бизнес-страница в Одноклассниках

Преимущества и недостатки: не найдены

19) Бизнес-страница в Facebook

Преимущества и недостатки: не найдены


Блог

Бизнес-метрики:

  • Объем трафика: много

  • Качество трафика: низкое

  • Стоимость трафика: низкая

  • Время на запуск: много

  • Рентабельность: средняя

Плюсы:

  • Можно продвигать товары, которые попадают под запрет в контекстной и таргетированной рекламе

  • Большой охват целевой аудитории

  • Нет привязки к региону. Можно собирать трафик со всей России и других русско-говорящих стран

  • При увеличении объема трафика себестоимость заказа понижается

  • Более низкая стоимость клика/заказа по сравнению с контекстной и таргетированной рекламой (в среднем с 12 месяца и далее)

  • Не требуется рекламный бюджет по сравнению с контекстной и таргетированной рекламой

Минусы:

  • Холодная аудитория низкая вероятность покупки

  • Для вывода на порог рентабельности необходимо время обычно от 6-12 месяцев

  • Первые 2-3 месяца результаты могут быть не видны. Стабильный рост трафика и продаж обычно с 6 месяца

20) Блог на своем сайте

Преимущества:

  • Если прекратить оплачивать услуги по продвижению трафик и заказы не обвалятся. Результат сохранится на долгие месяцы, часто на годы

  • При увеличении объема трафика себестоимость клика/заказа понижается (при условии фиксированного абонентского платежа)

  • Нет конкуренции с прайс-агрегаторами и маркетплейсами

  • Рост позиций блога при грамотной внутренней перелинковке (ссылки со страниц блога на категории и карточки товаров) повышает позиции страниц интернет-магазина в поисковой выдаче

  • Идеально подходит для моно-брендовых интернет-магазинов, а также магазинов при продвижении в высоко-конкурентных нишах, где топ-10 занимают федеральные сети, маркетплейсы и агрегаторы, например электроника, бытовая техника, одежда, обувь и т.п.

  • Нет конкуренции с агрегаторами и маркетплейсами по сравнению с SEO-продвижением по коммерческим запросам

Недостатки:

  • Для развития требуется уникальный экспертный контент. Не уникальный (по техническим критериям) не выйдет в топ -> не соберет трафик. Не экспертный не будет формировать доверие и конвертировать посетителей в продажи. Как следствие нужно много ресурсов либо время собственника бизнеса, либо финансовые затраты на сторонних экспертов.

  • Нужно привлекать seo-специалистов для оптимизации статей, либо самому изучить уроки (и заложить дополнительный расход личного времени на каждую статью).

  • Для выхода в ТОП Google в большинстве случаев потребуется ссылочный бюджет (зависит от ниши и от конкуренции)

21) Видео-блог на Youtube

Преимущества:

  • Если видео-ролик попадет в рекомендации можно получать и трафик и подписчиков бесплатно в большом количестве

  • Возможность использовать видео с ютуб-канала в карточках товаров для повышения конверсии в заказ. За счет качественных видео-обзоров можно лучше донести ценность товаров до покупателей по сравнению с обычным текстовым и фото описанием. Хорошо подойдет для интернет-магазинов с небольшой товарной матрицей уникальных товаров, особенно товаров собственного производства или производства в Китае под своим брендом.

  • При указании в описании к видео-роликам ссылок на карточки товаров дает дополнительный авторитет сайту для SEO-продвижения

Недостатки:

  • Требуется большое кол-во ресурсов время, экспертный, интересный и уникальный контент, качественная видео-съемка и профессиональная обработка

  • Не дает отдачи первые 6-12 месяцев при больших затратах


Реклама в соц.сетях

Бизнес-метрики:

  • Объем трафика: много

  • Качество трафика: среднее

  • Стоимость трафика: средняя

  • Время на запуск: мало

  • Рентабельность: средняя

Плюсы:

  • Подойдет всем, включая ниши без сформированного спроса

  • Быстрый запуск от 2 дней

  • Возможность показывать рекламу в любом регионе (наличие розничных магазинов или точек самовывоза в целевых регионах не имеет значения)

  • Большой выбор параметров для таргетирования персональные данные пользователей, интересы, вхождение в целевые сообщества и группы конкурентов

  • Огромный охват целевой аудитории за короткий срок

Минусы:

  • Холодная аудитория низкая вероятность покупки

  • Если отключить рекламу трафик и заказы перестанут поступать

  • Для самостоятельной настройки потребуются спец.знания

  • Помимо разовой настройки требует постоянного ведения рекламы обновления выгорающих креативов, тестирование, оптимизация.

  • Помимо оплаты услуг специалистов требуется оплата рекламного бюджета

  • При увеличении объема трафика увеличивается рекламный бюджет

  • Для вывода на порог рентабельности необходимо время обычно от 1-2 недель

22) Реклама в Instagram / Таргетинг

Преимущества:

  • Экономия времени на постоянном поиске новых баз для таргетинга и обновлении креативов за счет работу искусственного интеллекта и машинного обучения.

Недостатки:

  • Объявления быстро выгорают (приедаются пользователям и они их не замечают) чтобы оставаться в рамках рентабельности нужно постоянно их обновлять

23) Реклама в Instagram / Ретаргетинг

Преимущества:

  • Более медленного выгорание объявлений по сравнению с обычным таргетингом нет необходимости частого обновления креативов

Недостатки:

  • Небольшой объем аудитории (обычно 3-5% от общего кол-ва посетителей сайта, привлекать больше можно, но как правило нерентабельно, из-за возрастающих ставок за клик)

24) Реклама в Вконтакте / Таргетинг

Преимущества:

  • Большой выбор форматов и мест размещения рекламных объявлений

Недостатки:

  • Объявления быстро выгорают (приедаются пользователям и они их не замечают) чтобы оставаться в рамках рентабельности нужно постоянно их обновлять

25) Реклама в Вконтакте / Ретаргетинг

Преимущества:

  • В отличие от динамического ретаргетинга можно настроить самостоятельно

  • Большой выбор форматов объявлений по сравнению с динамическим ретаргетингом

  • Отлично подходит для быстрого оповещение посетителей сайта о предстоящей акции

  • Более медленного выгорание объявлений по сравнению с обычным таргетингом нет необходимости частого обновления креативов

Недостатки:

  • Небольшой объем аудитории (обычно 3-5% от общего кол-ва посетителей сайта, привлекать больше можно, но как правило нерентабельно, из-за возрастающих ставок за клик)

26) Реклама в Вконтакте / Динамический ретаргетинг

Преимущества:

  • Более высокие показатели CTR (кликабельности объявлений) за счет точной персонализации предложений. Стоимость заказа обычно ниже по сравнению с обычным ретаргетингом.

  • Объявлений не выгорают нет необходимости постоянно создавать новые

Недостатки:

  • Небольшой объем аудитории (обычно 3-5% от общего кол-ва посетителей сайта, привлекать больше можно, но как правило нерентабельно, из-за возрастающих ставок за клик)

  • Ограниченный формат объявлений только товарная лента

  • Для настройки потребуется привлекать программиста

  • Не подходит для анонсов глобальных акций

27) Реклама в Одноклассники / Таргетинг

Преимущества:

  • Большой выбор форматов и мест размещения рекламных объявлений

Недостатки:

  • Объявления быстро выгорают (приедаются пользователям и они их не замечают) чтобы оставаться в рамках рентабельности нужно постоянно их обновлять

28) Реклама в Facebook / Таргетинг

Преимущества:

  • Большой выбор форматов и мест размещения рекламных объявлений

Недостатки:

  • Объявления быстро выгорают (приедаются пользователям и они их не замечают) чтобы оставаться в рамках рентабельности нужно постоянно их обновлять


Рассылки по своей базе

Бизнес-метрики:

  • Объем трафика: мало

  • Качество трафика: высокое

  • Стоимость трафика: низкая

  • Время на запуск: мало

  • Рентабельность: высокая

Плюсы:

  • Горячая аудитория (высокая вероятность совершения заказа)

  • Подойдет всем, включая ниши без сформированного спроса

  • Можно продвигать товары, которые попадают под запрет в контекстной и таргетированной рекламе

  • При росте базы подписчиков себестоимость каждого заказа снижается

  • Нет привязки к гео, можно отправлять письма подписчикам из любого города

  • Обязательна только разовая настройка. Не нужно платить за оптимизацию как в контекстной и таргетированной рекламе

  • Чем больше база подписчиков тем больше продаж с каждым следующим постом

  • Отлично подходит для проведения акций

  • Заплатив один раз за подписчика можно продавать ему товары повторно, не платя снова за его привлечение

  • Возможность делать автоматические серии писем, чтобы регулярно напоминать о магазине

Минусы:

  • На старте не приносит продаж, пока собирается база подписчиков

  • Требуется ежемесячная оплата сервиса рассылок

  • Для самостоятельной настройки потребуются спец.знания

29) Email-рассылка

Преимущества:

  • Конструктор писем

  • Адаптивные шаблоны писем (не нужно заморачиваться с версткой)

  • Возможность сегментировать базу по городу, полу, возрасту, интересам и др. критериям и отправлять письма отдельным сегментам

  • Возможность проводить A/B-тестирования для повышения эффективности открываемости писем и переходов на сайт

  • Интеграции с CMS через готовые плагины или API для реализации триггерных рассылок (отправка напоминаний тем кто положил товар в корзину, но не оформил заказ, тем кто оформил отдельно письмо с допродажей сопутствующих товаров и т.п.)

  • Многие сервисы предоставляют возможность пользоваться базовым функционалом бесплатно до определенного кол-ва подписчиков

Недостатки:

  • Низкая открываемость писем по сравнению с рассылками во Вконтакте

  • Сообщения могут попадать в спам

30) Рассылка во Вконтакте

Преимущества:

  • Открываемость сообщений выше по сравнению с емайл-рассылкой

  • Возможность строить вариативные цепочки писем (разные серии писем в зависимости от действий подписчиков)

  • Есть сервисы предоставляющие возможность пользоваться базовым функционалам бесплатно при условии не превышения установленных лимитов по кол-ву сообщений в сутки

Недостатки:

  • Нет возможности настроить триггерные рассылки через плагины CMS или API

Подробнее..

Tier 2 в SEO и интернет маркетинге

08.02.2021 20:16:10 | Автор: admin

Как я вижу, Гез ссылается на Брауна, сам будучи против вас, и это верная примета, что Браун сошлется на Геза. Грин Александр. Бегущая по волнам, 1928 г.

Поскольку как в Гугле, так и в Яндексе пока почти нет информации на русском про tier 2 начнем с определений. В переводе с английского tier это ярус, уже можно понять, что tier 2 это какой-то второй ярус. Если мы начнем гуглить tier 2, то увидим, что термин применяется в построении сетей разных уровней, а также в центрах обработки данных как показатель их надежности, но еще и в выдаче виз в Великобританию. Казалось бы, а при чем здесь SEO или маркетинг?

Рунет по разному, но зачастую значительно позже переваривает и популяризирует тренды или методы, которые в англоязычном мировом интернете уже давно систематизированы и изучены. В Google на английском поиск по запросу tier seo показывает, что эти методы продвижения с помощью усиления ссылок второго уровня tier 2 используется и активно обсуждается на англоязычных форумах уже много лет. Надо отметить, что даже в продвинутом англоязычном seo иногда не в курсе термина tier 2, хотя успешно используют эти методы.

Источник скриншота: https://www.blackhatworld.com/seo/what-is-tier-1-and-tier-2-in-seo.531054/#post-7085808Источник скриншота: https://www.blackhatworld.com/seo/what-is-tier-1-and-tier-2-in-seo.531054/#post-7085808

Стоп, а если я не сеошник, тогда мне не надо дальше читать этот длиннопост? Сеошники вряд ли много нового узнают, может быть только специфический термин, однако, статья должна быть полезна и маркетологам. На самом деле кто бы вы ни были, но вы в любом случае сталкиваетесь с tier 2. В этой статье я попытаюсь пояснить почему узнать всю суть этого термина действительно важно каждому пользователю сети Интернет.

Что такое tier 2 в SEO продвижении сайтов

Начнем с того как я сам не зная этого термина начал работать с tier 2 ссылками. Сейчас, что такое крауд маркетинг знают почти все, а в 2011 году этот термин не знал никто, но методом скрытого маркетинга пользовались многие. Поскольку общение на форумах тогда еще было очень активным, а трафик из соцсетей лился реками, то я просто проводил постинг для получения целевой аудитории. При чем же здесь tier 2?

В какой-то момент я сообразил, что никак не охвачен трафик из ТОП выдачи, что приходит на сайты конкурентов, но они же ни за какие деньги не разместят ссылку на сайт, что я продвигал, ведь это для них прямая конкуренция. Однако, на сайте конкурентов был прикручен простенький форум, конечно, он модерировался и там я бы также не смог разместить ссылку на нужный мне сайт. У меня давно был сделан и заброшен блог в ЖЖ (livejournal) с описанием товаров, которые продавались на сайте, что я продвигал и которые также продавались на сайте конкурентов.

В ЖЖ у меня были проставлены ссылки на сайт, но я их убрал, далее банально зарегистрировался на форуме конкурентов, пообщался для вида и как-то уместно разместил ссылку на пост в ЖЖ. Модераторы проверили и не удалили, потому что ничего подозрительного, тем более отзыв о товаре хороший. После этого я изменил тот пост в ЖЖ и вернул туда ссылку на нужный мне сайт, прямо на товар. Моя цель была достигнута и пошел какой-то трафик, по крайней мере единичные переходы. На тот момент ссылок на сайт не покупалось, но скоро я заметил рост позиций сайта, который продвигал по тем самым запросам. И вот это было tier 2.

Попросту говоря на ЖЖ была ссылка на мой сайт и это tier 1, а ссылка с сайта конкурентов усилила страничку в ЖЖ как tier 2. Эффективность tier 2 по части SEO в том случае была заметна за счет того, что я видел как страничка в ЖЖ также поднялась в выдаче по низкочастотным запросам о том товаре. До того ссылка на сайт, что я продвигал была на ЖЖ год, но не давала никакого SEO эффекта для нужного мне сайта акцептора.

В дальнейшем я уже осмысленно использовал методы усиления ссылок в SEO, хотя сам термин tier 2 не знал еще очень долго. Простой пример: покупаешь ссылку в статье на каком-то маленьком сайте на бирже за 5-10 долларов, а новая страница в индекс не хочет становиться неделями, что делать? Поскольку сеошнику надо отчитываться перед клиентами с индексацией и подгонять рост позиций, то если владельцы сайта донора ничего не делают с перелинковкой, значит приходится самому простимулировать индексацию. Также делал странички на ЖЖ и других платформах для блогов с ссылкой на страницу со статьей в которой ссылка на клиентский сайт, были случаи даже покупал за пару временных ссылок за копейки, чтобы нужная мне страница на совершенно чужом сайте встала в индекс. И это тоже tier 2, только его цель загнать новую страницу в индекс.

Только это все про Яндекс, а как же Google учитывает ссылки tier 2?

Начнем с того, что сколько бы официальные представители Google не говорили, что ссылки с атрибутом rel= nofollow никак не повлияют на позиции, но всегда было множество исследований доказывающих это влияние. Видимо поэтому в 2019 году Google официально признал, что ссылки nofollow влияют, если они размещены на авторитетных сайтах (Wikipedia и тд).

Лучше приведу пример старого исследования по которому видно какие ссылки скорее всего и правда не влияют на позиции. В компании Tasty Placement несколько лет назад провели эксперимент, Было создано шесть сайтов одной тематики на шесть городов одинаковых по численности и провели с сайтами различные манипуляции относительно соцсетей. Через десять месяцев проверили показатели, в таблице ниже интересные результаты.

Социальные сети

Изменение коэффициента ранжирования

1-й сайт набрал 100 подписчиков Google +

14.63 %

2-й сайт получил 300 репостов Google +

9.44 %

3-й сайт 70 репостов и 50 лайков бизнес-страницы

6.9 %

4-й сайт получил 50 ретвитов

2.88 %

5-й сайт набрал 1000 подписчиков в Twitter

1.22 %

6-й сайт вообще ни в чем не участвовал.

0.11 %

Ссылка на полноценную презентацию эксперимента: https://www.tastyplacement.com/wp-content/uploads/testing-social-signals.jpg

Не зря же соцсети делают внешние ссылки не просто rel= nofollow, например, Twitter отправляет ссылки на другой URL и потом через 301-редирект. Ссылки из ВКонтакте уводят на скрипт away.php, который проверяет подозрительность внешней ссылки. Мы можем наблюдать на крупных форумах такие же страницы-прокладки, которые только через скрипты позволяют уйти на другой сайт по ссылке. С одной стороны так социальная сеть или форум пытаются удержать пользователя от перехода, с другой стороны это наверняка избавляет от SEO эффекта ссылок второго уровня tier 2, которые многие хотели бы получить из соцсетей.

Зарубежные SEO специалисты давно знают значение ссылок tier 2 и стараются получать их с Википедии, Reddit и других крупных сайтов. Методы простые.

  • Ищешь сайт на который можно оставить ссылку на Википедии и на котором можно написать хотя бы информационную статью. Пишешь статью, прячешь в ней ссылку на нужный сайт, далее идешь на Википедию и пытаешься в источниках оставить ссылку на сайт с информационной статьей.

  • Находишь сайты по нужной теме продвижения в ТОП выдачи, а они же никогда не оставят ссылку на прямого конкурента, но ты всегда можешь предложить им для размещения статью с ссылкой на информационные источники. А уже в тех источниках будет ссылка на ваш сайт и Google прекрасно передает вес ссылок tier 2.

Наиболее простое доказательство реальной эффективности веса ссылок tier 2 для Google это сети сателлитов, которые до сих пор работают для продвижения. Обычно сеть сателлитов (сеть сайтов общей тематики: Private Blog Network или просто PBN) создается как раз по такой схеме.

Источник схемы: https://digitaluncovered.com/seo-snake-oil-how-to-choose-an-seo-company/Источник схемы: https://digitaluncovered.com/seo-snake-oil-how-to-choose-an-seo-company/

Здесь мы видим также ссылки третьего уровня, то есть tier 3. Естественно это все сателлиты, иногда дешевле купить несколько десятков доменов, сделать простенькие сайты под шаблон нужной тематики и перелинковать по схеме, чтобы улучшить позиции своего сайта. Очевидно, что специалисты занимающиеся строительством сетей PBN в обиходе повседневно используют термин tier 2. Надо отметить, что в некоторых темах трудно найти достаточное количество сайтов доноров для размещения ссылок и для Google именно сеть PBN иногда чуть ли не единственный выход для подъема позиций даже сейчас в 2021 году. И так будет видимо всегда, потому что поисковые системы обычно не могут распознать такие сетки сателлитов как биржевые продающие ссылки, а фильтры, санкции за ссылки уровня tier 3 или tier 2 не будут самыми жесткими. Главное в этой схеме сайты уровня tier 1, но их условный траст всегда можно подпитать новыми ссылками, а также разбавлять крауд маркетингом и тд. Впрочем, постоянно продвигать сайт только сетями PBN не выйдет, алгоритм Google Penguin рано или поздно определит эти манипуляции, поэтому сеть сателлитов может применяться только как некий вспомогательный фактор продвижения, один из методов SEO.

Вред от ссылок tier 2

Все знают, что ссылки с плохих доноров на сайт акцептор рано или поздно ведут к фильтрам от поисковых систем, но как повлияют исходящие ссылки с вашего сайта?

Обратимся к исследованию, которое было проведено в 2016 году и повторено в 2020 году с теми же результатами. Суть эксперимента была в том, что придумали косметику с вымышленным названием Phylandocic и тестовое переменное слово Ancludixis. Все это не имело ни единого результата в выдаче.

  • Было создано десять сайтов по 300 слов на каждом.

  • С пяти сайтов были проставлены внешние ссылки на авторитетные источники: Оксфордский университет, Кембриджский университет и тд.

  • Исследователи минимализировали посещения сайтов по ключевым фразам, все делали в режиме инкогнито, даже не проверяли поиск до конца эксперимента и все это знал ограниченный круг людей.

В итоге, через десять месяцев оказалось, что сайты на которых были внешние ссылки на трастовые реально качественные сайты были с лучшими позициями, чем другие без таких ссылок.

Update: We have rerun this experiment in April 2020 using fresh domains and can confirm the same results. External links remain a ranking factor and good SEO best practise.

Ссылка на исследование: https://www.rebootonline.com/blog/long-term-outgoing-link-experiment/ Ссылка на исследование: https://www.rebootonline.com/blog/long-term-outgoing-link-experiment/

А теперь вспомним, что есть печеньки (cookie) и браузер Google Chrome, а в нем многие авторизованы под своим аккаунтом Google. Становится ясно, что если вы разместите ссылку на сайт, который сам по себе безобиден, но при этом размещает много ссылок на плохие сайты, то это значит Google точно узнает всю цепочку сайтов, что ссылаются на плохой сайт. Вывод: также как построение цепей ссылок tier 1, 2 и 3 поднимают в ТОП Google их акцептора, так и может пессимизировать за то, что вы ссылаетесь на некий сайт, который является помойкой для ссылок ведущих скорее всего на подозрительный сайт. Ведь разрешенные к продвижению по тематике сайты на биржах могут покупать ссылки напрямую.

Пример из моей SEO практики: клиентский сайт выставили на биржу, чтобы немного отбить заказами на статейные ссылки цену продвижения. Трастовому сайту нормально проставить немного ссылок из статей на другие живые сайты той же тематики. Как-то пришел заказ на симпатичный и аскетичный тематичный сайт, он мне показался подозрительным, хотя внешних ссылок на нем не было, поэтому ссылку на него разместил. Заказчик из биржи был очень доволен и тут же выслал еще десять заказов на подобные сайты похожие как близнецы, а начинаешь проверять и видишь, что они на одном ip (хостинге). Тогда я сразу понял, что пытаются прокачать сеть сателлитов, которые позже неизвестно куда уведут ссылками и уговорил клиента отказаться от такого оптового размещения, то есть поберечь свой сайт. Пока сателлиты без ссылок чистые все нормально, но ведь они обязательно будут использованы по назначению.

Еще один нюанс. SEO оптимизатор должен учитывать, что сателлиты перепродаются, иногда целая сеть может быть выкуплена кем-то еще, надо будет следить за этим. Что будет, если покупали дешевые ссылки на биржах?

  • Вначале все будет хорошо, ведь ссылки вечные, некоторые биржи дают год гарантии за дополнительную оплату страховых взносов, но чаще всего на год хватает стабильности и так.

  • Зато через пару лет окажется, что ничто не вечно, а сайты на бирже ушли в бан по всем показателям, выпали из индекса, потому что их администраторы были жадные и продавали слишком много ссылок, а под конец падения даже не тематические. Вот такой tier 2 внешними ссылками убивающий ваш донор.

  • Выходит ссылки второго уровня на сайте донора когда-то могут испортить вам вес SEO ссылки первого уровня с положительного на отрицательный. Если в Google есть инструмент Disallow Links, чтобы отклонить испорченные ссылки, то в Яндексе ничего подобного нет.

Tier 2 и интернет маркетинг

Про крауд маркетинг уже были примеры, перейдем сразу к съему целевой аудитории из ТОП поисковых систем с помощью tier 2. Десять лет назад были популярен сервис Ответы Mail.ru и подобный был у Google, причем в обоих случаях ответы выдавались в ТОП выдачи по ключевым запросам, вопросам. Эти методы сейчас знают и понимают уже все/

  • Формулируешь правильно с вхождением ключевого запроса вопрос с одного аккаунта, ждешь любых ответов и с другого своего аккаунта пишешь нормальный внятный ответ ссылкой на нужный тебе сайт. Желательно использовать VPN, чтобы не забанили, но при необходимости сделать много таких вопросов и ответов просто нанимались на сайтах фриланса реальные люди со своими аккаунтами.

  • Вопрос моментально оказывается в ТОП выдачи, а ответ с нужной тебе ссылкой ты сам выбрал лучшим и он выделяется, далее просто наблюдаешь как начинает идти трафик на сайт, который прорекламировал.

Только Ответы Mail.ru уже давно не в тренде, сервис Ответы Google закрылся, зато появился Яндекс.ДЗЕН и сейчас он почти всегда в ТОП выдачи Яндекса. Кстати, qna.habr тоже немного заспамлен и это также tier 2 (ищешь вопрос, находишь ответ, а там в комментарии ссылка куда-то).

С чем я не имел дело, то есть никогда сам такого не делал, но с чем сталкивался каждый из нас.

  • Вы ищете в Яндексе или Google какой-то вопрос, из ТОП выдачи попадаете на страницу в соцсети Вконтакте и там вместо ответа вас ждет ссылка на какой-то подозрительный сайт.

  • Вы попадаете из поисковой системы на какой-то сайт (doorway), а там заглушка и навязчиво предлагается перейти еще на какой-то сайт. Думаю все уже догадались о каких сайтах речь, ведь такие сайты для взрослых запрещены в большинстве случаев для контекстной рекламы и тд.

  • Наконец, вам предлагают перейти по сокращенной ссылке, то есть по адресу вы не видите куда вас направляет ссылка, часто так скрывают реферальные ссылки. Но по сути вы идете на какой-то сайт через переадресацию. Или еще хуже, когда вы попадаете на сайт и ничего не нажимаете, возможно уже закрываете страницу и тут принудительно открывается окно с ссылкой на другой сайт. Так может быть спрятан фишинг.

Таким образом, становится ясно почему абсолютно все пользователи сети Интернет обязательно сталкиваются и переходят по ссылкам tier 2 создавая им поведенческие факторы. Чаще всего пранки или фишинг также делается через сайты прокладки tier 2. Если специалисту в SEO продвижении термин tier 2 пригодится для осмысления методов, чтобы было удобнее формулировать планы и стратегии ссылочного продвижения, то обывателю нужно знать этот термин, чтобы не тратить время впустую на хождения по сателлитам.

Дело в том, что сателлиты или сайты-прокладки для ссылок tier 2 не всегда сделаны кое-как по шаблону. Во многих случаях это старые красивые сайты, которые были когда-то живыми, но заброшены администраторами и недорого выкуплены для выполнения роли площадки под ссылки. Отличить такую западню легко, когда вы переходите по ссылке на статью, а в этой статье текст вода и ссылка на другой сайт. Короче говоря, вы попали не на сайт где есть нужная вам информация или решение проблемы, а на SEO страницу.

  • Если текст рекламный и ссылка хорошо выделена на видном месте или подкреплена тизером это маркетинг.

  • Если текст как бы ни о чем, а контекстная ссылка в тексте или постовой в конце статьи это линкбилдинг.

В обоих случаях вы зря потратите время на прочтение статьи, потому что её скорее всего написал рерайтер за копейки: текст ради индексации. Особенно печально, когда люди ищут информацию про болезни, лекарства и попадают на такие страницы, читают и верят написанному, а ведь в таком контенте могут быть грубые смысловые ошибки. Именно поэтому так важно всем научиться различать настоящие профессиональные уникальные статьи и страницы с просто уникальным текстом созданные для ссылок tier 2. Однако, конкуренция приводит к повышению качества сайтов и чтобы получить хорошие поведенческие факторы даже SEO контент стараются делать все более профессионально в плане смысловой составляющей.

Почему редко используют термин tier 2

Все дело в специфике, поскольку термин SEO уже хорошо известен и распиарен, то именно так и называют продвижение в общем и целом для клиентов. На самом деле студия занимающаяся продвижением сайтов может успешно использовать самые разные методы, но путать клиентов терминами не будут. Вспомните коммерческие предложения, что вам высылали по поводу продвижения, ведь там наверняка общие фразы про индивидуальный подход в линкбилдинге и качественные ссылки? Чем больше непонятной информации, тем сложнее заказчику решиться. Если про SEO заказчик понимает, то про интернет маркетинг смутно, а термин crowd многих и сейчас вводит в ступор. Услугу могут предлагать, но объяснять будут простыми словами, без специфических терминов.

Не всякий сеошник решиться попробовать стратегию усилять ссылками страницу сайта донора, а объяснить, что надо покупать ссылки ведущие не только на сайт клиента, но и на некоторые чужие тематические сайты доноры ссылок - это явно фантастическая задача на брифинге. Тем более, когда клиент знает только один термин SEO и не знает толком, что в чистом виде SEO не всегда гарантирует выход в ТОП.

Впрочем, никакие ссылки и SEO методы не помогут подняться в ТОП, если у сайта есть технические проблемы с доступностью всех страниц или низкая скорость загрузки. Уже давно сеошники учитывают скорость загрузки сайтов конкурентов, чтобы обойти их в ТОП. Только в 2020 году Google конкретно заявил, что в 2021 году для ранжирования сайтов станут достаточно важными факторы Web Vitals: скорость загрузки, интерактивность и визуальная стабильность. Доступность и качество ресурса невозможны без мониторинга, когда у вас хостинг в надежном дата-центре с грамотной поддержкой, которая готова оперативно отреагировать в случае экстренной ситуации. Очевидно, ссылки tier 2 и 3 на сетях сателлитов для продвижения в Google теперь тоже придется размещать только на надежных хостингах с хорошей поддержкой.

Все же специфические термины полезны для смежных с SEO профессий, они помогают более четко работать команде по продвижению сайта (сеошник, программист, контент редактор, интернет маркетолог и тд). Когда составляется план комплексного продвижения сайта, вырабатывается стратегия все члены команды должны знать SEO термины, даже про серые методы, сателлиты, tier 2 и понимать их.

Tu deviens responsable pour toujours de ce que tu as apprivois. (из повести Маленький принц Антуана де Сент-Экзюпери, 1943 г.)

P. S. Habr не имел ранее статей про SEO tier 2, а в Рунете почти нет статей на эту тему, значит эта статья выйдет в ТОП. Выходит, если кто-то разместит под данной статьей комментарий, но в своем профиле будет иметь ссылку на страницу или сайт для заказа ИТ услуг - это и будет tier 2!

Подробнее..

Recovery mode Tier 2 в SEO и интернет маркетинге

08.02.2021 22:18:49 | Автор: admin

Как я вижу, Гез ссылается на Брауна, сам будучи против вас, и это верная примета, что Браун сошлется на Геза. Грин Александр. Бегущая по волнам, 1928 г.

Поскольку как в Гугле, так и в Яндексе пока почти нет информации на русском про tier 2 начнем с определений. В переводе с английского tier это ярус, уже можно понять, что tier 2 это какой-то второй ярус. Если мы начнем гуглить tier 2, то увидим, что термин применяется в построении сетей разных уровней, а также в центрах обработки данных как показатель их надежности, но еще и в выдаче виз в Великобританию. Казалось бы, а при чем здесь SEO или маркетинг?

Рунет по разному, но зачастую значительно позже переваривает и популяризирует тренды или методы, которые в англоязычном мировом интернете уже давно систематизированы и изучены. В Google на английском поиск по запросу tier seo показывает, что эти методы продвижения с помощью усиления ссылок второго уровня tier 2 используется и активно обсуждается на англоязычных форумах уже много лет. Надо отметить, что даже в продвинутом англоязычном seo иногда не в курсе термина tier 2, хотя успешно используют эти методы.

Источник скриншота: https://www.blackhatworld.com/seo/what-is-tier-1-and-tier-2-in-seo.531054/#post-7085808Источник скриншота: https://www.blackhatworld.com/seo/what-is-tier-1-and-tier-2-in-seo.531054/#post-7085808

Стоп, а если я не сеошник, тогда мне не надо дальше читать этот длиннопост? Сеошники вряд ли много нового узнают, может быть только специфический термин, однако, статья должна быть полезна и маркетологам. На самом деле кто бы вы ни были, но вы в любом случае сталкиваетесь с tier 2. В этой статье я попытаюсь пояснить почему узнать всю суть этого термина действительно важно каждому пользователю сети Интернет.

Что такое tier 2 в SEO продвижении сайтов

Начнем с того как я сам не зная этого термина начал работать с tier 2 ссылками. Сейчас, что такое крауд маркетинг знают почти все, а в 2011 году этот термин не знал никто, но методом скрытого маркетинга пользовались многие. Поскольку общение на форумах тогда еще было очень активным, а трафик из соцсетей лился реками, то я просто проводил постинг для получения целевой аудитории. При чем же здесь tier 2?

В какой-то момент я сообразил, что никак не охвачен трафик из ТОП выдачи, что приходит на сайты конкурентов, но они же ни за какие деньги не разместят ссылку на сайт, что я продвигал, ведь это для них прямая конкуренция. Однако, на сайте конкурентов был прикручен простенький форум, конечно, он модерировался и там я бы также не смог разместить ссылку на нужный мне сайт. У меня давно был сделан и заброшен блог в ЖЖ (livejournal) с описанием товаров, которые продавались на сайте, что я продвигал и которые также продавались на сайте конкурентов.

В ЖЖ у меня были проставлены ссылки на сайт, но я их убрал, далее банально зарегистрировался на форуме конкурентов, пообщался для вида и как-то уместно разместил ссылку на пост в ЖЖ. Модераторы проверили и не удалили, потому что ничего подозрительного, тем более отзыв о товаре хороший. После этого я изменил тот пост в ЖЖ и вернул туда ссылку на нужный мне сайт, прямо на товар. Моя цель была достигнута и пошел какой-то трафик, по крайней мере единичные переходы. На тот момент ссылок на сайт не покупалось, но скоро я заметил рост позиций сайта, который продвигал по тем самым запросам. И вот это было tier 2.

Попросту говоря на ЖЖ была ссылка на мой сайт и это tier 1, а ссылка с сайта конкурентов усилила страничку в ЖЖ как tier 2. Эффективность tier 2 по части SEO в том случае была заметна за счет того, что я видел как страничка в ЖЖ также поднялась в выдаче по низкочастотным запросам о том товаре. До того ссылка на сайт, что я продвигал была на ЖЖ год, но не давала никакого SEO эффекта для нужного мне сайта акцептора.

В дальнейшем я уже осмысленно использовал методы усиления ссылок в SEO, хотя сам термин tier 2 не знал еще очень долго. Простой пример: покупаешь ссылку в статье на каком-то маленьком сайте на бирже за 5-10 долларов, а новая страница в индекс не хочет становиться неделями, что делать? Поскольку сеошнику надо отчитываться перед клиентами с индексацией и подгонять рост позиций, то если владельцы сайта донора ничего не делают с перелинковкой, значит приходится самому простимулировать индексацию. Также делал странички на ЖЖ и других платформах для блогов с ссылкой на страницу со статьей в которой ссылка на клиентский сайт, были случаи даже покупал за пару временных ссылок за копейки, чтобы нужная мне страница на совершенно чужом сайте встала в индекс. И это тоже tier 2, только его цель загнать новую страницу в индекс.

Как Google учитывает ссылки tier 2

Начнем с того, что сколько бы официальные представители Google не говорили, что ссылки с атрибутом rel= nofollow никак не повлияют на позиции, но всегда было множество исследований доказывающих это влияние. Видимо поэтому в 2019 году Google официально признал, что ссылки nofollow влияют, если они размещены на авторитетных сайтах (Wikipedia и тд).

Лучше приведу пример старого исследования по которому видно какие ссылки скорее всего и правда не влияют на позиции. В компании Tasty Placement несколько лет назад провели эксперимент, Было создано шесть сайтов одной тематики на шесть городов одинаковых по численности и провели с сайтами различные манипуляции относительно соцсетей. Через десять месяцев проверили показатели, в таблице ниже интересные результаты.

Социальные сети

Изменение коэффициента ранжирования

1-й сайт набрал 100 подписчиков Google +

14.63 %

2-й сайт получил 300 репостов Google +

9.44 %

3-й сайт 70 репостов и 50 лайков бизнес-страницы

6.9 %

4-й сайт получил 50 ретвитов

2.88 %

5-й сайт набрал 1000 подписчиков в Twitter

1.22 %

6-й сайт вообще ни в чем не участвовал.

0.11 %

Ссылка на полноценную презентацию эксперимента: https://www.tastyplacement.com/wp-content/uploads/testing-social-signals.jpg

Не зря же соцсети делают внешние ссылки не просто rel= nofollow, например, Twitter отправляет ссылки на другой URL и потом через 301-редирект. Ссылки из ВКонтакте уводят на скрипт away.php, который проверяет подозрительность внешней ссылки. Мы можем наблюдать на крупных форумах такие же страницы-прокладки, которые только через скрипты позволяют уйти на другой сайт по ссылке. С одной стороны так социальная сеть или форум пытаются удержать пользователя от перехода, с другой стороны это наверняка избавляет от SEO эффекта ссылок второго уровня tier 2, которые многие хотели бы получить из соцсетей.

Зарубежные SEO специалисты давно знают значение ссылок tier 2 и стараются получать их с Википедии, Reddit и других крупных сайтов. Методы простые.

  • Ищешь сайт на который можно оставить ссылку на Википедии и на котором можно написать хотя бы информационную статью. Пишешь статью, прячешь в ней ссылку на нужный сайт, далее идешь на Википедию и пытаешься в источниках оставить ссылку на сайт с информационной статьей.

  • Находишь сайты по нужной теме продвижения в ТОП выдачи, а они же никогда не оставят ссылку на прямого конкурента, но ты всегда можешь предложить им для размещения статью с ссылкой на информационные источники. А уже в тех источниках будет ссылка на ваш сайт и Google прекрасно передает вес ссылок tier 2.

Наиболее простое доказательство реальной эффективности веса ссылок tier 2 для Google это сети сателлитов, которые до сих пор работают для продвижения. Обычно сеть сателлитов (сеть сайтов общей тематики: Private Blog Network или просто PBN) создается как раз по такой схеме.

Источник схемы: https://digitaluncovered.com/seo-snake-oil-how-to-choose-an-seo-company/Источник схемы: https://digitaluncovered.com/seo-snake-oil-how-to-choose-an-seo-company/

Здесь мы видим также ссылки третьего уровня, то есть tier 3. Естественно это все сателлиты, иногда дешевле купить несколько десятков доменов, сделать простенькие сайты под шаблон нужной тематики и перелинковать по схеме, чтобы улучшить позиции своего сайта. Очевидно, что специалисты занимающиеся строительством сетей PBN в обиходе повседневно используют термин tier 2 и tier 3.

В некоторых темах трудно найти достаточное количество сайтов доноров для размещения ссылок и для Google именно сеть PBN иногда чуть ли не единственный выход для подъема позиций даже сейчас в 2021 году. И так будет видимо всегда, потому что поисковые системы обычно не могут распознать такие сетки сателлитов как биржевые продающие ссылки, а фильтры, санкции за ссылки уровня tier 3 или tier 2 не будут самыми жесткими. Главное в этой схеме сайты уровня tier 1, но их условный траст всегда можно подпитать новыми ссылками, а также разбавлять крауд маркетингом и тд. Впрочем, постоянно продвигать сайт только сетями PBN не выйдет, алгоритм Google Penguin рано или поздно определит эти манипуляции, поэтому сеть сателлитов может применяться только как некий вспомогательный фактор продвижения, один из методов SEO.

Вред от ссылок tier 2

Все знают, что ссылки с плохих доноров на сайт акцептор рано или поздно ведут к фильтрам от поисковых систем, но как повлияют исходящие ссылки с вашего сайта?

Обратимся к исследованию, которое было проведено в 2016 году и повторено в 2020 году с теми же результатами. Суть эксперимента была в том, что придумали косметику с вымышленным названием Phylandocic и тестовое переменное слово Ancludixis. Все это не имело ни единого результата в выдаче.

  • Было создано десять сайтов по 300 слов на каждом.

  • С пяти сайтов были проставлены внешние ссылки на авторитетные источники: Оксфордский университет, Кембриджский университет и тд.

  • Исследователи минимализировали посещения сайтов по ключевым фразам, все делали в режиме инкогнито, даже не проверяли поиск до конца эксперимента и все это знал ограниченный круг людей.

В итоге, через десять месяцев оказалось, что сайты на которых были внешние ссылки на трастовые реально качественные сайты были с лучшими позициями, чем другие без таких ссылок.

Update: We have rerun this experiment in April 2020 using fresh domains and can confirm the same results. External links remain a ranking factor and good SEO best practise.

Ссылка на исследование: https://www.rebootonline.com/blog/long-term-outgoing-link-experiment/ Ссылка на исследование: https://www.rebootonline.com/blog/long-term-outgoing-link-experiment/

А теперь вспомним, что есть печеньки (cookie) и браузер Google Chrome, а в нем многие авторизованы под своим аккаунтом Google. Становится ясно, что если вы разместите ссылку на сайт, который сам по себе безобиден, но при этом размещает много ссылок на плохие сайты, то это значит Google точно узнает всю цепочку сайтов, что ссылаются на плохой сайт. Вывод: также как построение цепей ссылок tier 1, 2 и 3 поднимают в ТОП Google их акцептора, так и может пессимизировать за то, что вы ссылаетесь на некий сайт, который является помойкой для ссылок ведущих скорее всего на подозрительный сайт. Ведь разрешенные к продвижению по тематике сайты на биржах могут покупать ссылки напрямую.

Пример из моей SEO практики: клиентский сайт выставили на биржу, чтобы немного отбить заказами на статейные ссылки цену продвижения. Трастовому сайту нормально проставить немного ссылок из статей на другие живые сайты той же тематики. Как-то пришел заказ на симпатичный и аскетичный тематичный сайт, он мне показался подозрительным, хотя внешних ссылок на нем не было, поэтому ссылку на него разместил. Заказчик из биржи был очень доволен и тут же выслал еще десять заказов на подобные сайты похожие как близнецы, а начинаешь проверять и видишь, что они на одном ip (хостинге). Тогда я сразу понял, что пытаются прокачать сеть сателлитов, которые позже неизвестно куда уведут ссылками и уговорил клиента отказаться от такого оптового размещения, то есть поберечь свой сайт. Пока сателлиты без ссылок чистые все нормально, но ведь они обязательно будут использованы по назначению.

Еще один нюанс. SEO оптимизатор должен учитывать, что сателлиты перепродаются, иногда целая сеть может быть выкуплена кем-то еще, надо будет следить за этим. Что будет, если покупали дешевые ссылки на биржах?

  • Вначале все будет хорошо, ведь ссылки вечные, некоторые биржи дают год гарантии за дополнительную оплату страховых взносов, но чаще всего на год хватает стабильности и так.

  • Зато через пару лет окажется, что ничто не вечно, а сайты на бирже ушли в бан по всем показателям, выпали из индекса, потому что их администраторы были жадные и продавали слишком много ссылок, а под конец падения даже не тематические. Вот такой tier 2 внешними ссылками убивающий ваш донор.

  • Выходит ссылки второго уровня на сайте донора когда-то могут испортить вам вес SEO ссылки первого уровня с положительного на отрицательный. Если в Google есть инструмент Disallow Links, чтобы отклонить испорченные ссылки, то в Яндексе ничего подобного нет.

Tier 2 и интернет маркетинг

Про крауд маркетинг уже были примеры, перейдем сразу к съему целевой аудитории из ТОП поисковых систем с помощью tier 2. Десять лет назад были популярен сервис Ответы Mail.ru и подобный был у Google, причем в обоих случаях ответы выдавались в ТОП выдачи по ключевым запросам, вопросам. Эти методы сейчас знают и понимают уже все/

  • Формулируешь правильно с вхождением ключевого запроса вопрос с одного аккаунта, ждешь любых ответов и с другого своего аккаунта пишешь нормальный внятный ответ ссылкой на нужный тебе сайт. Желательно использовать VPN, чтобы не забанили, но при необходимости сделать много таких вопросов и ответов просто нанимались на сайтах фриланса реальные люди со своими аккаунтами.

  • Вопрос моментально оказывается в ТОП выдачи, а ответ с нужной тебе ссылкой ты сам выбрал лучшим и он выделяется, далее просто наблюдаешь как начинает идти трафик на сайт, который прорекламировал.

Только Ответы Mail.ru уже давно не в тренде, сервис Ответы Google закрылся, зато появился Яндекс.ДЗЕН и сейчас он почти всегда в ТОП выдачи Яндекса. Кстати, qna.habr тоже немного заспамлен и это также tier 2 (ищешь вопрос, находишь ответ, а там в комментарии ссылка куда-то).

С чем я не имел дело, то есть никогда сам такого не делал, но с чем сталкивался каждый из нас.

  • Вы ищете в Яндексе или Google какой-то вопрос, из ТОП выдачи попадаете на страницу в соцсети Вконтакте и там вместо ответа вас ждет ссылка на какой-то подозрительный сайт.

  • Вы попадаете из поисковой системы на какой-то сайт (doorway), а там заглушка и навязчиво предлагается перейти еще на какой-то сайт. Думаю все уже догадались о каких сайтах речь, ведь такие сайты для взрослых запрещены в большинстве случаев для контекстной рекламы и тд.

  • Наконец, вам предлагают перейти по сокращенной ссылке, то есть по адресу вы не видите куда вас направляет ссылка, часто так скрывают реферальные ссылки. Но по сути вы идете на какой-то сайт через переадресацию. Или еще хуже, когда вы попадаете на сайт и ничего не нажимаете, возможно уже закрываете страницу и тут принудительно открывается окно с ссылкой на другой сайт. Так может быть спрятан фишинг.

Таким образом, становится ясно почему абсолютно все пользователи сети Интернет обязательно сталкиваются и переходят по ссылкам tier 2 создавая им поведенческие факторы. Чаще всего пранки или фишинг также делается через сайты прокладки tier 2. Если специалисту в SEO продвижении термин tier 2 пригодится для осмысления методов, чтобы было удобнее формулировать планы и стратегии ссылочного продвижения, то обывателю нужно знать этот термин, чтобы не тратить время впустую на хождения по сателлитам.

Дело в том, что сателлиты или сайты-прокладки для ссылок tier 2 не всегда сделаны кое-как по шаблону. Во многих случаях это старые красивые сайты, которые были когда-то живыми, но заброшены администраторами и недорого выкуплены для выполнения роли площадки под ссылки. Отличить такую западню легко, когда вы переходите по ссылке на статью, а в этой статье текст вода и ссылка на другой сайт. Короче говоря, вы попали не на сайт где есть нужная вам информация или решение проблемы, а на SEO страницу.

  • Если текст рекламный и ссылка хорошо выделена на видном месте или подкреплена тизером это маркетинг.

  • Если текст как бы ни о чем, а контекстная ссылка в тексте или постовой в конце статьи это линкбилдинг.

В обоих случаях вы зря потратите время на прочтение статьи, потому что её скорее всего написал рерайтер за копейки: текст ради индексации. Особенно печально, когда люди ищут информацию про болезни, лекарства и попадают на такие страницы, читают и верят написанному, а ведь в таком контенте могут быть грубые смысловые ошибки. Именно поэтому так важно всем научиться различать настоящие профессиональные уникальные статьи и страницы с просто уникальным текстом созданные для ссылок tier 2. Однако, конкуренция приводит к повышению качества сайтов и чтобы получить хорошие поведенческие факторы даже SEO контент стараются делать все более профессионально в плане смысловой составляющей.

Почему редко используют термин tier 2

Все дело в специфике, поскольку термин SEO уже хорошо известен и распиарен, то именно так и называют продвижение в общем и целом для клиентов. На самом деле студия занимающаяся продвижением сайтов может успешно использовать самые разные методы, но путать клиентов терминами не будут. Вспомните коммерческие предложения, что вам высылали по поводу продвижения, ведь там наверняка общие фразы про индивидуальный подход в линкбилдинге и качественные ссылки? Чем больше непонятной информации, тем сложнее заказчику решиться. Если про SEO заказчик понимает, то про интернет маркетинг смутно, а термин crowd многих и сейчас вводит в ступор. Услугу могут предлагать, но объяснять будут простыми словами, без специфических терминов.

Не всякий сеошник решиться попробовать стратегию усилять ссылками страницу сайта донора, а объяснить, что надо покупать ссылки ведущие не только на сайт клиента, но и на некоторые чужие тематические сайты доноры ссылок - это явно фантастическая задача на брифинге. Тем более, когда клиент знает только один термин SEO и не знает толком, что в чистом виде SEO не всегда гарантирует выход в ТОП.

Впрочем, никакие ссылки и SEO методы не помогут подняться в ТОП, если у сайта есть технические проблемы с доступностью всех страниц или низкая скорость загрузки. Уже давно сеошники учитывают скорость загрузки сайтов конкурентов, чтобы обойти их в ТОП. Только в 2020 году Google конкретно заявил, что в 2021 году для ранжирования сайтов станут достаточно важными факторы Web Vitals: скорость загрузки, интерактивность и визуальная стабильность. Доступность и качество ресурса невозможны без мониторинга, когда у вас хостинг в надежном дата-центре с грамотной поддержкой, которая готова оперативно отреагировать в случае экстренной ситуации. Очевидно, ссылки tier 2 и 3 на сетях сателлитов для продвижения в Google теперь тоже придется размещать только на надежных хостингах с хорошей поддержкой.

Все же специфические термины полезны для смежных с SEO профессий, они помогают более четко работать команде по продвижению сайта (сеошник, программист, контент редактор, интернет маркетолог и тд). Когда составляется план комплексного продвижения сайта, вырабатывается стратегия все члены команды должны знать SEO термины, даже про серые методы, сателлиты, tier 2 и понимать их.

Tu deviens responsable pour toujours de ce que tu as apprivois. (из повести Маленький принц Антуана де Сент-Экзюпери, 1943 г.)

Подробнее..

Отказ от ссылок в 2021году

19.05.2021 10:20:52 | Автор: admin

Темаотказа от ссылоквсегда была предметом горячих споров, а эксперты по SEO расходились во мнениях относительно того, следует ли отклонять плохие ссылки и как это может повлиять нарейтинг сайтав Google.Хотя масштабы спорны, алгоритмы ранжирования все же влияют накачество ссылок, поэтому плохая ссылка может очень сильно повредить поисковый рейтинг.Со всеми изменениями и проблемами, приобретенными к 2021году, мы считаем целесообразным регулярно проверять ссылки на их актуальность и качество.Давайте подробнее рассмотрим, как и почему отклонять обратные ссылки - и как определить, нужно ли вам это делать вообще. А поможет вам в этоммассовая проверка ссылок.

Краткое введение в отмену

В прошлом Google оценивал страницы по качеству ссылок с помощью PageRank, но эта система быстро использовалась.Обновление алгоритма Penguin в 2012 году было направлено на то, чтобы препятствовать сайтам с обилием спам-ссылок.Эти сайты могли восстановиться только путем удаления этих плохих ссылок, и поэтомуродился инструмент Google Disavow.Позже в Penguin 4.0 произошло важное изменение: Google не будет столько наказывать низкокачественные ссылки, сколько обесценивать их, а это означает, что вам нужно отклонять ссылку только в том случае, если вы получили уведомление об этом, то есть ручное действие.

Перенесемся в сегодняшний день, иGoogle утверждает,что отказ от ссылокне сильно повлияетна рейтинг вашего сайта.Однако неофициальная позиция несколько более двусмысленна:Джон Мюллер изGoogleутверждает,что отречение может действительно принести пользу некоторым сайтам.В конце концов, в некоторых случаях отказ может помочь, но Google затрудняет использование необходимого инструмента, а если зайти слишком далеко, безусловно, можно получитьнеприятные последствия.

Что такое ручные действия

Вы можете узнать статус своего сайта, заглянув в Google Search Console в разделе Ручные действия.Это просто, когда Google дает вам знать, что он планирует исключить или наказать определенный контент более низкого качества из результатов поиска.Штрафные ссылки могут включать в себя что угодно, от наполнения ключевыми словами или скрытого текста, неестественных или неорганически полученных ссылок, автоматических ссылок, PBN, спама в комментариях и форумах, ссылок, вдохновленных влиятельными лицами / платных ссылок, подозрительных перенаправленийи т. д.

Отказ от отцовства - хорошая идея?

Как и в большинстве случаев, связанных с SEO, все зависит от обстоятельств.Насколько низкое качество ссылок и насколько они влияют на рейтинг?Хорошее эмпирическое правило - отрицать только тогда, когда у вас буквально нет другого выхода.Например, сначала обратитесь к владельцам некачественных ссылок, указывающих на ваш сайт, и попросите их удалить, используя отказ только в крайнем случае.В конечном счете, это расширенная функция, которую следует использовать с осторожностью, поскольку она может принести больше вреда, чем пользы.

Что делать, если я не принимаю меры вручную?

Прежде чем что-либо делать, вам потребуется всесторонний аудит ссылок, чтобы правильно понять, как работают ваши ссылки.Будьте уверены, Googleпроигнорируетвсе ссылки, за исключением тех, за которые ваша команда SEO несет прямую ответственность.При оценке качества ссылок ищите все, что нарушаетусловия Google, например платные ссылки, схемы ссылок и взаимные ссылки / обмен, подозрительные якорные тексты, статьи со ссылками на хитрые сайты,вредоносные программы и скрытые сайтыили "наркотики, покер и порно".

Если эти ссылки не приносят доход и не влияют на ваш обычный поисковый трафик, решение может быть таким же простым, как полное удаление страницы.

Советы по эффективному отклонению

  • Естественно, удалите все ссылки, которые вы получили вручную.

  • Сосредоточьтесь на создании ссылок, представляющих ценность для читателей, которые повысят авторитет и доверие к домену вашего сайта.

  • Если вы не слишком уверены в SEO, используйте инструмент мониторинга обратных ссылок или проконсультируйтесь с командой SEO для получениясовета экспертово том, какие именно ссылки следует отклонять в рамках обычногоаудита сайта.

  • Убедитесь, что вы получаете ссылки с авторитетных отраслевых сайтов.

  • Ссылки на домены с истекшим сроком действия или чрезмерно региональный контент могут пропускаться через обычные фильтры, поэтому следите за ними.

  • Как правило, наиболее вероятными виновниками являются ссылки с чрезмерно оптимизированным якорным текстом, ссылки, не относящиеся к отрасли, или ссылки, которые кажутся спамерскими, поэтому начните с них.

  • Не думайте, что удаление любой старой ссылки автоматически улучшит рейтинг - это может сделать прямо противоположное.

Лучшая стратегия

В целом, ваше внимание должно быть сосредоточено на поддержании максимально возможного качества исходящих ссылок и отказе от тех, которыеявно и значительно вредятвашим результатам обычного поиска - в противном случае действуйте осторожно.Внимательно следите за любыми входящими ссылками, которые могут навредить репутации вашего сайта.Даже скрупулезный аудит ссылок может пропустить несколько плохих ссылок, но этот относительно небольшой риск следует сопоставить с вашими общими приоритетами SEO, риском неправильного отрицания и вашеймаркетинговой стратегиейв целом.

Подробнее..

Склонение фраз по падежам

24.03.2021 00:15:52 | Автор: admin

В бытность мою сеошником, прости господи, часто нужно было приводить различные фразы к различным падежам. Т.к. сейчас уже я довольно далек от темы продвижения сайтов, а наработок осталось много, хочу поделиться некоторыми. В частности сегодня, отдаю в свободное пользование тему для склонения фраз по падежам. Склонять можно в единственном и множественном числе.

В отличие от некоторых популярных сервисов, фразы склоняются нормально. И правильно.

Например, офисное оборудование - довольно геморройная фраза, т.к. стандартными средствами она склоняется, как офисными оборудованиями. У меня склоняется вот так:

{"PREP":{"O":"об","S":"с","V":"в"},"SINGLE":{"ORIGINAL":"офисное оборудование","GENT":"офисного оборудования","DATV":"офисному оборудованию","ACCS":"офисное оборудование","ABLT":"офисным оборудованием","LOCT":"офисном оборудовании"},"PLURAL":{"ORIGINAL":"офисное оборудование","GENT":"офисного оборудования","DATV":"офисному оборудованию","ACCS":"офисное оборудование","ABLT":"офисным оборудованием","LOCT":"офисном оборудовании"}}

В prep приводится то, какой предлог должен стоять перед фразой. ОБ офисном оборудовании, например. СО свежей рыбой и т.д.

Далее идет склонение по падежам для единственного и множественного числа. Не всегда распознает четко, поэтому, если есть начальные данные по числу, лучше отправлять в единственном.

Есть еще небольшая приблуда для перевода числа в текст. Нужно для чеков, накладных и т.д. Выглядит примерно так:

{"DIGIT":{"ORIGINAL":"123456789.65","STRING":{"FULL":"сто двадцать три миллиона четыреста пятьдесят шесть тысяч семьсот восемьдесят девять рублей 65 копеек","SHORT":"сто двадцать три миллиона четыреста пятьдесят шесть тысяч семьсот восемьдесят девять"}}}

Как использовать

Для перевода числа в текст, нужно GET запросом обратиться к
http://cityninja.ru/morpher/digit/123456789.65/.

Для склонения фразы, нужно обратиться через GET к
http://cityninja.ru/morpher/солнечный день/

Раньше уже публиковал эту тему на Сёрче. Сейчас пользуются примерно по 1.6 - 2 млн запросов в месяц. Нагрузки это не генерирует вообще никакой.

Для чего можно пользовать? Например на страницах интернет-магазинов, где желательно использовать H1, H2, H3 заголовки, можно делать таким макаром...

H1 - Стиральная машина Blabla H24-57
H2 - Купить стиральную машину Blabla H24-57 в Екатеринбурге с доставкой
H3 - Интересуетесь стиральными машинами Blabla H24-57? Их есть у нас.

Т.к. Яндекс для магазов генерит около 70% трафика, при этом Яндекс раздупляет правильность склонений и т.д. Против роботов нужно работать роботам.

В общем, пользуйтесь. И да, это бесплатно и останется бесплатно.

Подробнее..

KeyClusterer 2.2 Бесплатная кластеризация поисковых запросов

27.04.2021 10:04:26 | Автор: admin

Всем привет! Представляю вашему вниманию новую версию программы KeyClusterer, предназначенной для группировки семантического ядра методами Hard и Soft.


KeyClusterer 2.2

В новой версии KeyClusterer 2.2 мы постарались максимально оптимизировать скорость импорта и кластеризации запросов, что на порядок ускорило работу в программе, в разы уменьшило расход оперативной памяти и позволило кластеризовать семантические ядра на 100 и более тысяч запросов за минимально короткое время. Также, нами были расширены возможности интерфейса программы для более удобных манипуляций ключевыми запросами. Расскажем обо всем подробнее.


Основные изменения


1. Оптимизирована скорость импорта и кластеризации запросов.


Скорость импорта запросов из CSV-файлов на некоторых проектах выросла до 20 раз. Даже для 100000 запросов импорт теперь занимает менее 3-х минут.


KeyClusterer, скорость импорта запросов

Скорость кластеризации также была качественно улучшена в среднем кластеризация 5000 запросов теперь занимает менее минуты, а семантические ядра на десятки тысяч запросов программа стала обрабатывать за вполне адекватное время, нежели это было в прошлой версии.


KeyClusterer, скорость кластеризации запросов

Скорость кластеризации зависит от числа пересечений URL. Для среднестатистического семантического ядра мы получили такие тестовые значения по скорости кластеризации запросов (данные приблизительные, исследования проводились на тестовых семядрах).


Для метода Soft (порог 4):


Число запросов Время кластеризации
5 000 00:00:02
10 000 00:00:04
50 000 00:00:33
100 000 00:02:24
200 000 00:09:53

Для метода Hard (порог 3):


Число запросов Время кластеризации
5 000 00:00:18
10 000 00:01:21
50 000 00:28:42
100 000 00:01:55
200 000 00:07:49

Примечание: если, к примеру, для текущего семядра было добавлено несколько ключевых запросов без собранных данных поисковой выдачи, то такие запросы автоматически попадут в группу [нераспределенные]. После сбора отсутствующих данных для этих запросов, они будут кластеризованы на общих основаниях.


2. Добавлено диалоговое окно импорта данных из CSV.


KeyClusterer, импорт данных из CSV

По вашим просьбам мы добавили форму для облегчения импорта проектов из CSV-файлов, в том числе из программы Key Collector.


Таким образом, после указания имени импортируемого файла программа KeyClusterer сама автоматически пытается определить наличие нужных полей в CSV-файле для импорта данных. При необходимости, можно вручную указать поля из которых будут взяты данные для импорта. Все остальные несопоставленные поля в импортируемом файле будут проигнорированы.


3. Добавлена возможность отмены последних действий при работе с семантическим ядром.


Как известно, автоматическая кластеризация позволяет сделать лишь 40-60% всей работы по группировке ключевых запросов. И зачастую ручная кластеризация занимает немалое время для качественной проработки и догруппировки семантического ядра.


KeyClusterer, отмена последних действий

Поэтому, для более удобной ручной работы с ключевыми словами мы добавили возможность отмены последних действий. Будь это перемещение запросов или кластеров, создание групп, переименование или удаление запросов все это теперь можно отменить и вернуться на тот или иной момент ручной кластеризации без необходимости начинать все сначала. История запоминает последние 100 действий.


4. Добавлена возможность вырезки и вставки групп и ключевых запросов.


Теперь, помимо переноса групп и запросов методом Drag & Drop, можно вырезать и вставлять запросы и группы при помощи контекстного меню и комбинаций клавиш Ctrl-X и Ctrl-V. Это является более удобным способом манипуляции группами и запросами на больших семантических ядрах.


KeyClusterer, вырезание и вставка групп и ключевых запросов

Также мы добавили возможность перемещения запросов и групп в пределах групп. Теперь можно поменять местами интересующие группы или запросы, расположить их в нужном порядке (через контекстное меню).


5. Добавлена возможность использования списка стоп-слов для манипуляции ключевыми запросами.


Было добавлено отдельное окно для хранения стоп-слов и манипуляций ими.


KeyClusterer, использование списка стоп-слов

При помощи данного функционала можно выделять ключевые слова в левой или правой панели по определенным правилам и проводить над ними дальнейшие действия: удаление, перемещение и т.п.


Параметры действий при поиске запросов:


  • Полное вхождение (ищем "я пил молоко", находим "молоко я пил вчера").
  • Частичное соответствие (ищем "ил моло", находим "я пил молоко").
  • Точное соответствие (ищем "я пил молоко", находим "я пил молоко").

Это бывает удобно, например, для удаления ключевых слов из семантического ядра по списку стоп-слов, либо для поиска ключевых фраз по вхождению определенного слова, которые затем можно переместить в ту или иную группу.


6. Добавлена подсветка найденных слов и частей слова при фильтрации данных.


KeyClusterer, подсветка найденных слов и частей слова

При фильтрации данных, найденные части слова из первого фильтра теперь выделяются желтым цветом, а из второго зеленым.


7. Добавлена возможность работы со списком прокси.


KeyClusterer, работы со списками прокси

Была добавлена поддержка работы программы через прокси с возможностью проверки списка прокси-серверов на работоспособность.


8. Оптимизирована работа с сайтами-исключениями в интерфейсе основных настроек программы.


KeyClusterer, работа с сайтами-исключениями

Список сайтов исключений теперь редактируется в отдельном окне основных настроек программы.


Прочие изменения


  • Добавлена возможность добавления запросов в текущее семантическое ядро проекта.
  • Добавлена возможность перемещения групп и фраз в любое место в списке.
  • Добавлено автоопределение кодировки импортируемых файлов.
  • Добавлена расширенная форма выбора региона Яндекс.
  • Добавлена возможность экспорта данных из левой панели.
  • При кластеризации запросы без собранных данных помещаются в папку [нераспределенные].
  • Размер шрифта теперь меняется только на панелях с запросами, а не во всем интерфейсе.
  • Добавлено оповещение о выходе новой версии программы.

KeyClusterer, главное окно программы

Пока на этом все.
Будем рады любым замечаниям и предложениям по доработкам и улучшению функционала программы.
Подробнее..

KeyClusterer 2.3 Многопоточность, интеграция с Key Collector

25.05.2021 16:13:10 | Автор: admin

Всем привет! В новой версии KeyClusterer нами была проведена работа над оптимизацией импорта данных, добавлена многопоточность с возможностью сбора данных в поисковой системе Google, добавлено отображение ТОП сайтов по видимости. Ниже детали о новой версии.


KeyClusterer 2.3

Основные изменения


1. Добавлен импорт данных из Key Collector 4.


В новой версии KeyClusterer добавлена возможность импорта данных из программы Key Collector 4-й версии.


KeyClusterer, импорт данных из Key Collector 4

Теперь можно производить импорт запросов, частотностей, позиций, посадочных и SERP напрямую из файлов формата *.kc4, без промежуточного экспорта данных в CSV или Excel.


Сам импорт происходит все также через специальную форму, в которой после сопоставления полей (по умолчанию поля сопоставляются автоматически) происходит непосредственный импорт данных.


2. Добавлена возможность сбора данных для кластеризации в поисковой системе Google.


В настройках сбора данных добавлен сервис SERPRiver (Googe), позволяющий собирать SERP в поисковой системе Google, на основе чего можно осуществлять кластеризацию запросов.


KeyClusterer, сбор данных в Google

В отличие от Яндекса, для которого указывается лишь регион выдачи, для Google необходимо указывать более подробное местоположение:


  • домен (google.com, google.ru, google.com.ua...)
  • язык (Russian, English, Ukrainian...)
  • страна (Russian Federation, United States, Ukraine...)
  • место ("Moscow,Russia", "New York,United States", "Kyiv city,Ukraine"...)

KeyClusterer, настройки поиска Google

Например, при указании в поисковой системе Google домена "google.com.ua", поисковик будет производить поиск только в украинском сегменте интернета, а при дополнительном указании региона "Kyiv city,Ukraine", будет получать данные с учетом указанного местоположения.


3. Добавлено отображение ТОП сайтов по видимости.


Данный функционал поможет выявить наиболее популярные сайты в вашей тематике (сайты в списке отсортированы по числу запросов, входящих в ТОП-10 по каждому сайту).


KeyClusterer, ТОП сайтов по видимости

Данные для анализа берутся из поисковой выдачи, собранной по каждому запросу, соответственно, для отображения статистики, данные SERP должны изначально присутствовать (должны быть собраны тем или иным способом).


4. В быстром фильтре добавлена возможность выбора параметров фильтрации.


Таким образом, фильтрацию данных теперь можно осуществить по трем различным параметрам:


  • По кластерам и фразам.
  • По кластерам.
  • По фразам.

KeyClusterer, быстрая фильтрация данных

Это позволит более гибко проводить манипуляции семантическими ядрами больших размеров.


Прочие изменения


  • Добавлен многопоточный сбор данных (до 10 потоков одновременно).
  • Восстановлена возможность импорта списка прокси из файла и буфера обмена.
  • Исправлено зависание программы, возникающее при сборе данных поисковой выдачи на большом числе запросов.

Будем рады любым замечаниям и предложениям по доработкам и улучшению функционала программы.
Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru