Русский
Русский
English
Статистика
Реклама

Seo-продвижение

SEO-оптимизация сайта на React или как добиться конверсии от поисковиков если у вас Single Page Application

30.11.2020 14:07:23 | Автор: admin
SEO-оптимизация сайта на React или как добиться конверсии от поисковиков если у вас Single Page ApplicationSEO-оптимизация сайта на React или как добиться конверсии от поисковиков если у вас Single Page Application

Смоделируем ситуацию: Вы являетесь членом команды веб-разработчиков, занимающихся созданием frontend-части молодого интернет-ресурса на базе React. И вот, когда уже начинает казаться что ваша разработка достигла определенной функциональной, качественной и эстетической кондиции, вы сталкиваетесь с достаточно сложным и не менее интересным вопросом: А что делать с SEO? Как добиться качественной конверсии от поисковых систем? Как сделать так, чтобы о вашем ресурсе узнал весь мир, не вкладывая в это огромного количества денег за платные рекламные компании либо сил в крупномасштабную дополнительную разработку? Как заставить контент вашего Single Page Application работать на вас в поисковых выдачах и приносить клиентов? Интересно? Тогда поехали

Привет! Меня зовут Антон и я являюсь full-stack-разработчиком со стажем работы более 12 лет. За время своей трудовой деятельности я работал над проектами различной сложности и с разнообразными стеками технологий. Последние 6 лет я сосредоточил scope своего внимания в большей мере на frontend, который стал в итоге профильным направлением, так как привлек у меня больший интерес по сравнению с backend-ом (не хочу при этом сказать, что backend в целом менее интересен. Просто дело вкуса и особенности развития карьеры исключительно в моём личном случае).

В данный момент я являюсь team-лидером команды разработчиков на проекте Своё.Жильё - это экосистема Россельхозбанка с помощью которой можно выбрать недвижимость, рассчитать стоимость кредита, подать заявку и получить ответ в режиме онлайн. Уже сейчас в экосистеме есть возможность оформить заявку на ипотечный кредит и выбрать недвижимость из более чем 1,2 млн вариантов жилья. Набор онлайн-сервисов позволяет сократить количество посещений офисов банка до одного непосредственно для подписания кредитного договора и проведения расчетов с продавцом.

Проект на момент написания данного материала является еще достаточно молодым, но уже начал приносить заметную конверсию в общую бизнес-модель банка.

Используемый стек и преследуемые цели

Не буду заострять внимание на полном стеке frontend технологий, используемых экосистеме Своё Жилье, а опишу лишь то, что действительно важно для дальнейшего рассказа, чтобы стало понятно, с чем в результате мы имеем дело. А именно:

  • Webpack

  • React

  • Redux

Из вышеперечисленного сразу становится ясно, что на выходе мы получаем Single Page Application на React, что влечет за собой как безграничное количество возможностей и плюсов данного стека, так и ряд подводных камней, связанных с реализацией SEO-friendly ресурса, который сможет в конечном счёте выполнить ряд задач, важных для продвижения в поисковых системах, социальных сетях и так далее:

  • Поисковой робот должен видеть все ссылки на страницы сайта;

  • Контент каждой из страниц должен быть доступен для индексирования поисковым роботом, дабы попасть в итоге в выдачи результатов поиска;

  • Контент страниц для корректной индексации должен содержать все необходимые элементы, важные для создания SEO-оптимизированного сайта.

В данном списке я не затрагиваю задачи, которые необходимо решать на стороне backend (такие как поддержка last-modified, оптимизация скоростных показателей и т.п.), чтобы искусственно не раздувать общий материал и не отвлекаться от основной темы.

Казалось бы, перечень задач не так велик и решался бы практически из коробки на любом обычном относительно стандартном интернет ресурсе Но тут нужно вернуться к тому, что мы имеем дело не с привычным веб-сайтом, у которого все страницы с их контентом отдаются с backend-а, а с Single Page Application, у которого контент страничек рендерится (отрисовывается средствами js) на стороне браузера. А ведь львиная доля поисковых роботов не умеет выполнять js-код при обходе интернет-ресурсов, и поэтому они попросту не увидят наш контент (Google умеет, но делает это пока недостаточно корректно и эффективно. Да и кроме Google, есть еще множество других целевых поисковых систем и кейсов, при которых голый SPA не сможет решить поставленные задачи).

Поэтому давайте нальём тёплого чайку и поэтапно пройдемся по целям и тому, что в них должно включаться для понимания и подбора оптимальных решений поставленных задач.

Для того, чтобы поисковые роботы увидели страницы сайта, им необходимо иметь возможность прочесть контент страницы, в том числе содержащий ссылки на другие страницы (при этом подход с sitemap я тут описывать не буду, но упомянул, на случай если кому-то станет интересно, можете погуглить. Мы пока обходимся без карт). Из этого вытекает, что поисковой робот всё же должен по старинке загрузить html-разметку, содержащую контент страницы с web-сервера. Ну и конечно же, каждая из страниц, запрашиваемых с web-сервера, должна отдавать код 200 (случаи с необходимостью переадресаций с кодом 301 я тут также рассматривать не буду) и приходить в виде стандартного html-документа, содержащего текстовый и медиа-контент данной страницы, а так же ссылки на другие страницы и, конечно же, необходимые для SEO-оптимизации элементы, такие как ряд обязательных meta-тегов, заголовков и так далее. Общий список необходимого SEO-тюнинга любого веб-ресурса достаточно велик и про него можно написать отдельный материал и не один. Затронем тут обязательный план минимум, который включит в себя следующие пункты:

1 - Каждая из страниц ресурса должна в блоке <head> включать в себя:

  • Meta-тег title (заголовок страницы)

  • Meta-тег description (описание страницы)

  • Meta-тег keywords (перечень ключевых фраз)

2 - Каждая страница должна иметь в блоке <body> основной заголовок внутри html-элемента <h1> расположенный как можно выше перед началом текстового контента.

3 - Каждое изображение, которое присутствует на странице в виде html-элемента <img>, должно иметь атрибут alt, описывающий содержимое данного изображения.

Ну и конечно же, на сайте не должно быть битых ссылок отдающих с web-сервера код ошибки 404 (либо иной) или какой-либо пустой контент вместо ожидаемого.

И тут снова вспоминаем, что у нас SPA (Single Page Application) и с backend-а приходит лишь пустая часть разметки html-документа, включающая в себя информацию для загрузки js и css кода, который после загрузки и выполнения отрисует нам контент запрошенной страницы.

Вот тут мы и начнем наши танцы с бубном. Перед началом хочется отдельно отметить, что на момент моего прихода в проект, он уже был частично написан с минимальным функционалом. И конечно хотелось реализовать SEO-оптимизацию с минимальным затрагиванием общей архитектуры приложения.

Подбор решения и реализация

Что же делать, если у Вас уже есть готовый SPA, либо просто отточенный архитектурный подход, нарушать который ради SEO было бы кощунством?

Ответ: Реализация пререндеринга, как конечного шага сборки приложения. Пререндеринг это процесс выполнения js-кода после его основной сборки и сохранение получившихся html-копий отрисованных страниц, которые в последствии и будут отдаваться с web-сервера при соответствующих запросах.

Пререндеринг

Для реализации данного кейса есть ряд готовых решений и инструментов с различными ограничениями, подходящих для разных стеков frontend-технологий и с разным уровнем сложности внедрения.

Конечно есть такие решения как Next.Js и ему подобные (а также другие способы реализации того же SSR). И я не могу не упомянуть об этом. Но изучив их, я пришел к выводу, что они вносят ряд ограничений (либо усложнений) в процесс конфигурации основной сборки и имеют крайне заметное влияние на архитектуру приложения. Также, есть сторонние внешние сервисы пререндеринга, но для закрытой экосистемы банка лишний внешний инструмент был бы крайне нежелателен (и опять же, зачем перекладывать зону ответственности на внешний инструмент, если можно реализовать его функционал внутри проекта).

После анализа, я пришел к максимально подходящему нам инструменту для покрытия описанных кейсов, реализующему проход по страницам SPA на React (и не только) и создание html-копий страниц.

Выбор пал на React-Snap.

Если в двух словах, то данный инструмент позволяет после сборки осуществить запуск Chromium-а и передать ему получившееся приложение. Затем пройти по всем его страницам, используя пул найденных ссылок так, как сделал бы это поисковой робот. При этом html-копии отрисованных средствами js страниц будут сохранены в выбранный каталог с сохранением иерархии путей, из которых они были получены относительно корня проекта.

Важной отличительной чертой данного подхода и инструмента является то, что для реализации его работы не важна специфика архитектуры самого приложения, так как он абсолютно стандартным образом будет запускать Ваш заранее собранный SPA в практически обыкновенном браузере.

Установка React-Snap не вызывает никаких дополнительных вопросов, так как его пакет доступен для скачивания стандартным образом из npm (и yarn).

Что же касается его настройки, тут, пожалуй, стоит проговорить несколько основных моментов, чтобы упростить быстрый старт тем, кто ранее не сталкивался с данным инструментом.

Конфигурация запуска React-Snap описывается в корневом файле package.json проекта. Давайте рассмотрим пример минимальной конфигурации:

"scripts": {    // Необходимые команды запуска hot-а, сборки и т.п.    "build:production": "webpack --mode production && react-snap"    // Другие необходимые команды},"reactSnap": {    "source": "dist", // Каталог собранного приложения    "destination": "dist", // Каталог для сохранения html-копий    "include": [ // Список энтрипоинтов для обхода страниц        "/",        "/404",        "/500"        // Другие необходимые энрипоинты    ]}

На самом деле, полный перечень доступных настроек достаточно широк, но лучше не стану его расписывать, чтобы вы смогли осознанно выбрать только необходимое конкретно в вашем случае.

К примеру, запуск React-Snap можно осуществить, просто добавив в блок scripts команду:

"postbuild": "react-snap"

Но тогда он будет запускаться после каждого билда, а в проекте их может быть несколько вариантов (например, для production и тестового стенда, где на последнем нам наоборот, может быть не нужен SEO и какой-либо еще функционал, такой как инструменты аналитики типа Google Analytics и т.п.).

Что касается блока include, его желательно описать, иначе, например, html-копия для странички ошибки (500, либо другая техническая страница, при наличии) не будет создана, так как не на одной из страниц сайта не фигурирует ни одной ссылки на нее. Как следствие, React-Snap не узнает о её наличии. В теории и поисковик на них ходить не должен, но бывают случаи, когда страница создается для распространения ссылки за пределами сайта, а на сайте на нее ссылки может и не быть (к примеру, баннеры для рекламных компаний и тому подобное). Это как раз тот самый случай. Тут стоит проанализировать, нет ли у вас еще каких-то (возможно аналогичных технических) страничек, на которые прямые ссылки на сайте отсутствуют.

Далее, для нормальной работы самого React-приложения у конечного пользователя, поверх DOM который придёт с web-сервера, нам потребуется внести небольшую правку в корневой render:

import { hydrate, render } from "react-dom";//  Ваш кодconst rootElement = document.getElementById("root"); // (или ваш id при олтличии)if (rootElement.hasChildNodes()) { // Если в корневом элементе есть контент, то  hydrate(<App />, rootElement); // "цепляем" приложение на существующий DOM.} else { // Иначе рендерим приложение стандартным образом  render(<App />, rootElement);}

Вот и всё что нам потребуется для начала (а возможно в ряде случаев и в принципе всё что необходимо будет сделать). Уже можно попробовать выполнить build с созданием html-копий страниц вашего ресурса. На выходе (с приведенным выше конфигом) в каталоге /dist вы получите тот же набор js и css файлов (а также других ресурсов), что и ранее, index.html, плюс файл 200.html и другие html-файлы с копиями контента ваших страниц.

Для полноты картины сразу опишу небольшой подводный камень с пояснением, для понимания, что при таком подходе на реальном production-web-сервере вам нужно будет позаботиться о следующем нюансе

Ранее у вас скорее всего по умолчанию на любой запрос, если ресурс отсутствует физически на сервере, отдавалась index.html, которая запускала приложение. Далее, в соответствии с запросом из адресной строки, приложение отрисовывало необходимую страницу, либо страницу 404, если не находило соответствие. Теперь же, наш index.html уже не является пустым, а содержит контент главной страницы. Но страничка с пустой html-разметкой для случая попытки запуска страницы без html-копии всё же существует. Это та самая вышеупомянутая 200.html. Таким образом, на web-сервере необходимо перенастроить дефолтный ресурс для случая 404 с index.html на 200.html, чтобы избежать открытия кривых страниц (с контентом главной страницы поверх которого будет пытаться запуститься наш SPA) при обращении на страницы, html-копий для которых нет, либо просто при некорректном обращении на несуществующую страницу.

И вот у нас есть готовое приложение, страницы которого доступны для любого поисковика.

Meta-теги, заголовки, описания

Если с вышеописанным разобрались, то перейдем к реализации следующей части нашей задачи, а именно к необходимым meta-тегам и другим SEO-нюансам на страницах.

<!doctype html><html lang="ru">  <head>    <meta charset="utf-8">    <!-- ...и т.д. -->    <title>Контент meta-тега Title</title>    <meta name="description" content="Контент meta-тега Description">    <meta name="keywords" content="ключевые фразы для meta-тега keywords">  </head>  <body>    <div id="root">      <div className="content">        <h1>Заголовок страницы H1</h1>        <p>Текстовый контент страницы...</p>        <img alt="Описание изображения" src="...">        <!-- ...и т.д. -->      </div>    </div>    <script src="http://personeltest.ru/aways/habr.com/application.js"></script>  </body></html>

На заголовки <h1> и alt-ы для картинок особое внимание заострять не буду. Тут всё просто: идем по существующему js-коду react-компонентов страниц и добавляем там, где этого нет (а также не забываем это делать в дальнейшем для новых компонентов). А вот относительно meta-тегов title, description и keywords стоит немного поговорить отдельно. Они должны быть уникальными для каждой страницы. О том, зачем нужен каждый из них и как его стоит формировать, будет полезнее почитать более профильные материалы по SEO. Для нас же стоит более прагматичная задача реализовать средствами js изменение контента данных тегов при навигации между страницами (таким образом у каждой html-копии страницы они будут разными как и положено, а при дальнейшей навигации по приложению после его запуска, они так же будут меняться в зависимости от текущей странички, но уже силами js приложения).

В целом, для реализации данного функционала есть готовый инструмент:

React-Helmet

Можно использовать его, либо на его основе написать что-то своё. Суть дела не изменится. Предлагаю просто перейти по ссылке и изучить то, что делает данный React-компонент и воспроизвести у себя необходимый функционал с его помощью либо написав собственное решение.

В итоге мы добавили необходимые для эффективного SEO элементы на страницы нашего интернет-ресурса.

Подводные камни, нюансы реализации и советы

Хочу в первую очередь затронуть один нюанс, знать о котором будет полезно при дальнейшей разработке. Как правило, при создании html-копий рано или поздно появятся кейсы, при которых поведение приложения для пререндера должно будет отличаться от поведения приложения в браузере у реального пользователя. Это может касаться случаев, начиная от наличия каких-либо прелоадеров, которые не нужны в html-копиях или статистического функционала, который не должен выполняться на этапе создания html-копий (и возможно даже будет вызывать ошибки при их создании) заканчивая банальным объявлением адреса для API backend-а, который вероятно настроен у вас для hot в разделе devServer webpack-конфига как proxy, а в самом приложении указан как относительный, что не заработает, так как во время работы пререндера hot не запущен и нужно ходить на реальный адрес backend-а. Как вариант, могу также привести пример в виде распространенного окошка, которое сейчас есть практически на любом интернет-ресурсе, говорящее о том, что на сайте используются Cookies. Как правило, окошко отображается на любой страничке, пока пользователь в какой-то момент один раз не закроет его. Но вот беда: пререндер то не знает, что что-то нужно закрыть, а соответственно контент данного окошка будет присутствовать на всех html-копиях, что плохо для SEO.

Но не всё так страшно и решение есть. В таких местах в приложении мы можем использовать условие для запуска тех или иных функций (или использования тех или иных переменных, как в примере с адресом API). Дело в том, что у пререндера есть специфическое имя user-agent-а ReactSnap (кстати через параметры можно задать своё при необходимости). К примеру:

const isPrerender = navigator.userAgent === "ReactSnap";

Как и где это можно объявить и использовать, думаю, не нуждается в дальнейшем объяснении. Полагаю, как минимум пара мест, где это пригодится, найдётся в любом проекте.

Также стоит затронуть случай, с которым с большой долей вероятности вам придется столкнуться. А именно: React-Snap обошел не все страницы, либо, нам стало необходимо, чтобы он не заходил в какие-либо разделы или на определенные страницы и не создавал для них html-копии.

Тут сразу стоит внести понимание в процесс работы пререндера React-Snap. Он запускает наше приложение и осуществляет обход по ссылкам, найденным на страницах. При этом учитываются именно html-элементы <a>. Если пререндер не сохранил html-копию для какой-либо страницы (либо мы намеренно хотим этого добиться), то скорее всего переход на эту страницу сделан (либо вы намеренно можете так сделать) с использованием, к примеру, onClick а не через обязательный атрибут ссылки - href. Тут нужно упомянуть, что стандартные компоненты Link либо NavLink из react-router-dom фактически создают в DOM именно html-элемент <a> с href, так что если не отбиваться от классических подходов, то проблем не будет.

Следующим полезным знанием будет то, что нам обязательно необходимо позаботиться о минификации размеров DOM, который будет содержаться в наших html-копиях, так как большой html-документ будет дольше загружаться с backend-а, съедать больше трафика, да и поисковые роботы могут попросту не добраться до необходимого контента, если, к примеру, у вас в <head> документа все стили заинлайнины, как и все svg-изображения в <body>, что раздует каждую из html-копий до огромных размеров. Для понимания: если логотип вашего ресурса рендерится как inline-svg, то в файле каждой html-копии он будет присутствовать именно в таком виде.

Выход: настроить webpack таким образом, чтобы при сборке все стили складывались в css-файлы, а inline-svg заменить на использование <img> (либо средствами css) для отображения картинок (и то и другое будет загружаться один раз, а далее браться из кеша браузера и, что главное, задублированный контент таких ресурсов будет отсутствовать в html-копиях).

Еще один небольшой совет: общее количество и список всех созданных html-копий страниц, либо ошибок создания и различные вызванные редиректы (к примеру 404), а также прочие проблемные места мы сможем сразу увидеть и проанализировать благодаря достаточно понятному и подробному логу, который будет выводиться в процессе работы пререндера React-Snap. Не стоит забывать смотреть в него после сборки, так как на этом этапе мы всегда сможем увидеть те же проблемы на сайте, что увидит поисковой робот, но при этом у нас будет возможность заблаговременно что-то поправить при необходимости.

Заключение

Пожалуй, вышеописанного будет достаточно, чтобы начать и относительно быстро реализовать SEO-friendly сайт, написанный в виде Single Page Application. Далее всё будет зависеть лишь от особенностей конкретно вашего интернет-ресурса и тех целей, которые вы будете преследовать при его создании. Я постарался описать основные нюансы и подводные камни, с которыми пришлось столкнуться в процессе аналогичной разработки.

Основные плюсы данного подхода заключаются в том, что мы получаем инструментарий, который не требует архитектурных доработок приложения, дополнительного обучения программистов в команде и высоких трудозатрат на реализацию. После внедрения технологии, вы просто продолжаете разрабатывать ваше приложение по всем традициям React и придерживаясь ранее реализованной архитектуры. При этом ваше приложение уже не будет являться обычным SPA в привычном смысле, так как старт любой страницы будет сопровождаться загрузкой копии содержимого данной страницы, а дальнейшая навигация по приложению будет осуществляться уже привычным образом средствами SPA, что позволит поисковым роботам полноценно взаимодействовать с вашим контентом и выводить в результатах поиска актуальные ссылки с соответствующими описаниями страниц, а конечным пользователям как и ранее будет доступен весь спектр функционала Single Page Application.

Ну вот мы и добрались до финала. Сейчас вам удалось познакомиться с реально работающим на продакшн-версии проекта Своё.Жильё от Россельхозбанка подходом по реализации SEO-friendly интернет-ресурса на примере React-приложения и рассмотреть основные тезисы и подводные камни процесса создания SEO-эффективного сайта на основе SPA. Надеюсь, что полученные в данном материале знания будут полезны и найдут применение. Спасибо за уделённое на прочтение время.

Подробнее..

Recovery mode Как заказать услуги по SEO и не потерять

16.06.2021 14:10:53 | Автор: admin
Иван Бабайлов

Сооснователь в ADWAI Digital

Всем привет! Меня зовут Иван Бабайлов и в этом материале я расскажу о том, как правильно заказывать SEO-услуги, на что обращать внимание при подборе подрядчика. Расскажу о хитростях, которые используют SEO-специалисты и агентства при презентации своего портфолио.


Вы можете посмотреть видеоверсию статьи или прочитать ее в текстовом формате.

Первое правило подбора подрядчика по SEO: Общая адекватность подрядчика

Для многих этот пункт может показаться банальным, но я хочу заострить на нем внимание и по этой же причине вынес его на первое место по важности.

Адекватность и совместимость это первое с чего стоит начинать анализ вашего потенциального подрядчика по SEO-продвижению. Поймите, вам с этим человеком или с этой командой работать, как минимум, 6, а то и 10 месяцев (столько длится минимальный SEO-проект), а может быть и больше. Например, у нас в компании стратегия по SEO прописана на 5 лет вперед и под это направление сформирована отдельная команда.

И в течение всего этого времени вам вместе нужно будет много коммуницировать, обсуждать стратегию, менять подходы и находить компромиссы. Изначально, еще на этапе переговоров вы должны понять: приятно ли вам работать с этим подрядчиком? Вызывает ли он у вас доверие? Уважаете ли вы его как эксперта? Как он ведет себя в стрессовых ситуациях? Срывается и теряет контроль? Или наоборот рассматривает проблему с холодной головой и быстро предлагает решение?

Например, когда к нам в агентство ADWAI обращаются заказчики за услугами SEO-продвижения, у нас стоит жесткий фильтр и мы сильно фильтруем количество и качество клиентов, с которыми работаем. Да, где-то мы проигрываем по деньгам, но в долгосрочной перспективе мы выигрываем, т.к. бережем кучу нервов и энергии, которую потратили бы на неадекватных клиентов, которые, как вы знаете, периодически всплывают в любой компании.

По нашему регламенту и чек-листам мы задаем клиентам определенный набор вопросов и если понимаем, что это не наш клиент, то либо передаем его нашим коллегам в других агентствах, либо же предлагаем какие-то другие варианты решения ситуации, но уже без нашей вовлеченности. Мы легко откажемся от миллионного контракта, если поймем, что этот конкретный клиент съесть кучу нашего времени, энергии, нервов и по итогу мы не сможем ему сделать результат, т.к. он сольется на половине пути.

Подобный фильтр я рекомендую установить и вам при подборе исполнителя под SEO-задачи. Это очень ответственная задача и поручать ее абы кому я бы не стал.

Кстати, мы с командой записали очень мощный вебинар о том, как масштабировать бизнес с помощью инструментов маркетинга и аналитики. В этом вебинаре мы собрали весь свой опыт и наработки по таким проектам, как: Бизнес Молодость, Яндекс Такси и т.д. Будет полезно.

Второе правило подбора подрядчика по SEO: Использует ли этот подрядчик инструмент SEO-продвижения для себя?

Я знаю про выражение Сапожник без сапог и знаю что такое бывает, но, согласитесь, если вы ищите серьезного подрядчика под свои задачи, которому сможете поручить такую масштабную задачу, как SEO-продвижение, то вы должны быть уверены, что этот человек или команда смогут выстроить все необходимые процессы для вашего бизнеса. Но назревает логичный вопрос: как они смогут выстроить процессы для вашей компании по SEO-продвижению, если даже в своей организации эти процессы отладить не могут?

Это как нанимать компанию, которая занимается построением отделов продаж и не имеет своего отдела продаж. Вы, конечно, можете начать работу с такой компанией, но, очевидно, что это будет не самый квалифицированный подрядчик на рынке построения отделов продаж.

Решать, безусловно, вам, но я бы рекомендовал крайне внимательно подходить к подбору подрядчика по SEO. Опять же потому, что это направление, которое вы будете делегировать минимум на полгода-год, а то и больше. И вы обязаны быть на 100% уверены в своем выборе.

Что я бы сделал: проанализировал бы всех подрядчиков, с кем мне потенциально было бы интересно начать сотрудничество и отсек бы тех, кто не подходит под мои начальные критерии: например, страницы их сайта не оптимизированы по SEO, у них не прописаны теги H1, H2, H3, не установлены alt-теги на изображениях и не добавлены ключевые слова к каждой странице. Если бы я наткнулся на подрядчика с такими ошибками на его собственном сайте, то я сразу бы перестал рассматривать этого кандидата в качестве потенциального подрядчика.

В общем здесь все просто: если потенциальный подрядчик не справляется со своим SEO, то с большой долей вероятности не справится и с продвижением вашей компании.

Этот пункт плавно вытекает из предыдущего. При подборе любого подрядчика по маркетингу один из первых пунктов, на который стоит обращать внимание это отзывы и портфолио. Причем портфолио здесь первичнее, т.к. накрутить отзывы достаточно просто, но вот подделать портфолио уже труднее и редко кто на это решается.

Поэтому при выборе маркетологов обязательно изучайте портфолио и все предыдущие проекты, которые были ими реализованы. Смотрите на то, что они делали, как они это делали, на сколько глубоко погружались в проект и каких результатов добились.

Тут важны все нюансы. Даже степень проработки кейсов в портфолио может о многом говорить. Так, например, если компания достаточно сухо описывает работы из своего портфолио, то, потенциально, она может что-то скрывать. Это не всегда так, но часто именно такое и случается. Ведь, спрашивается, если по проекту все было отлично, то почему бы не рассказать о нем чуть подробнее, чем на 3 предложения?

Еще, очень часто, маркетологи, при описании результатов работы, используют такие хитрости, как рост в процентном соотношении. Давайте разберемся что это означает. Мы, при анализе конкурентов, очень часто видели такую ситуацию, когда другие агентства использовали в своем портфолио формулировки вроде: Рост SEO-трафика на 300% и тому подобные. На первый взгляд кажется, что ого, рост в 3 раза. Отличный результат, но при этом всегда оставался какой-то осадок, некоторые сомнения и мы потом поняли в чем тут дело. Рост в 3 раза от начальных показателей это хорошо, но маркетологи очень редко называют в таких кейсах точку А, то есть точку откуда они стартовали и всегда давят на 300-процентный или какой-то аналогичный рост в процентах.

В чем же проблема? Рост в 3 раза от 100 посетителей сайта с SEO это не тоже самое, что рост в 3 раза от 100 тысяч посетителей сайта с SEO. Это совершенно разный объем трудозатрат, это совершенно другой объем инвестиций в маркетинг и другой масштаб результата. Понимаете? А маркетологи выставляют свои результаты так, как будто это одно и тоже. Поэтому будьте крайне внимательны и обращайте внимание на все нюансы. Так как, как мы все знаем: дьявол кроется в деталях.


На этом все.

Если у вас есть какие-то вопросы или предложения напишите об этом в комментариях. Я стараюсь, по возможности, отвечать на каждое сообщение.

Подробнее..

Зачем делать анализ сайтов конкурентов при подготовке к SEO-кампании? Пример из практики

07.09.2020 14:15:25 | Автор: admin


Прежде чем предлагать новому клиенту варианты проведения SEO-кампании, мы провели бесплатный предварительный анализ сайтов конкурентов и сделали обзор поискового спроса. Уже на этом этапе нам удалось удивить клиента. Читайте в нашей статье пример анализа конкурентов.

Предыстория


Летом 2019 года к нам поступил запрос от производителя игрового оборудования на оптимизацию B2B-сайта. На сайте не проводилось никаких работ по SEO, сам сайт появился всего 3 месяцами ранее. Как пояснил руководитель отдела продаж, их аудитория в основном владельцы уже работающего или развивающегося бизнеса.

Клиент вышел на рынок в 2014 году и за сравнительно небольшое время его продукты попали в топ-10 различных обзоров. Причина этого, по словам клиента, в том, что мы никогда не экономили на качестве, на материалах и электронике. Все наши конкуренты лучше нас только в рекламе и продвижении.

Запрос клиента


Цель продвижения сайта, которая была обозначена в предварительном опроснике:

  • повышение позиций в поисковых системах, достижение вершин топа;
  • увеличение продаж товаров и услуг в Европе и Америке.

Прежде чем предлагать какие-либо варианты сотрудничества, мы провели бесплатный предварительный анализ сайтов конкурентов и сделали обзор поискового спроса. Уже на этом этапе выяснилось, что конкуренты, которых клиент считал таковыми, на самом деле слабо оптимизированные сайты, которые фактически не собирают посетителей из поиска. Кто же тогда конкуренты?


Предварительный анализ конкурентов основа для принятия решений


У сайта клиента была проиндексирована 781 страница в Google, из них 356 относились к англоязычной версии. Это хороший показатель для старта.

Однако было очевидно, что страницы не оптимизированы: в Google не были определены запросы для всех этих страниц, позиций по каким-либо запросам почти не было.

Мы решили сравнить эти данные с данными других сайтов.


Анализ конкурента: сайт 1


Вот показатели сайта [САЙТ1].COM, который привели в качестве конкурента:

  1. Собирал основной трафик не сам сайт, а его поддомен en.[сайт1].com.
  2. Проиндексировано в Google 176 страниц.
  3. Посещаемость около 6000 за месяц.
  4. По странам: Франция (более 90%), Великобритания, Украина.
  5. Поисковой трафик составлял всего около 3%.
  6. В поисковой выдаче было всего около 80 запросов.
  7. Основной поток шел через соцсети, а точнее через Facebook.

Этот сайт сложно назвать реальным конкурентом в поисковой системе. По сути, он не был оптимизирован и не собирал поисковой трафик.


Анализ конкурента: сайт 2


Про сайт [САЙТ2].COM можно было сказать, что он подготовлен лучше:

  1. Проиндексировано 120 страниц.
  2. Присутствовало уже около 400 запросов (в поиске Google для США).
  3. Посещаемость около 5000 за месяц.
  4. Поисковой трафик составил около 70% от общего трафика.

Хотя проиндексированных страниц у [Сайт2].com было меньше, чем у [Сайт1].com и у клиента, его страницы лучше описывали предложение и были более релевантны реальным запросам пользователей.

Поисковой трафик из США на этот сайт давал всего около 10% посещаемости (т.е. около 350 человек за один месяц). Из Европы на сайт шли из Швейцарии (больше всего), Италии, Испании, Болгарии, Польши. Однако качество трафика вызывало сомнения, его нужно было изучать подробнее. Из Италии и Испании трафик давали тематические сайты, что говорило о возможной работе команды проекта со внешней ссылочной массой (размещение статей, ссылок и т.п.).

Что касается конкретных запросов в топе, то у этого сайта трафик привлекали такие запросы, как:

  • [key1] manufacturers
  • [key2] experts
  • + запросы с наименованиями: [brand1]+key, [brand2]+key и т.д.

Это был немного другой набор слов по сравнению с названными клиентом [key1] franchise, [key2] supplier и т.д.

Исходя из описанного, несмотря на некоторые достижения, стратегия [САЙТ2].COM тоже была не оптимальной: он собирал трафик по неполному пулу тематических запросов, посетители шли всего из нескольких стран Европы, при этом были сомнения в качестве трафика.


Анализ конкурента: сайт 3


Для сравнения мы также проанализировали проект этой тематики из другого региона [САЙТ3].RU. Клиент не приводил его в качестве конкурента, однако он мог быть потенциальным примером для подражания.

У этого сайта была абсолютно другая стратегия продвижения по сравнению с вышеописанными двумя ресурсами. При этом проект работал только с российскими регионами и рядом стран СНГ, основной трафик у проекта был российский, поэтому в качестве конкурента в нашем случае он не рассматривается.

  1. На сайте 41000 (!) проиндексированных страниц.
  2. Есть отдельные версии сайта на локальных поддоменах:
  3. Кроме того, для каждого региона (города) созданы сайты на поддоменах вида [город1].[сайт3], [город2].[сайт3] и т.п. Всего таких сайтов на поддоменах было несколько десятков, и очевидно, что это не все возможные варианты: проект продолжал развиваться.
  4. Оценочный трафик до 6000 человек на каждый поддомен.
  5. Поисковой трафик около 55%.

При этом на каждом поддомене были тематические страницы вида [город1].[сайт3].ru/buy-product, [город2].[сайт3].ru/buy-product и и т.д.
То есть, у этого проекта по каждому запросу типа buy+[key1] есть несколько десятков региональных страниц.


Какие выводы можно сделать из этой информации?


В брифе клиент указал регион, в котором требуется продвижение: Европа и США. Это очень большой регион, особенно если брать во внимание подход [САЙТ3] и возможный спрос в каждой стране и каждом городе.

Исходя из предварительного анализа конкурентов, можно было сделать вывод, что англоязычный спрос для Европы может быть сильно зависим регионально, при этом такая же региональная зависимость возможна для отдельных штатов и городов США.

Например, только в регионе Нью-Йорк с радиусом 30 километров проживает около 20 миллионов человек, что косвенно говорит о возможном уровне конкуренции и ориентации поисковой системы на представление именно региональных результатов поиска в первую очередь.

Соответственно, создание или оптимизация универсальных страниц на сайте с прицелом сразу на весь мир может не дать ожидаемого эффекта. В принципе, это и происходило у [САЙТ2].com.

Нужно было либо сузить выбор регионов, либо разработать оптимальную SEO-стратегию по генерации контента для каждого региона.


Что мы предложили клиенту по итогам предварительного анализа конкурентов?


Для начала мы предложили провести следующие работы по сайту:

  1. Проанализировать реальный поисковой спрос, составить или уточнить семантическое ядро сайта и оценить возможности текущих страниц.
  2. Оценить реальную конкуренцию в поиске: сделать обзор поисковой выдачи по семантическому ядру, выявить конкурентов и оценить показатели их сайтов, сравнить силы конкуренции для основных страниц, оценить релевантность страниц и выяснить, за счет чего они находятся в топе.
  3. Разработать стратегию продвижения исходя из полученных данных.

Параллельно с этим мы рекомендовали сделать технический аудит сайта и поработать над исправлением возможных ошибок. Мы также подготовили рекомендации по доработке текущих страниц, чтобы они могли всплывать по части запросов уже в ближайшее время, до реализации измененной стратегии. По нашему опыту, техническая оптимизация сайта всегда дает прирост трафика из поиска, пусть и небольшой.

Таким образом, предварительный анализ конкурентов позволил нам увидеть картину в целом, наметить возможные стратегические решения для клиента и оценить их потенциальную эффективность. Превращать эти рекомендации в жизнь или нет всегда остается на усмотрение клиента. В случае с клиентом, о котором мы рассказали в кейсе, мы идём к цели медленно, но верно.


Дмитрий Разахацкий,
ведущий SEO-специалист компании Alconost



Агентство интернет-маркетинга Alconost Ads занимается поисковым продвижением многоязычных сайтов, проводит полный SEO-аудит, базовую оптимизацию, улучшает юзабилити, разрабатывает стратегию международного продвижения, анализирует статистику и многое другое для улучшения ваших позиций в поисковых системах.
Подробнее..

Кейс по SEO анализируем поисковый спрос и корректируем стратегию продвижения

26.11.2020 14:19:49 | Автор: admin

В 2019 году мы получили от потенциального клиента запрос на продвижение англоязычного сайта по теме soaking tubs (это такие глубокие ванны для полного погружения в воду). Мы изучили клиентский интернет-магазин, а затем решили сделать анализ поискового спроса для одного из запросов и выяснить, соответствуют ли ему страницы сайта. Как оказалось, ситуация даже по одному запросу не совсем такая, как ожидал клиент.

Рассказываем, какие результаты дал анализ поискового спроса и что мы предложили клиенту для продвижения англоязычного сайта в органических результатах Google.


Общий поисковый спрос для всех регионов США


Для начала мы сделали общий анализ поискового спроса для всех регионов США.

Запрос: japanese soaking tubs
Частотность для США: 12100

1. Всего хвостов: 707

2. Общая частотность: 35 000
Запросов с частотностью >0: 204
Запросов с частотностью 0 (возникали разово): 503

3. Запросов с продающими добавками (sale, buy, price, etc.): 25
Их общая частотность: ~500

4. Основных категорийных запросов: 2 (japanese soaking tub / japanese soaking tubs)
Их частотность: 24200

5. Оценочное количество хвостов / подкатегорий: 30+


Из полученных данных мы сделали 2 основных вывода:


  1. Пользователи осведомлены о продукте: на это указывает достаточно высокая частотность основных запросов.
  2. Примерно треть пользователей ищет продукт по дополнительным свойствам: поисковый спрос не сконцентрирован исключительно на двух основных запросах. При этом количество дополнительных свойств достаточно большое.


Вопросы, возникшие после предварительного анализа поискового спроса:


  1. Существуют ли синонимы для основных запросов?
  2. Почему не развит спрос с продающими добавками, будет ли он развиваться?
  3. Насколько развиты подкатегории (много ли у таких запросов собственных хвостов)?
  4. Как вели себя подкатегории в прошлом, будут ли развиваться?
  5. Насколько текущая структура сайта соответствует структуре поискового спроса?


Развитие поискового спроса


Анализ хвостов запроса japanese soaking tubs показал наличие существенного набора запросов, которые ассоциируются с продуктовыми свойствами и подходят как для отдельных продуктов, так и для подкатегорий. Например, можно выделить следующие условные группы запросов (japanese soaking tubs + keyword).
По размеру:
small (for small spaces, for small home, etc.)
2 person / for two
size
24 / 30 / 36 / 41 / 46/ 48 / 60 inch

По месту:
outdoor
(in / for) bathroom
(in / for) shower
etc.


По способу установки:
freestanding
portable
etc.

По материалу:
wood / wooden (japanese soaking tubs wood, japanese hinoki wood soaking tub, wood fired japanese soaking tub)
acrylic
stone
stainless +steel
copper
etc.


По виду:
round
ofuro
deep
heated
etc.
По аксессуарам:
with seat
etc.
По локализации:
USA
отдельные штаты (Utah, etc.)
отдельные города (NYC, Seattle, etc.)
также достаточно часто в выдаче для USA встречается добавка UK

Синонимы


У запроса есть прямые синонимы и хвосты, расширяющие смысл:

  • japanese STYLE soaking tub (хвост основного запроса)
  • japanese SITTING tub (синоним)
  • japanese BATH tub
  • japanese soaking BATH
  • возможны другие

Почти все указанные запросы обладают частотностью >0 и имеют собственные хвосты (т.е. развиваются). Например, запрос japanese soaking tubs wood имеет хвост japanese soaking tubs wood OUTDOOR, т.е. здесь пересекаются 2 подкатегории.


Выводы:


  1. Поисковый спрос уже достаточно развит и, скорее всего, будет развиваться далее.
  2. Пользователи обучаются в процессе поиска товарной категории: об этом говорит наличие большого набора категорийных запросов и отсутствие для них продающих добавок.
  3. Соответственно, чем лучше структура сайта будет совпадать со структурой запросов пользователей, тем выше будет оценка экспертности сайта в глазах пользователей.
  4. Наличие запросов-синонимов показывает, что часть потенциальных покупателей, скорее всего, не будет попадать на сайт, если эти запросы будут проигнорированы в структуре категорий, фильтров и контента страниц.


Вопросы:


  1. Какие запросы из указанных выше используются на основной странице категории?
  2. Какие элементы на странице делают её сильной для этих запросов?
  3. Как оптимизированы другие страницы сайта, исходя из структуры реального поискового спроса, и учитывают ли другие страницы эти запросы?
  4. Какие именно страницы: карточки товаров, категории, фильтры, главная, статьи привлекают тематический трафик по этим запросам?


Анализ страниц сайта клиента


Для запроса japanese soaking tubs была взята основная релевантная страница сайта https://***.com/category/japanese-bathtubs


Динамика запросов этой страницы





Текущие запросы страницы в поиске


Keyword - Position - Search Volume
Keyword Position Search Volume
japanese style bathtub usa 3 70
buy japanese bath 7 70
plastic ofuro 8 20
japanese bath tubs 9 590
japanese soaking tub drop in bathtub 10 20
japanese tub 11 1900
japanese style tub 11 170
japanese soaking bath 11 110
japanese soaking tubs 12 12100
japanese soaking tub 12 12100
drop in japanese soaking tub 13 110
japanese style soaking tub 13 260
japanese red tub 14 30
japanese square bath 17 30
japanese tub for sale 17 90
metal japanese soaking tub 19 30
japanese soaking bathtubs for sale 20 20
japanese ofuro bath uk 21 90
buy japanese bathtub 22 30
outdoor japanese soaking tubs 22 480
japanese plunge bath uk 24 70
japanese style shower and bath 25 20
japanese style bath 32 480
wooden soaking tub kit 36 70
cedar japanese soaking tub 40 50
ofuro cover 60 20
japanese bath 74 4400
cedar ofuro 79 20


Как видим, страница присутствует в поиске Google по 28 запросам. При этом для региона US только 5 из них находятся в топ-10, ещё 12 запросов в топ-20, а 11 запросов (40%) вне досягаемости пользователей.

Выходит, что страница тематически релевантна и хорошо оценивается поисковиком. Но структура запросов страницы в поиске не соответствует структуре реального поискового спроса, описанного выше.

В первую очередь страница находится в топе по запросам-синонимам с продающими и локализующими добавками:

  • japanese BATH BUY
  • japanese BATH soaking
  • japanese BATH tubs


  • japanese STYLE tub
  • japanese STYLE BATHTUB USA
  • japanese STYLE soaking tub


  • japanese tub
  • japanese tub FOR SALE
  • japanese soaking BATHTUBS FOR SALE


Частичный трафик страница может собирать по запросам, описывающим свойства, однако они тоже скорее относятся к хвостам запросов-синонимов (не включают в себя слово soaking либо tub):

  • japanese RED tub (по цвету, нет soaking)
  • japanese SQUARE bath (по форме, нет soaking, нет tub хвост синонима)
  • PLASTIC ofuro (по материалу, чистый синоним, вообще нет вхождения japanese soaking tub)
  • METAL japanese soaking tub (по материалу, чистая подкатегория-хвост)


Два основных запроса также определены как релевантные и занимают достаточно высокие позиции, однако очевидно, что их можно усилить.

При этом, судя по названиям товаров, страницы товаров собирают только частичный тематический трафик. Выборочный анализ карточек товара показал, что страницы товаров фактически оптимизированы как страницы категорий. Однако на них есть ряд существенных ошибок, которые не позволяют страницам быть релевантными основными запросам.

Также мы заметили, что названия фильтров не совпадают с текущими запросами и не показывают полный набор искомых свойств. Ещё мы обнаружили ошибку генерации фильтров, которая не позволяет большому количеству тематических страниц участвовать в поиске.


Предложение по SEO-продвижению англоязычного сайта для клиента


Придя к выводу, что локализация (степень локальных маркеров) для данной ниши несущественна и пока может не приниматься во внимание, вот какой план действий мы предложили клиенту.

1. Оценить реальный поисковый спрос по всем выделенным запросам, составить семантическое ядро и визуализировать возможную структуру.

2. Оценить возможности текущих страниц сайта в соответствии с выделенными запросами.

3. Оценить структуру запросов конкурентов в поиске:
визуальный обзор поисковой выдачи по семантическому ядру;
оценка показателей сайтов конкурентов;
сравнение силы конкуренции для основных страниц;
оценка релевантности страниц конкурентов по избранным запросам (за счёт чего они находятся в топе).

4. Провести технический аудит сайта, чтобы выявить проблемы, затрудняющие SEO-продвижение англоязычного сайта, и подготовить технические задания на доработку метатегов, фильтров, карточек товаров, категорий, других типов страниц и внутренней перелинковки.

5. Уточнить общую стратегию продвижения.

6. Подготовить стратегию линкбилдинга.

7. Подготовить технические задания на информационные статьи по запросам, выделенным из основного семантического ядра для каждой категории.


Результаты


Клиент оценил проведенный аудит, но решил не воплощать предложенную нами стратегию в жизнь. Как мы поняли, масштаб и объём работ не соответствовал ожиданиям клиента.

Действительно, вложения в SEO это забег на длинную дистанцию, приносящий результаты не мгновенно. Для эффективности в краткосрочной перспективе можно использовать другие методы продвижения: например, контекстную рекламу. А для оптимальных результатов мы рекомендуем комбинировать инструменты продвижения, подобранные исходя из исходных позиций и желаемых результатов.

Дмитрий Разахацкий,
ведущий SEO-специалист компании Alconost

Агентство интернет-маркетинга Alconost Ads занимается поисковым продвижением многоязычных сайтов, проводит полный SEO-аудит, базовую оптимизацию, улучшает юзабилити, разрабатывает стратегию международного продвижения, анализирует статистику и многое другое для улучшения ваших позиций в поисковых системах.
Подробнее..

Tier 2 в SEO и интернет маркетинге

08.02.2021 20:16:10 | Автор: admin

Как я вижу, Гез ссылается на Брауна, сам будучи против вас, и это верная примета, что Браун сошлется на Геза. Грин Александр. Бегущая по волнам, 1928 г.

Поскольку как в Гугле, так и в Яндексе пока почти нет информации на русском про tier 2 начнем с определений. В переводе с английского tier это ярус, уже можно понять, что tier 2 это какой-то второй ярус. Если мы начнем гуглить tier 2, то увидим, что термин применяется в построении сетей разных уровней, а также в центрах обработки данных как показатель их надежности, но еще и в выдаче виз в Великобританию. Казалось бы, а при чем здесь SEO или маркетинг?

Рунет по разному, но зачастую значительно позже переваривает и популяризирует тренды или методы, которые в англоязычном мировом интернете уже давно систематизированы и изучены. В Google на английском поиск по запросу tier seo показывает, что эти методы продвижения с помощью усиления ссылок второго уровня tier 2 используется и активно обсуждается на англоязычных форумах уже много лет. Надо отметить, что даже в продвинутом англоязычном seo иногда не в курсе термина tier 2, хотя успешно используют эти методы.

Источник скриншота: https://www.blackhatworld.com/seo/what-is-tier-1-and-tier-2-in-seo.531054/#post-7085808Источник скриншота: https://www.blackhatworld.com/seo/what-is-tier-1-and-tier-2-in-seo.531054/#post-7085808

Стоп, а если я не сеошник, тогда мне не надо дальше читать этот длиннопост? Сеошники вряд ли много нового узнают, может быть только специфический термин, однако, статья должна быть полезна и маркетологам. На самом деле кто бы вы ни были, но вы в любом случае сталкиваетесь с tier 2. В этой статье я попытаюсь пояснить почему узнать всю суть этого термина действительно важно каждому пользователю сети Интернет.

Что такое tier 2 в SEO продвижении сайтов

Начнем с того как я сам не зная этого термина начал работать с tier 2 ссылками. Сейчас, что такое крауд маркетинг знают почти все, а в 2011 году этот термин не знал никто, но методом скрытого маркетинга пользовались многие. Поскольку общение на форумах тогда еще было очень активным, а трафик из соцсетей лился реками, то я просто проводил постинг для получения целевой аудитории. При чем же здесь tier 2?

В какой-то момент я сообразил, что никак не охвачен трафик из ТОП выдачи, что приходит на сайты конкурентов, но они же ни за какие деньги не разместят ссылку на сайт, что я продвигал, ведь это для них прямая конкуренция. Однако, на сайте конкурентов был прикручен простенький форум, конечно, он модерировался и там я бы также не смог разместить ссылку на нужный мне сайт. У меня давно был сделан и заброшен блог в ЖЖ (livejournal) с описанием товаров, которые продавались на сайте, что я продвигал и которые также продавались на сайте конкурентов.

В ЖЖ у меня были проставлены ссылки на сайт, но я их убрал, далее банально зарегистрировался на форуме конкурентов, пообщался для вида и как-то уместно разместил ссылку на пост в ЖЖ. Модераторы проверили и не удалили, потому что ничего подозрительного, тем более отзыв о товаре хороший. После этого я изменил тот пост в ЖЖ и вернул туда ссылку на нужный мне сайт, прямо на товар. Моя цель была достигнута и пошел какой-то трафик, по крайней мере единичные переходы. На тот момент ссылок на сайт не покупалось, но скоро я заметил рост позиций сайта, который продвигал по тем самым запросам. И вот это было tier 2.

Попросту говоря на ЖЖ была ссылка на мой сайт и это tier 1, а ссылка с сайта конкурентов усилила страничку в ЖЖ как tier 2. Эффективность tier 2 по части SEO в том случае была заметна за счет того, что я видел как страничка в ЖЖ также поднялась в выдаче по низкочастотным запросам о том товаре. До того ссылка на сайт, что я продвигал была на ЖЖ год, но не давала никакого SEO эффекта для нужного мне сайта акцептора.

В дальнейшем я уже осмысленно использовал методы усиления ссылок в SEO, хотя сам термин tier 2 не знал еще очень долго. Простой пример: покупаешь ссылку в статье на каком-то маленьком сайте на бирже за 5-10 долларов, а новая страница в индекс не хочет становиться неделями, что делать? Поскольку сеошнику надо отчитываться перед клиентами с индексацией и подгонять рост позиций, то если владельцы сайта донора ничего не делают с перелинковкой, значит приходится самому простимулировать индексацию. Также делал странички на ЖЖ и других платформах для блогов с ссылкой на страницу со статьей в которой ссылка на клиентский сайт, были случаи даже покупал за пару временных ссылок за копейки, чтобы нужная мне страница на совершенно чужом сайте встала в индекс. И это тоже tier 2, только его цель загнать новую страницу в индекс.

Только это все про Яндекс, а как же Google учитывает ссылки tier 2?

Начнем с того, что сколько бы официальные представители Google не говорили, что ссылки с атрибутом rel= nofollow никак не повлияют на позиции, но всегда было множество исследований доказывающих это влияние. Видимо поэтому в 2019 году Google официально признал, что ссылки nofollow влияют, если они размещены на авторитетных сайтах (Wikipedia и тд).

Лучше приведу пример старого исследования по которому видно какие ссылки скорее всего и правда не влияют на позиции. В компании Tasty Placement несколько лет назад провели эксперимент, Было создано шесть сайтов одной тематики на шесть городов одинаковых по численности и провели с сайтами различные манипуляции относительно соцсетей. Через десять месяцев проверили показатели, в таблице ниже интересные результаты.

Социальные сети

Изменение коэффициента ранжирования

1-й сайт набрал 100 подписчиков Google +

14.63 %

2-й сайт получил 300 репостов Google +

9.44 %

3-й сайт 70 репостов и 50 лайков бизнес-страницы

6.9 %

4-й сайт получил 50 ретвитов

2.88 %

5-й сайт набрал 1000 подписчиков в Twitter

1.22 %

6-й сайт вообще ни в чем не участвовал.

0.11 %

Ссылка на полноценную презентацию эксперимента: https://www.tastyplacement.com/wp-content/uploads/testing-social-signals.jpg

Не зря же соцсети делают внешние ссылки не просто rel= nofollow, например, Twitter отправляет ссылки на другой URL и потом через 301-редирект. Ссылки из ВКонтакте уводят на скрипт away.php, который проверяет подозрительность внешней ссылки. Мы можем наблюдать на крупных форумах такие же страницы-прокладки, которые только через скрипты позволяют уйти на другой сайт по ссылке. С одной стороны так социальная сеть или форум пытаются удержать пользователя от перехода, с другой стороны это наверняка избавляет от SEO эффекта ссылок второго уровня tier 2, которые многие хотели бы получить из соцсетей.

Зарубежные SEO специалисты давно знают значение ссылок tier 2 и стараются получать их с Википедии, Reddit и других крупных сайтов. Методы простые.

  • Ищешь сайт на который можно оставить ссылку на Википедии и на котором можно написать хотя бы информационную статью. Пишешь статью, прячешь в ней ссылку на нужный сайт, далее идешь на Википедию и пытаешься в источниках оставить ссылку на сайт с информационной статьей.

  • Находишь сайты по нужной теме продвижения в ТОП выдачи, а они же никогда не оставят ссылку на прямого конкурента, но ты всегда можешь предложить им для размещения статью с ссылкой на информационные источники. А уже в тех источниках будет ссылка на ваш сайт и Google прекрасно передает вес ссылок tier 2.

Наиболее простое доказательство реальной эффективности веса ссылок tier 2 для Google это сети сателлитов, которые до сих пор работают для продвижения. Обычно сеть сателлитов (сеть сайтов общей тематики: Private Blog Network или просто PBN) создается как раз по такой схеме.

Источник схемы: https://digitaluncovered.com/seo-snake-oil-how-to-choose-an-seo-company/Источник схемы: https://digitaluncovered.com/seo-snake-oil-how-to-choose-an-seo-company/

Здесь мы видим также ссылки третьего уровня, то есть tier 3. Естественно это все сателлиты, иногда дешевле купить несколько десятков доменов, сделать простенькие сайты под шаблон нужной тематики и перелинковать по схеме, чтобы улучшить позиции своего сайта. Очевидно, что специалисты занимающиеся строительством сетей PBN в обиходе повседневно используют термин tier 2. Надо отметить, что в некоторых темах трудно найти достаточное количество сайтов доноров для размещения ссылок и для Google именно сеть PBN иногда чуть ли не единственный выход для подъема позиций даже сейчас в 2021 году. И так будет видимо всегда, потому что поисковые системы обычно не могут распознать такие сетки сателлитов как биржевые продающие ссылки, а фильтры, санкции за ссылки уровня tier 3 или tier 2 не будут самыми жесткими. Главное в этой схеме сайты уровня tier 1, но их условный траст всегда можно подпитать новыми ссылками, а также разбавлять крауд маркетингом и тд. Впрочем, постоянно продвигать сайт только сетями PBN не выйдет, алгоритм Google Penguin рано или поздно определит эти манипуляции, поэтому сеть сателлитов может применяться только как некий вспомогательный фактор продвижения, один из методов SEO.

Вред от ссылок tier 2

Все знают, что ссылки с плохих доноров на сайт акцептор рано или поздно ведут к фильтрам от поисковых систем, но как повлияют исходящие ссылки с вашего сайта?

Обратимся к исследованию, которое было проведено в 2016 году и повторено в 2020 году с теми же результатами. Суть эксперимента была в том, что придумали косметику с вымышленным названием Phylandocic и тестовое переменное слово Ancludixis. Все это не имело ни единого результата в выдаче.

  • Было создано десять сайтов по 300 слов на каждом.

  • С пяти сайтов были проставлены внешние ссылки на авторитетные источники: Оксфордский университет, Кембриджский университет и тд.

  • Исследователи минимализировали посещения сайтов по ключевым фразам, все делали в режиме инкогнито, даже не проверяли поиск до конца эксперимента и все это знал ограниченный круг людей.

В итоге, через десять месяцев оказалось, что сайты на которых были внешние ссылки на трастовые реально качественные сайты были с лучшими позициями, чем другие без таких ссылок.

Update: We have rerun this experiment in April 2020 using fresh domains and can confirm the same results. External links remain a ranking factor and good SEO best practise.

Ссылка на исследование: https://www.rebootonline.com/blog/long-term-outgoing-link-experiment/ Ссылка на исследование: https://www.rebootonline.com/blog/long-term-outgoing-link-experiment/

А теперь вспомним, что есть печеньки (cookie) и браузер Google Chrome, а в нем многие авторизованы под своим аккаунтом Google. Становится ясно, что если вы разместите ссылку на сайт, который сам по себе безобиден, но при этом размещает много ссылок на плохие сайты, то это значит Google точно узнает всю цепочку сайтов, что ссылаются на плохой сайт. Вывод: также как построение цепей ссылок tier 1, 2 и 3 поднимают в ТОП Google их акцептора, так и может пессимизировать за то, что вы ссылаетесь на некий сайт, который является помойкой для ссылок ведущих скорее всего на подозрительный сайт. Ведь разрешенные к продвижению по тематике сайты на биржах могут покупать ссылки напрямую.

Пример из моей SEO практики: клиентский сайт выставили на биржу, чтобы немного отбить заказами на статейные ссылки цену продвижения. Трастовому сайту нормально проставить немного ссылок из статей на другие живые сайты той же тематики. Как-то пришел заказ на симпатичный и аскетичный тематичный сайт, он мне показался подозрительным, хотя внешних ссылок на нем не было, поэтому ссылку на него разместил. Заказчик из биржи был очень доволен и тут же выслал еще десять заказов на подобные сайты похожие как близнецы, а начинаешь проверять и видишь, что они на одном ip (хостинге). Тогда я сразу понял, что пытаются прокачать сеть сателлитов, которые позже неизвестно куда уведут ссылками и уговорил клиента отказаться от такого оптового размещения, то есть поберечь свой сайт. Пока сателлиты без ссылок чистые все нормально, но ведь они обязательно будут использованы по назначению.

Еще один нюанс. SEO оптимизатор должен учитывать, что сателлиты перепродаются, иногда целая сеть может быть выкуплена кем-то еще, надо будет следить за этим. Что будет, если покупали дешевые ссылки на биржах?

  • Вначале все будет хорошо, ведь ссылки вечные, некоторые биржи дают год гарантии за дополнительную оплату страховых взносов, но чаще всего на год хватает стабильности и так.

  • Зато через пару лет окажется, что ничто не вечно, а сайты на бирже ушли в бан по всем показателям, выпали из индекса, потому что их администраторы были жадные и продавали слишком много ссылок, а под конец падения даже не тематические. Вот такой tier 2 внешними ссылками убивающий ваш донор.

  • Выходит ссылки второго уровня на сайте донора когда-то могут испортить вам вес SEO ссылки первого уровня с положительного на отрицательный. Если в Google есть инструмент Disallow Links, чтобы отклонить испорченные ссылки, то в Яндексе ничего подобного нет.

Tier 2 и интернет маркетинг

Про крауд маркетинг уже были примеры, перейдем сразу к съему целевой аудитории из ТОП поисковых систем с помощью tier 2. Десять лет назад были популярен сервис Ответы Mail.ru и подобный был у Google, причем в обоих случаях ответы выдавались в ТОП выдачи по ключевым запросам, вопросам. Эти методы сейчас знают и понимают уже все/

  • Формулируешь правильно с вхождением ключевого запроса вопрос с одного аккаунта, ждешь любых ответов и с другого своего аккаунта пишешь нормальный внятный ответ ссылкой на нужный тебе сайт. Желательно использовать VPN, чтобы не забанили, но при необходимости сделать много таких вопросов и ответов просто нанимались на сайтах фриланса реальные люди со своими аккаунтами.

  • Вопрос моментально оказывается в ТОП выдачи, а ответ с нужной тебе ссылкой ты сам выбрал лучшим и он выделяется, далее просто наблюдаешь как начинает идти трафик на сайт, который прорекламировал.

Только Ответы Mail.ru уже давно не в тренде, сервис Ответы Google закрылся, зато появился Яндекс.ДЗЕН и сейчас он почти всегда в ТОП выдачи Яндекса. Кстати, qna.habr тоже немного заспамлен и это также tier 2 (ищешь вопрос, находишь ответ, а там в комментарии ссылка куда-то).

С чем я не имел дело, то есть никогда сам такого не делал, но с чем сталкивался каждый из нас.

  • Вы ищете в Яндексе или Google какой-то вопрос, из ТОП выдачи попадаете на страницу в соцсети Вконтакте и там вместо ответа вас ждет ссылка на какой-то подозрительный сайт.

  • Вы попадаете из поисковой системы на какой-то сайт (doorway), а там заглушка и навязчиво предлагается перейти еще на какой-то сайт. Думаю все уже догадались о каких сайтах речь, ведь такие сайты для взрослых запрещены в большинстве случаев для контекстной рекламы и тд.

  • Наконец, вам предлагают перейти по сокращенной ссылке, то есть по адресу вы не видите куда вас направляет ссылка, часто так скрывают реферальные ссылки. Но по сути вы идете на какой-то сайт через переадресацию. Или еще хуже, когда вы попадаете на сайт и ничего не нажимаете, возможно уже закрываете страницу и тут принудительно открывается окно с ссылкой на другой сайт. Так может быть спрятан фишинг.

Таким образом, становится ясно почему абсолютно все пользователи сети Интернет обязательно сталкиваются и переходят по ссылкам tier 2 создавая им поведенческие факторы. Чаще всего пранки или фишинг также делается через сайты прокладки tier 2. Если специалисту в SEO продвижении термин tier 2 пригодится для осмысления методов, чтобы было удобнее формулировать планы и стратегии ссылочного продвижения, то обывателю нужно знать этот термин, чтобы не тратить время впустую на хождения по сателлитам.

Дело в том, что сателлиты или сайты-прокладки для ссылок tier 2 не всегда сделаны кое-как по шаблону. Во многих случаях это старые красивые сайты, которые были когда-то живыми, но заброшены администраторами и недорого выкуплены для выполнения роли площадки под ссылки. Отличить такую западню легко, когда вы переходите по ссылке на статью, а в этой статье текст вода и ссылка на другой сайт. Короче говоря, вы попали не на сайт где есть нужная вам информация или решение проблемы, а на SEO страницу.

  • Если текст рекламный и ссылка хорошо выделена на видном месте или подкреплена тизером это маркетинг.

  • Если текст как бы ни о чем, а контекстная ссылка в тексте или постовой в конце статьи это линкбилдинг.

В обоих случаях вы зря потратите время на прочтение статьи, потому что её скорее всего написал рерайтер за копейки: текст ради индексации. Особенно печально, когда люди ищут информацию про болезни, лекарства и попадают на такие страницы, читают и верят написанному, а ведь в таком контенте могут быть грубые смысловые ошибки. Именно поэтому так важно всем научиться различать настоящие профессиональные уникальные статьи и страницы с просто уникальным текстом созданные для ссылок tier 2. Однако, конкуренция приводит к повышению качества сайтов и чтобы получить хорошие поведенческие факторы даже SEO контент стараются делать все более профессионально в плане смысловой составляющей.

Почему редко используют термин tier 2

Все дело в специфике, поскольку термин SEO уже хорошо известен и распиарен, то именно так и называют продвижение в общем и целом для клиентов. На самом деле студия занимающаяся продвижением сайтов может успешно использовать самые разные методы, но путать клиентов терминами не будут. Вспомните коммерческие предложения, что вам высылали по поводу продвижения, ведь там наверняка общие фразы про индивидуальный подход в линкбилдинге и качественные ссылки? Чем больше непонятной информации, тем сложнее заказчику решиться. Если про SEO заказчик понимает, то про интернет маркетинг смутно, а термин crowd многих и сейчас вводит в ступор. Услугу могут предлагать, но объяснять будут простыми словами, без специфических терминов.

Не всякий сеошник решиться попробовать стратегию усилять ссылками страницу сайта донора, а объяснить, что надо покупать ссылки ведущие не только на сайт клиента, но и на некоторые чужие тематические сайты доноры ссылок - это явно фантастическая задача на брифинге. Тем более, когда клиент знает только один термин SEO и не знает толком, что в чистом виде SEO не всегда гарантирует выход в ТОП.

Впрочем, никакие ссылки и SEO методы не помогут подняться в ТОП, если у сайта есть технические проблемы с доступностью всех страниц или низкая скорость загрузки. Уже давно сеошники учитывают скорость загрузки сайтов конкурентов, чтобы обойти их в ТОП. Только в 2020 году Google конкретно заявил, что в 2021 году для ранжирования сайтов станут достаточно важными факторы Web Vitals: скорость загрузки, интерактивность и визуальная стабильность. Доступность и качество ресурса невозможны без мониторинга, когда у вас хостинг в надежном дата-центре с грамотной поддержкой, которая готова оперативно отреагировать в случае экстренной ситуации. Очевидно, ссылки tier 2 и 3 на сетях сателлитов для продвижения в Google теперь тоже придется размещать только на надежных хостингах с хорошей поддержкой.

Все же специфические термины полезны для смежных с SEO профессий, они помогают более четко работать команде по продвижению сайта (сеошник, программист, контент редактор, интернет маркетолог и тд). Когда составляется план комплексного продвижения сайта, вырабатывается стратегия все члены команды должны знать SEO термины, даже про серые методы, сателлиты, tier 2 и понимать их.

Tu deviens responsable pour toujours de ce que tu as apprivois. (из повести Маленький принц Антуана де Сент-Экзюпери, 1943 г.)

P. S. Habr не имел ранее статей про SEO tier 2, а в Рунете почти нет статей на эту тему, значит эта статья выйдет в ТОП. Выходит, если кто-то разместит под данной статьей комментарий, но в своем профиле будет иметь ссылку на страницу или сайт для заказа ИТ услуг - это и будет tier 2!

Подробнее..

Recovery mode Tier 2 в SEO и интернет маркетинге

08.02.2021 22:18:49 | Автор: admin

Как я вижу, Гез ссылается на Брауна, сам будучи против вас, и это верная примета, что Браун сошлется на Геза. Грин Александр. Бегущая по волнам, 1928 г.

Поскольку как в Гугле, так и в Яндексе пока почти нет информации на русском про tier 2 начнем с определений. В переводе с английского tier это ярус, уже можно понять, что tier 2 это какой-то второй ярус. Если мы начнем гуглить tier 2, то увидим, что термин применяется в построении сетей разных уровней, а также в центрах обработки данных как показатель их надежности, но еще и в выдаче виз в Великобританию. Казалось бы, а при чем здесь SEO или маркетинг?

Рунет по разному, но зачастую значительно позже переваривает и популяризирует тренды или методы, которые в англоязычном мировом интернете уже давно систематизированы и изучены. В Google на английском поиск по запросу tier seo показывает, что эти методы продвижения с помощью усиления ссылок второго уровня tier 2 используется и активно обсуждается на англоязычных форумах уже много лет. Надо отметить, что даже в продвинутом англоязычном seo иногда не в курсе термина tier 2, хотя успешно используют эти методы.

Источник скриншота: https://www.blackhatworld.com/seo/what-is-tier-1-and-tier-2-in-seo.531054/#post-7085808Источник скриншота: https://www.blackhatworld.com/seo/what-is-tier-1-and-tier-2-in-seo.531054/#post-7085808

Стоп, а если я не сеошник, тогда мне не надо дальше читать этот длиннопост? Сеошники вряд ли много нового узнают, может быть только специфический термин, однако, статья должна быть полезна и маркетологам. На самом деле кто бы вы ни были, но вы в любом случае сталкиваетесь с tier 2. В этой статье я попытаюсь пояснить почему узнать всю суть этого термина действительно важно каждому пользователю сети Интернет.

Что такое tier 2 в SEO продвижении сайтов

Начнем с того как я сам не зная этого термина начал работать с tier 2 ссылками. Сейчас, что такое крауд маркетинг знают почти все, а в 2011 году этот термин не знал никто, но методом скрытого маркетинга пользовались многие. Поскольку общение на форумах тогда еще было очень активным, а трафик из соцсетей лился реками, то я просто проводил постинг для получения целевой аудитории. При чем же здесь tier 2?

В какой-то момент я сообразил, что никак не охвачен трафик из ТОП выдачи, что приходит на сайты конкурентов, но они же ни за какие деньги не разместят ссылку на сайт, что я продвигал, ведь это для них прямая конкуренция. Однако, на сайте конкурентов был прикручен простенький форум, конечно, он модерировался и там я бы также не смог разместить ссылку на нужный мне сайт. У меня давно был сделан и заброшен блог в ЖЖ (livejournal) с описанием товаров, которые продавались на сайте, что я продвигал и которые также продавались на сайте конкурентов.

В ЖЖ у меня были проставлены ссылки на сайт, но я их убрал, далее банально зарегистрировался на форуме конкурентов, пообщался для вида и как-то уместно разместил ссылку на пост в ЖЖ. Модераторы проверили и не удалили, потому что ничего подозрительного, тем более отзыв о товаре хороший. После этого я изменил тот пост в ЖЖ и вернул туда ссылку на нужный мне сайт, прямо на товар. Моя цель была достигнута и пошел какой-то трафик, по крайней мере единичные переходы. На тот момент ссылок на сайт не покупалось, но скоро я заметил рост позиций сайта, который продвигал по тем самым запросам. И вот это было tier 2.

Попросту говоря на ЖЖ была ссылка на мой сайт и это tier 1, а ссылка с сайта конкурентов усилила страничку в ЖЖ как tier 2. Эффективность tier 2 по части SEO в том случае была заметна за счет того, что я видел как страничка в ЖЖ также поднялась в выдаче по низкочастотным запросам о том товаре. До того ссылка на сайт, что я продвигал была на ЖЖ год, но не давала никакого SEO эффекта для нужного мне сайта акцептора.

В дальнейшем я уже осмысленно использовал методы усиления ссылок в SEO, хотя сам термин tier 2 не знал еще очень долго. Простой пример: покупаешь ссылку в статье на каком-то маленьком сайте на бирже за 5-10 долларов, а новая страница в индекс не хочет становиться неделями, что делать? Поскольку сеошнику надо отчитываться перед клиентами с индексацией и подгонять рост позиций, то если владельцы сайта донора ничего не делают с перелинковкой, значит приходится самому простимулировать индексацию. Также делал странички на ЖЖ и других платформах для блогов с ссылкой на страницу со статьей в которой ссылка на клиентский сайт, были случаи даже покупал за пару временных ссылок за копейки, чтобы нужная мне страница на совершенно чужом сайте встала в индекс. И это тоже tier 2, только его цель загнать новую страницу в индекс.

Как Google учитывает ссылки tier 2

Начнем с того, что сколько бы официальные представители Google не говорили, что ссылки с атрибутом rel= nofollow никак не повлияют на позиции, но всегда было множество исследований доказывающих это влияние. Видимо поэтому в 2019 году Google официально признал, что ссылки nofollow влияют, если они размещены на авторитетных сайтах (Wikipedia и тд).

Лучше приведу пример старого исследования по которому видно какие ссылки скорее всего и правда не влияют на позиции. В компании Tasty Placement несколько лет назад провели эксперимент, Было создано шесть сайтов одной тематики на шесть городов одинаковых по численности и провели с сайтами различные манипуляции относительно соцсетей. Через десять месяцев проверили показатели, в таблице ниже интересные результаты.

Социальные сети

Изменение коэффициента ранжирования

1-й сайт набрал 100 подписчиков Google +

14.63 %

2-й сайт получил 300 репостов Google +

9.44 %

3-й сайт 70 репостов и 50 лайков бизнес-страницы

6.9 %

4-й сайт получил 50 ретвитов

2.88 %

5-й сайт набрал 1000 подписчиков в Twitter

1.22 %

6-й сайт вообще ни в чем не участвовал.

0.11 %

Ссылка на полноценную презентацию эксперимента: https://www.tastyplacement.com/wp-content/uploads/testing-social-signals.jpg

Не зря же соцсети делают внешние ссылки не просто rel= nofollow, например, Twitter отправляет ссылки на другой URL и потом через 301-редирект. Ссылки из ВКонтакте уводят на скрипт away.php, который проверяет подозрительность внешней ссылки. Мы можем наблюдать на крупных форумах такие же страницы-прокладки, которые только через скрипты позволяют уйти на другой сайт по ссылке. С одной стороны так социальная сеть или форум пытаются удержать пользователя от перехода, с другой стороны это наверняка избавляет от SEO эффекта ссылок второго уровня tier 2, которые многие хотели бы получить из соцсетей.

Зарубежные SEO специалисты давно знают значение ссылок tier 2 и стараются получать их с Википедии, Reddit и других крупных сайтов. Методы простые.

  • Ищешь сайт на который можно оставить ссылку на Википедии и на котором можно написать хотя бы информационную статью. Пишешь статью, прячешь в ней ссылку на нужный сайт, далее идешь на Википедию и пытаешься в источниках оставить ссылку на сайт с информационной статьей.

  • Находишь сайты по нужной теме продвижения в ТОП выдачи, а они же никогда не оставят ссылку на прямого конкурента, но ты всегда можешь предложить им для размещения статью с ссылкой на информационные источники. А уже в тех источниках будет ссылка на ваш сайт и Google прекрасно передает вес ссылок tier 2.

Наиболее простое доказательство реальной эффективности веса ссылок tier 2 для Google это сети сателлитов, которые до сих пор работают для продвижения. Обычно сеть сателлитов (сеть сайтов общей тематики: Private Blog Network или просто PBN) создается как раз по такой схеме.

Источник схемы: https://digitaluncovered.com/seo-snake-oil-how-to-choose-an-seo-company/Источник схемы: https://digitaluncovered.com/seo-snake-oil-how-to-choose-an-seo-company/

Здесь мы видим также ссылки третьего уровня, то есть tier 3. Естественно это все сателлиты, иногда дешевле купить несколько десятков доменов, сделать простенькие сайты под шаблон нужной тематики и перелинковать по схеме, чтобы улучшить позиции своего сайта. Очевидно, что специалисты занимающиеся строительством сетей PBN в обиходе повседневно используют термин tier 2 и tier 3.

В некоторых темах трудно найти достаточное количество сайтов доноров для размещения ссылок и для Google именно сеть PBN иногда чуть ли не единственный выход для подъема позиций даже сейчас в 2021 году. И так будет видимо всегда, потому что поисковые системы обычно не могут распознать такие сетки сателлитов как биржевые продающие ссылки, а фильтры, санкции за ссылки уровня tier 3 или tier 2 не будут самыми жесткими. Главное в этой схеме сайты уровня tier 1, но их условный траст всегда можно подпитать новыми ссылками, а также разбавлять крауд маркетингом и тд. Впрочем, постоянно продвигать сайт только сетями PBN не выйдет, алгоритм Google Penguin рано или поздно определит эти манипуляции, поэтому сеть сателлитов может применяться только как некий вспомогательный фактор продвижения, один из методов SEO.

Вред от ссылок tier 2

Все знают, что ссылки с плохих доноров на сайт акцептор рано или поздно ведут к фильтрам от поисковых систем, но как повлияют исходящие ссылки с вашего сайта?

Обратимся к исследованию, которое было проведено в 2016 году и повторено в 2020 году с теми же результатами. Суть эксперимента была в том, что придумали косметику с вымышленным названием Phylandocic и тестовое переменное слово Ancludixis. Все это не имело ни единого результата в выдаче.

  • Было создано десять сайтов по 300 слов на каждом.

  • С пяти сайтов были проставлены внешние ссылки на авторитетные источники: Оксфордский университет, Кембриджский университет и тд.

  • Исследователи минимализировали посещения сайтов по ключевым фразам, все делали в режиме инкогнито, даже не проверяли поиск до конца эксперимента и все это знал ограниченный круг людей.

В итоге, через десять месяцев оказалось, что сайты на которых были внешние ссылки на трастовые реально качественные сайты были с лучшими позициями, чем другие без таких ссылок.

Update: We have rerun this experiment in April 2020 using fresh domains and can confirm the same results. External links remain a ranking factor and good SEO best practise.

Ссылка на исследование: https://www.rebootonline.com/blog/long-term-outgoing-link-experiment/ Ссылка на исследование: https://www.rebootonline.com/blog/long-term-outgoing-link-experiment/

А теперь вспомним, что есть печеньки (cookie) и браузер Google Chrome, а в нем многие авторизованы под своим аккаунтом Google. Становится ясно, что если вы разместите ссылку на сайт, который сам по себе безобиден, но при этом размещает много ссылок на плохие сайты, то это значит Google точно узнает всю цепочку сайтов, что ссылаются на плохой сайт. Вывод: также как построение цепей ссылок tier 1, 2 и 3 поднимают в ТОП Google их акцептора, так и может пессимизировать за то, что вы ссылаетесь на некий сайт, который является помойкой для ссылок ведущих скорее всего на подозрительный сайт. Ведь разрешенные к продвижению по тематике сайты на биржах могут покупать ссылки напрямую.

Пример из моей SEO практики: клиентский сайт выставили на биржу, чтобы немного отбить заказами на статейные ссылки цену продвижения. Трастовому сайту нормально проставить немного ссылок из статей на другие живые сайты той же тематики. Как-то пришел заказ на симпатичный и аскетичный тематичный сайт, он мне показался подозрительным, хотя внешних ссылок на нем не было, поэтому ссылку на него разместил. Заказчик из биржи был очень доволен и тут же выслал еще десять заказов на подобные сайты похожие как близнецы, а начинаешь проверять и видишь, что они на одном ip (хостинге). Тогда я сразу понял, что пытаются прокачать сеть сателлитов, которые позже неизвестно куда уведут ссылками и уговорил клиента отказаться от такого оптового размещения, то есть поберечь свой сайт. Пока сателлиты без ссылок чистые все нормально, но ведь они обязательно будут использованы по назначению.

Еще один нюанс. SEO оптимизатор должен учитывать, что сателлиты перепродаются, иногда целая сеть может быть выкуплена кем-то еще, надо будет следить за этим. Что будет, если покупали дешевые ссылки на биржах?

  • Вначале все будет хорошо, ведь ссылки вечные, некоторые биржи дают год гарантии за дополнительную оплату страховых взносов, но чаще всего на год хватает стабильности и так.

  • Зато через пару лет окажется, что ничто не вечно, а сайты на бирже ушли в бан по всем показателям, выпали из индекса, потому что их администраторы были жадные и продавали слишком много ссылок, а под конец падения даже не тематические. Вот такой tier 2 внешними ссылками убивающий ваш донор.

  • Выходит ссылки второго уровня на сайте донора когда-то могут испортить вам вес SEO ссылки первого уровня с положительного на отрицательный. Если в Google есть инструмент Disallow Links, чтобы отклонить испорченные ссылки, то в Яндексе ничего подобного нет.

Tier 2 и интернет маркетинг

Про крауд маркетинг уже были примеры, перейдем сразу к съему целевой аудитории из ТОП поисковых систем с помощью tier 2. Десять лет назад были популярен сервис Ответы Mail.ru и подобный был у Google, причем в обоих случаях ответы выдавались в ТОП выдачи по ключевым запросам, вопросам. Эти методы сейчас знают и понимают уже все/

  • Формулируешь правильно с вхождением ключевого запроса вопрос с одного аккаунта, ждешь любых ответов и с другого своего аккаунта пишешь нормальный внятный ответ ссылкой на нужный тебе сайт. Желательно использовать VPN, чтобы не забанили, но при необходимости сделать много таких вопросов и ответов просто нанимались на сайтах фриланса реальные люди со своими аккаунтами.

  • Вопрос моментально оказывается в ТОП выдачи, а ответ с нужной тебе ссылкой ты сам выбрал лучшим и он выделяется, далее просто наблюдаешь как начинает идти трафик на сайт, который прорекламировал.

Только Ответы Mail.ru уже давно не в тренде, сервис Ответы Google закрылся, зато появился Яндекс.ДЗЕН и сейчас он почти всегда в ТОП выдачи Яндекса. Кстати, qna.habr тоже немного заспамлен и это также tier 2 (ищешь вопрос, находишь ответ, а там в комментарии ссылка куда-то).

С чем я не имел дело, то есть никогда сам такого не делал, но с чем сталкивался каждый из нас.

  • Вы ищете в Яндексе или Google какой-то вопрос, из ТОП выдачи попадаете на страницу в соцсети Вконтакте и там вместо ответа вас ждет ссылка на какой-то подозрительный сайт.

  • Вы попадаете из поисковой системы на какой-то сайт (doorway), а там заглушка и навязчиво предлагается перейти еще на какой-то сайт. Думаю все уже догадались о каких сайтах речь, ведь такие сайты для взрослых запрещены в большинстве случаев для контекстной рекламы и тд.

  • Наконец, вам предлагают перейти по сокращенной ссылке, то есть по адресу вы не видите куда вас направляет ссылка, часто так скрывают реферальные ссылки. Но по сути вы идете на какой-то сайт через переадресацию. Или еще хуже, когда вы попадаете на сайт и ничего не нажимаете, возможно уже закрываете страницу и тут принудительно открывается окно с ссылкой на другой сайт. Так может быть спрятан фишинг.

Таким образом, становится ясно почему абсолютно все пользователи сети Интернет обязательно сталкиваются и переходят по ссылкам tier 2 создавая им поведенческие факторы. Чаще всего пранки или фишинг также делается через сайты прокладки tier 2. Если специалисту в SEO продвижении термин tier 2 пригодится для осмысления методов, чтобы было удобнее формулировать планы и стратегии ссылочного продвижения, то обывателю нужно знать этот термин, чтобы не тратить время впустую на хождения по сателлитам.

Дело в том, что сателлиты или сайты-прокладки для ссылок tier 2 не всегда сделаны кое-как по шаблону. Во многих случаях это старые красивые сайты, которые были когда-то живыми, но заброшены администраторами и недорого выкуплены для выполнения роли площадки под ссылки. Отличить такую западню легко, когда вы переходите по ссылке на статью, а в этой статье текст вода и ссылка на другой сайт. Короче говоря, вы попали не на сайт где есть нужная вам информация или решение проблемы, а на SEO страницу.

  • Если текст рекламный и ссылка хорошо выделена на видном месте или подкреплена тизером это маркетинг.

  • Если текст как бы ни о чем, а контекстная ссылка в тексте или постовой в конце статьи это линкбилдинг.

В обоих случаях вы зря потратите время на прочтение статьи, потому что её скорее всего написал рерайтер за копейки: текст ради индексации. Особенно печально, когда люди ищут информацию про болезни, лекарства и попадают на такие страницы, читают и верят написанному, а ведь в таком контенте могут быть грубые смысловые ошибки. Именно поэтому так важно всем научиться различать настоящие профессиональные уникальные статьи и страницы с просто уникальным текстом созданные для ссылок tier 2. Однако, конкуренция приводит к повышению качества сайтов и чтобы получить хорошие поведенческие факторы даже SEO контент стараются делать все более профессионально в плане смысловой составляющей.

Почему редко используют термин tier 2

Все дело в специфике, поскольку термин SEO уже хорошо известен и распиарен, то именно так и называют продвижение в общем и целом для клиентов. На самом деле студия занимающаяся продвижением сайтов может успешно использовать самые разные методы, но путать клиентов терминами не будут. Вспомните коммерческие предложения, что вам высылали по поводу продвижения, ведь там наверняка общие фразы про индивидуальный подход в линкбилдинге и качественные ссылки? Чем больше непонятной информации, тем сложнее заказчику решиться. Если про SEO заказчик понимает, то про интернет маркетинг смутно, а термин crowd многих и сейчас вводит в ступор. Услугу могут предлагать, но объяснять будут простыми словами, без специфических терминов.

Не всякий сеошник решиться попробовать стратегию усилять ссылками страницу сайта донора, а объяснить, что надо покупать ссылки ведущие не только на сайт клиента, но и на некоторые чужие тематические сайты доноры ссылок - это явно фантастическая задача на брифинге. Тем более, когда клиент знает только один термин SEO и не знает толком, что в чистом виде SEO не всегда гарантирует выход в ТОП.

Впрочем, никакие ссылки и SEO методы не помогут подняться в ТОП, если у сайта есть технические проблемы с доступностью всех страниц или низкая скорость загрузки. Уже давно сеошники учитывают скорость загрузки сайтов конкурентов, чтобы обойти их в ТОП. Только в 2020 году Google конкретно заявил, что в 2021 году для ранжирования сайтов станут достаточно важными факторы Web Vitals: скорость загрузки, интерактивность и визуальная стабильность. Доступность и качество ресурса невозможны без мониторинга, когда у вас хостинг в надежном дата-центре с грамотной поддержкой, которая готова оперативно отреагировать в случае экстренной ситуации. Очевидно, ссылки tier 2 и 3 на сетях сателлитов для продвижения в Google теперь тоже придется размещать только на надежных хостингах с хорошей поддержкой.

Все же специфические термины полезны для смежных с SEO профессий, они помогают более четко работать команде по продвижению сайта (сеошник, программист, контент редактор, интернет маркетолог и тд). Когда составляется план комплексного продвижения сайта, вырабатывается стратегия все члены команды должны знать SEO термины, даже про серые методы, сателлиты, tier 2 и понимать их.

Tu deviens responsable pour toujours de ce que tu as apprivois. (из повести Маленький принц Антуана де Сент-Экзюпери, 1943 г.)

Подробнее..

Recovery mode Гарантии в SEO миф! Или кто что обещает, и кто что реально может выполнить

16.04.2021 18:11:03 | Автор: admin

Выведение сайта в топ поисковой выдачи это тот результат, ради которого чаще всего заказывают SEO-услуги. Но обеспечить его могут не все. Есть компании, которые лишь создают видимость продвижения. Низкую эффективность объясняют жесткой конкуренцией, хотя при заключении договора гарантированно обещали место в топе. Чтобы избежать напрасных трат денег, давайте разбираться, является ли возможным гарантирование результата SEO-продвижения.

Почему клиенты требуют гарантии

Поисковое продвижение процесс постоянного обновления сайта согласно требованиям алгоритмов поисковых систем. Они регулярно модернизируются, в результате чего меняются факторы, которые способствуют выходу в топ. Соответственно, обновляются и методы раскрутки.

Не всегда владельцы сайтов способны компетентно оценить эффективность работ подрядчика или иметь в штате классного маркетолога. Поэтому, чтобы получить хоть какую-то уверенность, что деньги потрачены не зря, они требуют гарантии. Есть ли для этого основания? Разберемся.

Есть ли гарантии в SEO?

Сразу скажем, что на 100% эффективный результат не способно обеспечить ни одно, даже самое известное агентство. Но пообещать это может каждый. Нередко на сайте подрядчика можно увидеть: выведение в топ-3 за месяц, обеспечим вечные позиции в топе и пр. Клиенты зачастую ведутся на красивые обещания и уже готовы заключить договор на услугу. Но! Лозунги "SEO-продвижение с гарантией" это утопия.

Во-первых, невозможно давать гарантии, не изучив детально сайт клиента, его целевую аудиторию, нишу бизнеса и конкурентов. Кроме того, нужно проанализировать дополнительные факторы:

  1. Возраст ресурса. Поисковое продвижение молодых сайтов (существуют менее года) выполнить сложнее.

  2. Хостинг. Для успешной раскрутки лучше иметь выделенный сервер. Ресурсы, размещенные на общем хостинге, более уязвимы к вирусам.

  3. Улучшение или замена контента. Качество наполнения страниц является важным условием для успешного SEO. Контент должен быть уникальным, информативным, релевантным, включать в себя правильно подобранные ключи. Не всегда содержание сайта заказчика соответствует этим требованиям, и не каждый клиент согласен над ним работать.

  4. Бюджет. Если он ограничен жесткими рамками или в принципе меньше рекомендуемой суммы, то надеяться на быстрое СЕО-продвижение с гарантией выхода в топ не стоит.

Во-вторых, на раскрутку огромное влияние оказывает взаимодействие клиента и исполнителя. Если требуется выполнение рекомендаций подрядчика относительно совершенствования сайта, то лучше прислушаться. Расширение структуры и увеличение ассортимента могут упростить выведение в топ. Другими словами, крутой результат возможен, но только при условии тесного взаимодействия и совместной работы.

Фейковые гарантии на любой вкус: разбираем популярные

Почему мы, услышав какое-то фантастическое обещание, например, от продавцов очередного чудодейственного средства, способного исцелить от всех болезней сразу, не спешим скупать панацею? Правильно, потому что понимаем абсурдность подобных заявлений. По аналогичному принципу действует и SEO с гарантией. Чем круче результат обещают, тем осторожнее нужно быть. Обычно это просто красивые слова для привлечения доверчивых клиентов.

Фейковые гарантии можно встретить самые разные. В качестве примера разберем наиболее популярные обещания золотых гор, то есть места в рейтинге:

  1. Выводим в топ по сотням ключей. Это хитрый подход, который не всегда стоит расценивать как обман. Действительно, подрядчик вполне может использовать огромное количество ключевых фраз. Но конструкции бывают очень неожиданными, низкочастотными не факт, что большое число пользователей вообще их применяет.

  2. Результат за 7 дней! Часто эту фразу используют в контекстной рекламе или SEO-агентства на своих сайтах. Однако при заключении договора на сотрудничество подобных заявлений не будет.

  3. Вывод в топ навсегда. Стоит понимать, что алгоритмы поисковиков постоянно меняются, причем происходит это внезапно, из-за чего сайты в одно мгновение утрачивают свои позиции. На место ресурса в рейтинге влияют и другие факторы:

  • действия конкурентов;

  • качество работы исполнителя;

  • поведение клиентов;

  • проблемы в работе самого сайта и пр.

На фоне всего этого становится понятно, что навсегда это утопия.

Напоследок отметим, что продвижение это длительный, непрерывный и планомерный процесс. Выведение в топ и удержание позиций требуют грамотного подхода с изучением сайта и ниши, составлением стратегии и постоянным сопровождением.

На какие гарантии в SEO можно нужно рассчитывать

На фоне всех этих популярных обещаний-мифов возникает закономерный вопрос: А стоит ли вообще на какой-то прогнозируемый результат рассчитывать? Да! Гарантии в SEO-продвижении возможны, если речь идет о проделанных работах и качестве услуг.

Рассмотрим ниже, какие виды SEO-гарантии могут себя оправдать.

Оплата за конкретный результат

По-другому бинарные гарантии. Они позволяют прогнозировать выведение определенного процента ключей в топ, улучшение видимости ресурса за определенный период, рост трафика и пр. Правда, эти моменты не всегда упоминаются в договорах. Стоит разобраться, какие нюансы существуют.

Гарантия выхода в ТОП

Как мы говорили, применение низкочастотных ключей даже в большом количестве может вывести сайт на первую страницу поисковика. То есть данное обещание будет выполнено. Но это отнюдь не является залогом роста продаж. Объяснение простое: клиенты будут переходить на сайты конкурентов по более высокочастотным запросам, а значит, вы потеряете большую долю рынка.

Совет: при согласовании стратегии стоит уточнить у подрядчика, по каким запросам он планирует продвигать ресурс. В идеале исполнитель должен предоставить обширное СЯ с релевантными ключами и указать их популярность.

Плата за трафик

Если не вникать в подробности, этот подход может показаться клиенту интересным. Оплата за трафик, то есть за реально привлеченных посетителей, а не за позицию в топе, вроде бы сулит выгоду. Но есть нюансы:

  1. Увеличение трафика не гарантирует рост конверсии. То есть нецелевые посетители будут переходить на сайт, выходить из него, не совершив покупки, а вы будете за это платить своему подрядчику. Какой смысл тогда в таком продвижении?

  2. Бывает, что агентство хитрит и считает весь трафик, а не конкретное количество посетителей, которые были реально привлечены за счет SEO-продвижения.

Совет: чтобы гарантия себя оправдала, обращать внимание нужно не на показатели статистики, а на конверсию, то следует учитывать, конвертируется ли приходящий трафик в лиды.

Гарантия возврата средств

Обычно сводится все к следующему: если СЕО не принесет результата, то клиенту вернут деньги за услуги продвижения. Обещать такое могут в 2-х случаях: агентства-новички, не способные здраво оценить свой потенциал, или крупные компании лидеры рынка, для которых не является существенной потеря средств за 1 заказ, и они сознательно закладывают вероятные риски при расчете сметы.

Также есть на рынке услуг и студии, которые нигде не фиксируют свои обещания. В случае вопросов они найдут аргументы, что выполнили все необходимое, а несоответствие результата вашим ожиданиям это не их проблема.

Плата с процента от продаж

Такую схему оплаты тоже обычно предлагают молодые агентства или слишком амбициозные сеошники. Кажется, это удобно: вам приводят лиды, а вы отчисляете процент с продаж. Но есть сложности:

  • первые покупатели могут появиться даже через несколько месяцев. Конечно, агентство не будет столько времени работать впустую, оплата все равно будет взиматься;

  • опытные специалисты, которые точно понимают, что ваш бизнес прибыльный, потребуют солидный процент (долю вашего бизнеса).

Другими словами, при подобной схеме придется либо работать по абонплате, либо делать подрядчика партнером. Варианты посредственные лучше не связываться с агентствами на подобных условиях.

Гарантия качества выполненных работ

Другими словами, подрядчик может обещать выполнение обусловленных задач. Именно такие гарантии даем мы своим клиентам.

Среди основных:

  1. Соблюдение условленного срока работ. Обещание подкрепляется юридическим договором.

  2. Предоставление заказчику доступа в онлайн-кабинет, где отслеживается течение работ.

  3. Привлечение к SEO-продвижению только лучших исполнителей.

  4. Использование белых подходов к раскрутке.

  5. Своевременность выполнения задач, прописанных в договоре.

  6. Предоставление еженедельного отчета по поисковому трафику и ежемесячного по KPI.

Мы не делаем громких заявлений о выведении в топ по сотням ключей или 200300% профита за 7 дней. А прогноз формируется после аналитики и аудита, а также составляется план раскрутки, определяется объем работ по внешней и внутренней оптимизации.

Плата за KPI

Есть агентства, которые предпочитают подобный формат сотрудничества. Среди ключевых параметров:

  • коэффициент, обозначающий окупаемость инвестиций (Romi);

  • видимость веб-сайта по СЯ;

  • конверсия;

  • целевые действия посетителей;

  • лиды.

Главной проблемой SEO-продвижения с оплатой за KPI является отсутствие комплексности. Исполнитель может выбрать наиболее выгодный для себя параметр, чтобы продемонстрировать заказчику красивые цифры и получить вознаграждение. Чтобы понять эффективность SEO, нужно KPI оценивать комплексно.

Обычно агентства, обещая продвижение сайта в топ с гарантией, используют лишь 3 показателя:

  • выведение в топ-10 по ключам;

  • привлечение трафика в прогнозируемом объеме;

  • получение лидов по определенной стоимости.

Порой этих параметров KPI достаточно. Но есть проекты, в которых может потребоваться оценка и других характеристик.

Признаки надежного подрядчика

Редко какой владелец онлайн-бизнеса разбирается в нюансах SEO-продвижения. По этой причине они склонны верить обещаниям исполнителя, надеясь на его профессионализм. Однако нужно уметь здраво определить надежного подрядчика. Даем чек-лист, по которому можно оценить исполнителя:

  1. Предоставление индивидуального предложения, а не словесных SEO-гарантий.

  2. Избирательность. Если у подрядчика имеются десятки проектов различной направленности, то стоит обходить такого мастера на все руки стороной: велика вероятность, что вашему сайту не уделят должного внимания и станут применять лишь базовые способы СЕО-продвижения. В Elit-Web, например, другой подход. Компания не берет проектов сверх тех, которые может продвигать, приложив максимум усилий.

  3. Цена на уровне средней или выше. За небольшие деньги реально лишь найти исполнителей, использующих черные методы продвижения, что является прямой дорогой в бан от поисковика. Ориентироваться стоит на средние расценки по рынку.

  4. Реальные кейсы. Портфолио лучший аргумент в пользу профессионализма подрядчика, который действительно способен обеспечить гарантии в SEO. Кейсы должны быть свежими и подробными, сопровождаться отзывами заказчика.

  5. Вовлеченность команды. Над продвижением должен работать целый штат специалистов: программисты, копирайтеры, менеджеры, сеошники, интернет-маркетологи и пр.

  6. Техподдержка. Для каждого проекта назначается персональный менеджер, который на связи 24/7.

  7. Прогресс в развитии студии. Понять это можно по новостям и блогу на сайте агентства. Свежая информация о посещении тематических мероприятий, обучении на курсах, выступлениях это положительный признак.

  8. Предоставление пошагового детального плана продвижения. Отсутствие конкретики или перечисление базовых задач явно не заслуживают доверия.

  9. Прозрачный бюджет. Вам должны предоставить детальный отчет по стоимости услуг и статьям расхода средств.

Подводя итог, отметим, что кое-какие гарантии SEO-продвижении все-же возможны. И мы используем их в своей работе. Но в SEO можно дать гарантии только на качество работ, соблюдение сроков, индивидуальный подход, и ориентиры на комплекс показателей KPI.

Все остальное, включая выход в топ за неделю и 300% профита за день это пустой пафос.

Подробнее..

Recovery mode Когда можно обойтись без SEO или каким проектам поисковая оптимизация не нужна

11.11.2020 18:11:34 | Автор: admin

Мы стараемся всегда говорить клиентам только правду, излишне их никогда не обнадеживать и не браться за SEO, если не уверены в его результатах. Наш опыт работы с различными интернет-проектами показал, что для одних проектов SEO must-have, а для других пустая трата денег. В ряде случаев на поисковой оптимизации можно сэкономить, обратившись к другим способам продвижения. Как раз об этом мы и хотим рассказать в этом материале.

Когда нет смысла использовать SEO

Таких ситуаций, в которых поисковая оптимизация бесполезна, довольно много. Мы собрали самые типичные из них.

1. Вы предлагаете новый, уникальный продукт, на которые не сформирован спрос

Если ваш продукт только-только выходит на рынок и представляет собой нечто революционное продвигать его по поисковым запросам проблематично. Очевидно, что люди еще ничего не знают о нем, и поэтому не ищут.

Вы можете сами проверить спрос на товар или услугу, воспользовавшись бесплатным сервисомwordstat.yandex.ru.

Хотя, пожалуй, этот пункт не так однозначен, как казалось бы. Если продукт новый, но уже входит в сферу сложившихся интересов достаточно широкой аудитории продвигать его можно, используя околоцелевые и информационные запросы.

Например, вы выводите на рынок инновационное средство от прыщей. О нем еще никто не знает, но целевая аудитория активно интересуется как избавиться от прыщей. На этой основе можно проработать группу ключевых фраз. По ним придут люди, которые ищут решение своей проблемы или просто изучают информацию, а эту аудиторию уже можно конвертировать в клиентов вашего бизнеса.

Эффективным инструментом для вывода совершенного нового продукта на рынок одновременно с продвижением по околоцелевым запросам может стать реклама на площадке Яндекс.Дзен.

2. Низкий спрос на продукт

Бывает обратная ситуация когда продукт существует давно, но спрос на него крайне мал.

Если спрос на товар или услугу невелик, значит и трафик в поисковых системах ограничен. Круг людей, ищущих что-то подобное, так незначителен, что вкладывать большие средства в SEO не имеет смысла. Вложения попросту не окупят себя.

Поисковая оптимизация при отсутствии сколько-нибудь заметного спроса задействуется лишь в самых исключительных случаях. Например:

  • Если ваш продукт стоит дорого или очень дорого, то даже при низком спросе на него вложения в SEO могут окупиться.

  • Если конкуренция в каком-то сегменте не очень высокая, то и вложения в SEO могут быть небольшими и также смогут окупиться.

3. Спрос на ваш продукт устойчиво снижается

Спрос явление непостоянное. Он зависит от меняющихся потребностей людей, моды и сезонных факторов. Когда аудитория теряет интерес к тому или иному продукту, динамика поискового спроса показывает устойчивый нисходящий тренд. В такой ситуации вкладываться в SEO рискованно пока вы занимаетесь раскруткой, спрос может упасть до нуля.

Поэтому важно следить за трендами это не просто модное слово, а значимый маркетинговый фактор.

Практически ни один продукт не защищен от падения спроса. Яркий пример спиннеры, которые резко ворвались на рынок и в настоящее время выходят из моды.

4. ТОП выдачи занят крупными площадками

Очень сложно продвигаться в нише, где ТОП-10 поиска занят сайтами-агрегаторами, маркетплейсами, досками объявлений, информационными или новостными ресурсами. Это крупные площадки, конкурировать с которыми крайне затратно и зачастую бессмысленно.

Поисковые системы отдают предпочтение крупным агрегаторам и маркетплейсам, поскольку они обладают развитой структурой, предлагают пользователям большой выбор, а в силу развитой конкуренции здесь более низкие цены.

Такие популярные сайты как Авито, Авто.ру, Циан или Wildberries привлекают огромный трафик и имеют высочайший авторитет в плане цитируемости (упоминания).

Так стоит ли даже пытаться бороться с мастодонтами? Если вы видите, что в выдаче, помимо агрегаторов, нет ваших прямых конкурентов это свидетельствует о том, что крупные площадки собирают основной трафик. А значит, нужно идти и раскручиваться на них то есть использовать эти площадки как каналы продаж.

Но навязать конкуренцию маркетплейсам и доскам объявлений, все же, можно например, через альтернативные и менее конкурентные запросы, по географической привязке (местным сайтам люди доверяют больше), а также через расширение ассортимента и копирование главных конкурентных преимуществ больших площадок.

5. Ваш ассортимент значительно меньше, чем у конкурентов

Наличие широкого ассортимента одно из важных конкурентных преимуществ бизнеса. Людям нужен выбор, они любят сравнивать и выбирать из большого количества предложений. Это позволяет находить нужное по лучшей цене.

Поэтому, если на вашем сайте представлено 5 кукол, а у конкурентов их тысяча вкладываться в SEO на данном этапе не следует. Нужно сперва проработать ассортимент расширить его за счет новых позиций, в том числе тех, которых нет у ближайшего конкурента.

Если не заниматься расширением ассортимента, продвигаться будет сложнее и дороже. Поведенческие факторы будут работать не в вашу пользу, да и конверсия окажется низкой, так что вложения могут не окупиться.

6. Ваш продукт проигрывает в соотношении цена-качество

Не увенчается успехом продвижение сайта, на котором представлены товары или услуги заведомо более низкого качества по той же или более высокой цене, чем у конкурентов.

Современные пользователи хорошо ориентируются в ценах и имеют возможности выбора. Они доверяют сайтам с гарантиями и реальными отзывами, поэтому почти всегда выбирают оптимальное сочетание качества и цены.

Если вы предлагаете детские коляски безвестной китайской марки по ценам итальянских брендов, покупатели наверняка уйдут к конкурентам, где за те же деньги можно купить проверенное качество.

В этом случае даже, если SEO сработает и принесет вам много трафика, оно не будет конвертироваться в продажи. А следовательно, теряется весь смысл продвижения.

7. У вас нет уникального торгового предложения (УТП)

Прежде чем вкладываться в SEO, следует хорошенько поработать над маркетингом в частности продумать УТП. Ваше предложение должно чем-то выгодно отличаться от всего, что предлагают конкуренты, чтобы также обеспечить конверсию.

Сильной стороной может быть качество или цена, удобная доставка или профессиональная консультация, или самый большой ассортимент в нише. Еще лучше добавить некую ценность, которую не смогут скопировать конкуренты.

Если вы занимаетесь установкой входных металлических дверей и знаете, с какими трудностями сталкиваются заказчики в вашем районе (нестандартные проемы, необходимость дополнительной отделки) предложите им комплексный продукт, включающий нестандартную дверь с отделкой под ключ по цене типового продукта. В этом случае SEO сработает и обеспечит желаемую конверсию.

8. Вы не желаете или не имеете возможности дорабатывать сайт

SEO-специалисты отнюдь не волшебники, да и поисковые системы сегодня не дают творить чудеса (например, массовыми закупками текстов и ссылок).

Современная поисковая оптимизация предполагает приведение сайта в соответствие с требованиями и ожиданиями пользователей. Кроме того, часто требуется изменение структуры ресурса, создание каких-то новых разделов и страниц, доработки функционала. В рамках продвижения ведется наполнение контентом, осуществляются технические настройки.

Поэтому, если вы не готовы дорабатывать сайт, как того требует SEO-специалист, то, вероятно, не стоит начинать поисковое продвижение. Альтернативное решение настроить контекстную рекламу.

9. Нет денег, маленький бюджет

Нужно понимать, что SEO это трудоемкий и долговременный процесс, требующий вложений. Средства вкладываются, в том числе, в доработку сайта и создание контента. К тому же, конкуренция в поиске такова, что с маленьким бюджетом трудно рассчитывать на большой результат.

Бывает так, что все ресурсы вложены в создание и запуск сайта. Оставшиеся средства ушли на контекстную рекламу и социальные сети но выхлопа нет. Принимается решение хоть как-то продвигаться в поиске. Однако, если у вас нет бюджета на продвижение или он крайне ограничен не стоит надеяться на SEO, чудес не бывает.

Если денег нет, советуем попробовать осваивать поисковую оптимизацию самостоятельно или с привлечением менее раскрученных и распиаренных агентств или специалистов.

10. У вас одна посадочная страница в высококонкурентной тематике

Ваш лендинг может быть успешен в низкоконкурентной нише. Но в тематике с высокой конкуренцией он, вероятнее всего, проиграет многостраничным сайтам.

Чем сложнее и конкурентнее тематика, тем больше требований предъявляется к сайтам, к количеству и качеству страниц. Для полноценного развития сайта часто на нем требуется создавать отдельные страницы, оптимизированные под соответствующие запросы.

Например, даже если вы предлагаете услуги эвакуатора можно выделить разделы Легковой эвакуатор и Грузовой эвакуатор, а также создать региональные страницы (Эвакуатор в Коломне, Эвакуатор в Серпухове и т. д.).

Заточенный под конверсию, лендинг весьма ограничен в оптимизации. Для продаж с одностраничника рекомендуем все-таки использовать контекстную рекламу.

11. Нет никаких альтернативных каналов продаж, а продажи нужны сразу

Не стоит делать ставку на SEO, когда нет больше никаких каналов продаж, а заказы нужны здесь и сейчас. Чтобы получить результат от поисковой оптимизации, требуются немалые ресурсы в виде бюджета и времени. Поэтому, иногда прежде чем вкладываться в SEO, разумно сосредоточиться на тех каналах продвижения, которые могут обеспечить быстрые продажи.

Например, чтобы запустить онлайн-школу английского языка, лучше первоначально вложиться в социальные сети и настроить контекстную рекламу, а также использовать рассылки и другие подобные инструменты раскрутки.

Нужно ли вам SEO?

Как видите, ставка на SEO не всегда оправдывает себя. Поисковая оптимизация длительный и ресурсоемкий процесс, который приносит плоды, но только при определенных условиях. Если они заведомо невыполнимы, вы рискуете потерять и деньги, и время. Выбирайте исполнителей, которые вводят клиентов в курс дела и предоставляют объективную информацию о возможностях продвижения сайта, о потенциальных точках роста и перспективах его развития.

Подробнее..

Склонение фраз по падежам

24.03.2021 00:15:52 | Автор: admin

В бытность мою сеошником, прости господи, часто нужно было приводить различные фразы к различным падежам. Т.к. сейчас уже я довольно далек от темы продвижения сайтов, а наработок осталось много, хочу поделиться некоторыми. В частности сегодня, отдаю в свободное пользование тему для склонения фраз по падежам. Склонять можно в единственном и множественном числе.

В отличие от некоторых популярных сервисов, фразы склоняются нормально. И правильно.

Например, офисное оборудование - довольно геморройная фраза, т.к. стандартными средствами она склоняется, как офисными оборудованиями. У меня склоняется вот так:

{"PREP":{"O":"об","S":"с","V":"в"},"SINGLE":{"ORIGINAL":"офисное оборудование","GENT":"офисного оборудования","DATV":"офисному оборудованию","ACCS":"офисное оборудование","ABLT":"офисным оборудованием","LOCT":"офисном оборудовании"},"PLURAL":{"ORIGINAL":"офисное оборудование","GENT":"офисного оборудования","DATV":"офисному оборудованию","ACCS":"офисное оборудование","ABLT":"офисным оборудованием","LOCT":"офисном оборудовании"}}

В prep приводится то, какой предлог должен стоять перед фразой. ОБ офисном оборудовании, например. СО свежей рыбой и т.д.

Далее идет склонение по падежам для единственного и множественного числа. Не всегда распознает четко, поэтому, если есть начальные данные по числу, лучше отправлять в единственном.

Есть еще небольшая приблуда для перевода числа в текст. Нужно для чеков, накладных и т.д. Выглядит примерно так:

{"DIGIT":{"ORIGINAL":"123456789.65","STRING":{"FULL":"сто двадцать три миллиона четыреста пятьдесят шесть тысяч семьсот восемьдесят девять рублей 65 копеек","SHORT":"сто двадцать три миллиона четыреста пятьдесят шесть тысяч семьсот восемьдесят девять"}}}

Как использовать

Для перевода числа в текст, нужно GET запросом обратиться к
http://cityninja.ru/morpher/digit/123456789.65/.

Для склонения фразы, нужно обратиться через GET к
http://cityninja.ru/morpher/солнечный день/

Раньше уже публиковал эту тему на Сёрче. Сейчас пользуются примерно по 1.6 - 2 млн запросов в месяц. Нагрузки это не генерирует вообще никакой.

Для чего можно пользовать? Например на страницах интернет-магазинов, где желательно использовать H1, H2, H3 заголовки, можно делать таким макаром...

H1 - Стиральная машина Blabla H24-57
H2 - Купить стиральную машину Blabla H24-57 в Екатеринбурге с доставкой
H3 - Интересуетесь стиральными машинами Blabla H24-57? Их есть у нас.

Т.к. Яндекс для магазов генерит около 70% трафика, при этом Яндекс раздупляет правильность склонений и т.д. Против роботов нужно работать роботам.

В общем, пользуйтесь. И да, это бесплатно и останется бесплатно.

Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru