. «Прямая линия» с Олегом Саламахой (Serpstat): отвечаем на вопросы
«Прямая линия» с Олегом Саламахой (Serpstat): отвечаем на вопросы

«Прямая линия» с Олегом Саламахой (Serpstat): отвечаем на вопросы

«Прямая линия» на SEOnews набирает обороты: переходим от представителей агентств к сервисам. Ближайшую неделю ваших вопросов ждет основатель и идеолог многофункциональной SEO-платформы Serpstat Олег Саламаха.

Пресс-портрет
  • Основатель и идеолог Serpstat — многофункциональной SEO-платформы для анализа конкурентов, подбора ключевых фраз, мониторинга позиций, кластеризации и текстовой аналитики, анализа ссылок и SEO-аудита сайта.
  • Эксперт по автоматизации процессов связанных с рутинной работой SEO-специалистов.
  • Занимается автоматизацией SEO-процессов с 2009 года.
  • Опыт руководства IT-продуктом — 4 года.
  • Постоянный спикер профильных конференций в СНГ: 8P, BalticDigitalDays, SEMPRO, SEOCONF.

В ходе «Прямой линии» Олег готов ответить на вопросы, посвященные:

  • Автоматизации процессов продвижения сайта.
  • Быстрому выводу IT-продукта на Западный рынок.
  • Оптимизации процесса коммуникации между всеми департаментами компании.
  • Исследованию алгоритмов ранжирования.
  • Текстовой аналитике и кластеризации: лайфхакам, автоматизации, ценности.
  • Лайфхакам для рутины SEO-специалиста.

Традиционно на сбор вопросов отводим неделю: с 5 по 12 декабря включительно. Ответы будут опубликованы до конца декабря.

Учитесь новому, возможность роста есть всегда. Главное найти то, что интересно и приносит профит.

Отдыхайте на выходных.

Если не справляетесь, берите помощника.

Разговаривайте с другими людьми: с коллегами, с подчиненными, с коллегами по рынку. Всегда все могут договориться и узнать что-то новое.

Не используйте лайфхаки в работе :)

Вопрос по OnPage SEO

Карточка товара в интернет магазине. На ней несколько блоков перелинковки (похожие товары, ТОП-селлеры данного бренда и т.д)

Перелинковка организована рандомно. Зашел на страницу - в этих блоках 20 ссылок на одни товары. Обновил - 20 ссылок уже на другие товары.

Считаем, что для индексации это неплохо. Гугл бот проходит по разным ссылкам каждый раз, сканирует больше разных страниц за заход и т.д.

НО! Плохо ли для ранжирования таких страниц?

Если смотреть по коду, то эти 20 ссылок (с картинками, прописанными альтами) составляют немалую долю всего HTML контента страницы. Особенно если у товара скудное описание.

И получается, что гугл бот когда сканирует такую страницу видит каждый раз чуть иной контент.

Как быть? Выводить такие блоки скриптом? Чтобы для пользователя они были, а гугл их не видел? И забить на такую товарную перелинковку в карточках?

Сразу говорю, что отключить рандом и для каждой карточки товара выводить фиксированные ссылки на другие товары - не вариант.

Как быть с учетом того, что у нас в этих блоках всегда рандом?

1. Я думаю, что да, так как уже на этом этапе можно заложить фундамент для того, чтобы получать хороший трафик.

2. Нужно исследовать локальных конкурентов, ведь именно с ними вам придется конкурировать, а не с соседним аутсорсом.

3. На самом деле это тема для отдельной статьи.

Ну конечно нужен. Нужен ли аутсорс с полным циклом разработки? Да. Потому что есть примеры успешных компаний, которые занимаются этим. Дорого, сложно, долго, но можно выходить в США с этой услугой.

1. Когда появляется рутина — наймите помощника.

2. Научитесь писать элементарные скрипты на питоне. Потраченный месяц на обучение вернется очень быстро в виде профита.

Столкнулись с такой проблемой, что после оптимизации сайта 2 поисковые системы (Google и Яндекс) по-разному ранжируют наш сайт. Google ставит в сниппет наши description, страницы поднимаются в поиске, все хорошо. Яндекс же, наоборот, не только не устроило наше описание, но и вообще выкинул сайт из первой страницы. Как лучше поступить: делать акцент на одной поисковой системе или находить баланс между двумя поисковиками?

Дано: сайт https://autobooking.com, бизнес работает уже в 4 странах, еще + 5 запустятся в 2018. Домен один. Продвижением каждая страна занимается самостоятельно (через агентства). В случае фильтра, его получит весь сайт и пострадают бизнесы во всех странах.

Вопрос: как максимально обезопаситься? Какие правила нужно прописать для всех стран или что лучше сделать?

Вопрос по текстам. Ориентация на Яндекс. Регионы по Сибири.

При анализе всех проектов по всем ключевым фразам вижу, что: - выдача Яндекса сильно отличается от того, о чем они говорят и пишут: как были сео-тексты, так и встречаются, спама - море бывает, неестественные вхождения есть, даже жирным ключи кое-где выделяют, местами даже почти бессвязным перечнем кидают и ничего - в топе ли 20-ке. - топ по каждой фразе бывает слишком разношерстный: где вообще нет текста, где простыня на 10 тыс. без пробелов; где тошнота зашкаливает, где выглядит естественно; где содержание хорошее, где сплошная вода о современном мире или даже не соответствие интенту - а в топе.

Стараюсь делать тексты полезными, отвечающими на запрос, без спама и неестественности, но почти всегда находятся корявые спамные сайты, которые то там, то тут обходят. Понятно, причины могут быть в других факторах, но все же, как в таких условиях адекватно анализировать тексты и составлять ТЗ на копирайтинг?

По поводу того, что говорят и пишут ситуация следующая: есть набор факторов, которые влияют на топ, попадают ли сайты в выдачу или нет. Нельзя просто копировать поведение других, нужно всегда придерживаться какой-то методики. Все рекомендуют сделать так, чтобы не навредить вашему сайту. Соответственно это касается текстов и выделения жирным.

Если у сайта есть траст, он старый, множество хороших бэков и он разместил seo-текст с жирным выделением, то для него ничего плохого может не произойти. Но если бы это сделал молодой сайт, то можно получить фильтр и прочее. Не для всех всё одинаково работает. Есть множество факторов, который тянут вверх или вниз сайт.

Во-вторых, вы не можете наверняка узнать: тянет ли вниз или вверх данный текст сайт. Сайт может быть в топе, при этом понижающие факторы могут быть из-за текста. Вы про это никогда не узнаете.

Опять же вторая часть вопроса заключается в том, что всегда есть сайты, которые будут в топе. Я рекомендую подход, который мы используем в нашем текстовом анализаторе: не смотреть и не анализировать вообще сайты в “красных зонах”, которые попадают или в сильный плюс, или в минус. Просто выбрасываете вручную или автоматом сайты без текста/с большими текстами. Анализируйте только “золотую середину”.

📎📎📎📎📎📎📎📎📎📎