13 старых техник SEO, способных напугать
13 старых техник SEO, способных напугать
Ноябрь 9, 2017

Советы по исправлению некоторых трудностей, связанных с SEO

Советы по исправлению некоторых трудностей, связанных с SEO

Часто возникают трудности с СЕО? В этой статье вы сможете ознакомиться с некоторыми советами и приемами, которые помогут определить причины возникновения трудностей, помочь решить их.

Не стоит думать, что здесь вы увидите очередной перечень возможных проблем с поисковыми запросами, которые часто можно встретить на других сайтах. Здесь вы не найдете руководство по устранению трудностей, это просто список полезных советов.

1) Оператор поиска.

Очень часто [info: https: //www.domain.com/page] способна помочь определить разные проблемы. Использование этой команды показывает параметры индексации, определяет, находится ли страница в индексе. Поисковая система Google пытается бороться с дубликатами, поэтому при обнаружении дублированного контента эти страницы не обрабатываются по отдельности, а связываются с оригиналом. Команда, описанная выше, показывает каноническую версию, которую Гугл будет обрабатывать.

Если после использования этой команды вам отображает другую страницу с другим URL в результатах, значит проверяемая страница была дубликатом ранее проиндексированной (даже если вы увидели кэшированную версию другой вебстраницы). Такое может возникнуть при создании точных копий между языковыми парами в тегах hreflang, например, когда вы объединяете их в одну версию.

Проверка при помощи SERP с использованием поиск [info:] на одном домене/странице также может отобразить совершенно другой домен или вебстраницу. В начале этого года был известный конкурс Wix’s SEO Hero, где было продемонстрировано, как добавление чужого контента на известный и популярный ресурс стало причиной потери позиции оригинального сайта в SERP.

2) Добавление & filter = 0 в URL-адрес Google Search.

Эта команда позволяет сбросить все существующие фильтры, чтобы просмотреть вебстраницы, имеющие отношение к проверяемой. Таким образом, может появится две версии вебстраницы, что может свидетельствовать про наличие дубликата, не связанных в одно целое. Запись URL-адреса в таком формате отображает страницы, подходящие к ранжированию для выбранного запроса. Если их несколько, то стоит объединить их в одно целое с перенаправлением на одну, или разместить внутренние ссылки с дублирующих на основную, которая будет продвигаться в поисковиках.

3) [site: domain.com].

Команда [site: domain.com] отображает некоторые данные о вебресурсе. С помощью ее использования можно проверить индексацию вебстраниц, узнать, какие параметры повлияли на получение рейтинга, возможные проблемы с индексацией.

4) [site: domain.com keyword].

Эта команда позволяет проверить страницы, насколько они подходят для появления внешних или размещения внутренних ссылок. Также эта команда помогает проверить, есть ли на вашей странице в контенте подходящие части текста для добавления выбранного ключевого слова. Этот инструмент также хорош для оценки контекста конкурентов, вы сможете выделить в их текстах фрагменты с вставленными ключевыми фразами, чтобы понять, почему вы не можете добиться аналогичных результатов.

Указание в качестве ключевого слова целой фразы поможет узнать, проверяется ли ваш контент поисковой системой Гугл, что особенно полезно для сайтов, использующих JavaScript.

5) Статистический и динамический просмотр.

Работа с JavaScript может причинить некоторые трудности для проверки поисковыми ботами. Из-за использования JavaScript есть риск, что некоторые фрагменты кода боты не смогут просканировать и распознать. Поэтому достаточно важно иметь возможность проверить, будет ли иметь поисковик доступ ко всем элементам на страницах вашего сайта.

Пользуйтесь функцией «Проверить» вместо «view-source», чтобы определить загруженные элементы в DOM (Document Object Model). Для определения восприятия вашей страницы поисковыми ботами нужно использовать «Fetch and Render» в Google Search Console вместо кеша Google.

Полученные результаты проверки могут вас сильно удивить, ваша страница может отображаться неправильно. Не стоит думать, что это ошибка инструмента проверки, скорее всего есть проблемы с вашим кодом, например, использование тега hreflang в разделе может стать причиной появления проблем.

6) Проверка перенаправления и ответов заголовка.

Есть специальные инструменты, позволяющие проверить, насколько правильно происходит перенаправление, трассировка переадресации ссылок. Вы можете отследить выбранный путь, просмотрев файл-отчет «Ссылки на ваш сайт» в Google Search Console. Это позволит проследить всю цепочку перенаправлений, промежуточные страницы отображаются в отчете как «Промежуточная ссылка». Гугл всегда отслеживает ссылки, начиная от исходной страницы и заканчивая последней.

Проверка ответов заголовка достаточно важна, часто можно столкнуться с ошибками обработки кода из-за использования канонических тегов или тегов hreflang, которые могут конфликтовать с другими тегами на в коде. Также часто возникают ошибки с перенаправлением, если использовать заголовок с HTTP. Некоторые реализуют перенаправление со страницы при помощи JavaScript, не подозревая, что поисковые боты зачастую не способны перейти на другую страницу, что затрудняет проверку и оценку для прохождения индексации и ранжирования.

7) Проверка наличия наборов тегов.

Некоторые теги используются для разных частей кода, например, для HTTP-заголовок, раздел и файл Sitemap. Обязательно проверяйте отсутствие ошибок при их использовании, чтобы не возникало абсурдных ситуаций, например, одновременного использования noindex и мета-робот-тег для индекса.

8) User-Agent Switcher.

Проверка, как выглядит ресурс в глазах поисковика, — часто необходимо для понимания возможных проблем с ресурсом. Она способна выявить проблемы с перенаправлением, кешированиям и т.д. Есть множество инструментов для оценки страниц, одним из них является плагин User-Agent Switcher от Chrome. Лучше всего проверять в режиме инкогнито, это поможет определить сложности с перенаправлением, например, из-за принадлежности бота другой стране.

9) Robots.txt.

Проверьте файл robots.txt на наличие заблокированных элементов. Например, вы можете обнаружить, что некоторые элементы вашей страницы не сканируются поисковыми ботами, они не видят ваши теги.

Также важно проверять, чтобы злоумышленники не нанесли вред, изменив параметры в robots.txt, например, создав проблемы с общим кэшированием при помощи dev-сервера.

Вы можете не понимать, почему одна или несколько страниц не проходят индексацию, пока не увидите, что в robots.txt стоит запрет на индексацию.

Избавьтесь от головной боли.

Настройте автоматическое тестирование, чтобы избежать появление проблем, если вы подозреваете, что некоторые ваши действия могут навредить. Например, вы планируйте изменить что-то в коде, что может повлечь нарушение работы всего сайта. Не стоит терять завоеванные позиции, перед принятием решения про внесение изменений, тщательно взвесьте все возможные последствия.

Итоги.

Разработка и продвижение ресурса — тяжелая и кропотливая работа, требующая слаженной работы разных специалистов. Любое изменение в шаблоне, коде может стать причиной появления проблем, поэтому нужно обязательно нужно проверять получаемые результаты.