Image Image Image Image Image Image Image Image Image Image

Блог Indigo | 09.08.2020

Наверх

Наверх

SEO
Нет комментариев

Оптимизация сайта для поисковиков – технический аспект

Оптимизация сайта для поисковиков – технический аспект

Поисковые системы сильно ограничены в том, как они видят страницы сайтов и интерпретируют их содержание. Зачастую тот вариант, который видит поисковик, кардинально отличается от того, который виден человеку. Почему так происходит и как выглядит оптимизация для поисковых систем?

Эта статья будет очень полезна владельцам сайтов и начинающим оптимизаторам, потому как в ней мы попробуем разобраться, как же выглядит подходящий для поисковой оптимизации ресурс.

Создание сайтов, дружественных к SEO

Начиная работать с ресурсом, который будет оптимизирован под поисковые системы, необходимо разобраться, как поисковик будет видеть и интерпретировать веб-страницы и размещённые на них материалы.

Чтобы поисковые машины увидели наиболее важный и нужный контент сайта, он должен быть под них оптимизирован. Лучше всего, если все значимые блоки будут представлены в текстовом формате HTML. Для SEO просто убийственно помещать все описания страниц и контент на них в изображения, Flash, Java и другой не текстовый формат. Таким образом вы делаете невидимым для поискового паука наиболее важную и значимую информацию – текст.

Необходимо уточнить, что использование разнообразных дополнений может стать полезным для сайта за счёт повышения симпатии пользователей, но хорошо работать это будет только если текст открыт для поисковиков. Чтобы поисковые системы увидели не текстовый контент сайта, также существует несколько способов, которые используются при оптимизации:

  1. Для изображений: использование атрибута alt для тега img, в котором описывается содержание картинки (потом поисковики именно по этому тексту осуществляют поиск по изображениям).
  2. Flash и Java лучше дополнять описаниями и комментариями с пояснениями.
  3. Видео- и аудиоматериалы желательно подписывать; также возможно размещение всей текстовой части, присутствующей в контенте, если она важна для результатов в выдаче.

Посмотрите на сайт глазами поискового робота

Многие сайты, размещённые в Интернете, имеют проблемы с индексацией, и, как следствие, с выдачей, потому что они не оптимизированы для поисковых систем.

Часто возникает ситуация, что страница прошла полное обновление и оптимизацию, а результата, повышения в выдаче, не видно. Зачастую это происходит из-за того, что в кэше поисковой системы не была сохранена новая версия материала, то есть, поисковик просто не знает о том, что контент был обновлён. В таком случае необходимо посмотреть, как выглядит в кэше страница и, если на сайт действительно давно не заглядывал поисковый робот, вручную добавить страницу в индекс.

Сделать это можно, добавив адрес веб-страницы в конце этого адреса: http://google.com/search?q=cache:.

Как посмотреть сохранённую в кэше версию сайта

Так выглядит в кэше сайт google.com.ua


Проверьте, как видят страницы сайта поисковые системы

Вторая проблема, которая часто возникает, – поисковая система просто не видит тот контент, который расположен на сайте. Ниже показан скриншот, как люди видят официальный сайт Джима Керри:

Не оптимизированный под поисковики сайт Джима Керри
Вид сайта jimcarrey.com в браузере

А с помощью сервиса seo-browser.com можно увидеть, как выглядит для поисковика эта красочная главная страница:

Так видит сайт jimcarrey.com поисковик

Вид сайта jimcarrey.com для поисковика


Как мы можем видеть, на сайте поисковик даже не видит ссылки на разделы, которые просто спрятаны от него, а также текст в них, потому как они не оптимизированы для этого. Таким образом, создавая красивый сайт, необходимо проверять, как видят его поисковые машины. Потому что весь текст, релевантный и содержащий ключи, может быть просто бесполезным.

Ошибки в структуре

Очень много говорится об уровне вложенности страниц, но часто забывается такое простое понятие как взаимосвязь страниц. Например, зайдя на сайт, поисковая машина видит лишь две страницы, на которые ведут ссылки, переходит по ним и добавляет в индекс. Но существуют ещё две странички, на которые не ссылается ни одна из предыдущих. Таким образом, они просто не могут быть проиндексированы, потому как перейти на них невозможно.

В каких случаях поисковая система не увидит страницы сайта:
  1. Если доступ открыт только авторизованным пользователям. Поисковик не будет пытаться зарегистрироваться, а просто покинет страницу.
  2. Если ссылка скрыта JavaScript. Такие ссылки неохотно воспринимаются роботами и лучше их продублировать в HTML.
  3. Если в robots.txt закрыт доступ.
  4. Если на большинство материалов отсутствуют прямые ссылки.
  5. Если ссылка на страницу расположена среди тысячи других. Скорее всего все материалы по таким ссылкам не проиндексируются.

Ссылки rel="nofollow"

Использование rel="nofollow" сообщает поисковым системам о том, что ссылку не надо добавлять в индекс, что очень помогает в оптимизации и продвижении. Этот атрибут возник как способ противодействия ссылкам в комментариях, которые использовались для поднятия рейтинга за счёт блогов и сайтов с открытыми обсуждениями.

На большинстве сайтов существует запрет на размещение ссылок или же они закрыты от индексации, но есть и dofollow блоги, в которых линки ставятся свободно или же после того как заслужишь авторитет благодаря активному участию в обсуждениях.

Несмотря на то, что такие поисковые системы, как Google, утверждают, что закрытые ссылки ничего не значат для повышения рейтинга страницы, а роботы, их, зачастую, игнорируют, опытным путём было выявлено, что в результатах выдачи те страницы, которые находятся в ТОП, имеют больше nofollow-ссылок с других ресурсов по сравнению с сайтами с худшими результатами в выдаче.

Дополнительно также известно, что даже закрытая ссылка с уважаемого ресурса, как, например, Википедия, добавляет поисковику доверия к сайту.

Структурированный robots.txt

Как мы уже говорили выше, по каким-либо причинам некоторые страницы могут быть закрыты от поисковых систем в файле robots.txt, что значительно помогает в оптимизации. В то же время с помощью этого файла можно открыть страницы, которые должны быть проиндексированы. То есть, с помощью хорошо структурированного robots.txt можно «управлять» поисковыми роботами.

Использование мета-тегов

  • noindex – запрещает индексацию страницы поисковиком (по умолчанию страницы доступны для индексации);
  • nofollow – запрещает поисковику переходить по ссылке (по умолчанию все ссылки воспринимаются как follow);
  • noarchive – запрещает сохранение страницы в кэше поисковика (по умолчанию все страницы сохраняются);
  • nosnippet – запрещает поисковику отображать сниппет (короткий текстовый блок под тайтлом в выдаче);
  • noodp/noydir – используется, если сайт зарегистрирован в DMOZ или Yahoo! Directory соответственно и запрещает вывод заголовков и описания в выдаче взятых из этих каталогов.

Использование этих мета-тегов позволяет объяснять поисковым роботам, как они должны видеть страницы сайта.

Инструменты для веб-мастеров

Поисковая система Google предоставляет универсальный инструмент для работы с сайтами – Инструменты для веб-мастеров. Его использование позволяет владельцу получать достоверную информацию о проблемах с ресурсом непосредственно от поисковой системы.

С помощью Google Webmaster Tools можно:

  • отслеживать появление проблем при сканировании страниц;
  • добавлять файл Sitemap;
  • создавать и тестировать robots.txt;
  • удалять URL из индекса поисковой системы;
  • проверять мета-теги на соответствие требованиям Google;
  • указывать основной домен сайта;
  • смотреть как Googlebot (поисковый робот);
  • получать сообщения о нарушениях на ресурсе и отправлять заявки на пересмотр и снятие санкций.

Для использования Инструментов для веб-мастеров необходимо зарегистрироваться на официальном сайте, добавить сайт с помощью соответствующей опции, выбрать способ подтверждения прав на ресурс и подтвердить их. После этих простых манипуляций станут доступны все преимущества Google Webmaster Tools.

Выводы

При оптимизации ресурса надо всегда учитывать, что люди и поисковые системы до сих пор очень по-разному видят одни и те же страницы. Создавая и улучшая сайт для пользователей, зачастую можно просто забыть о поисковиках, которые не смогут проиндексировать сайт, сделанный полностью на JavaScript или же закрытый в robots.txt.

Оптимизация сайта под поисковые системы предполагает наличие логичного структурированного контента, который взаимосвязан, удобен и интересен для пользователей и роботов.

Оставить комментарий