В Интернете тексты в первую очередь являются мощнейшим инструментом для продвижения сайтов. Конечно, если это качественные SEO-тексты. Посему в сегодняшнем посте мы немного поговорим о вопросах оптимизации. А именно о тех ошибках в SEO, которые чаще всего допускают новички.
Продвижение сайта в поисковых системах похоже на ходьбу по канату с длинным шестом. Стоит неудачно отклонить шест вправо или влево, — и канатоходец полетит в самый низ поисковой ямы…
Канатоходцу «мешают» лишь естественные законы физики, которые, обладая навыками, можно быстро преодолевать. В оптимизации отыскать «золотую середину» не так просто:
- о том, где находится та самая «середина», конечно же, знает только Платон Щукин и ему подобные, но они тщательно охраняют свои тайны и постоянно обновляют их;
- все тот же Яндекс в своих рекомендациях напрямую запрещает «предпринимать какие-либо действия, направленные на искусственное улучшение позиции сайта в поисковой выдаче».
Конечно же, без частичного нарушения запрета из второго пункта ни один сайт не сдвинется с мертвой точки в поисковой выдаче. Главное - не переборщить и не «недоборщить». В основном оптимизаторы вынуждены действовать эмпирически, но ниже мы поговорим о тех SEO-ошибках, которые в 100%, если и не «загоняют» сайт под фильтры поисковиков, то уж точно не самым лучшим образом влияют на его индексацию и положение в выдаче.
Переоптимизация и недооптимизация текстов
Любой оптимизатор знает о том, что для того, чтобы поисковая система находила страницу по определенному ключевому слову, оно должно, как минимум, присутствовать на этой странице. В принципе, для низкочастотных запросов (как правило, до 1000 показов в месяц) этого достаточно. Чем выше частотность, тем большее количество раз запрос должен повторяться, причем, не только в неизменном виде, но и в склонениях.
Но если перестараться, то переоптимизированный текст не только ухудшит видимость страницы в выдаче, но и может способствовать ее попаданию в бан. Поисковые системы относятся к этому фактору все болезненнее. Например, если раньше Яндекс отлично индексировал страницы, частота ключей на которых составляла 5% от общего количества слов, то сегодня это уже немного перебор.
Юзабилити и дизайн как факторы, влияющие на SEO
Не секрет, что поисковики считают «полноценными» тех пользователей, которые задержались на сайте достаточно продолжительное время и посетили не менее 3-х страниц. Сайт может быть оптимизирован грамотнее некуда, но если он непривлекателен, неудобен для посетителей, то так называемые поведенческие факторы могут сильно затруднить победоносное шествие в ТОП.
Редиректы
Редирект (автоматическое перенаправление пользователя с одной страницы на другую) нужен в том случае, если, например, вы хотите перенаправить человека с устаревшей страницы на новую. Но если этим грешит буквально каждая вторая страничка, то стоит готовиться к тому, что поисковики увидят в этом «что-то неладное». И примут соответствующие меры. Такие SEO ошибки на сайте нужно вовремя находить и устранять. Помогут специальные сервисы и плагины.
Дубли контента
Дублирование страниц и текстов на сайте также негативно сказывается на поисковой выдаче. Эта проблема в основном возникает в двух случаях:
- текст в документе на сервере (в файле doc, pdf, txt) дублирует текст на страницах сайта;
- при создании сайта использована система управления контентом (CMS): в основном огрехи в виде дублирования целых страниц встречаются в бесплатных продуктах.
Выход: либо удалять дублирующие файлы, либо запретить их индексацию в файле robots (об этом — ниже).
Мета-теги
Мета-теги – это часть html-кода страницы, в которой прописывается ее название, краткое описание, ключевые слова. Это практически незаметно для посетителей, но очень важно для поисковых машин. Если мета-теги не прописаны корректно, то это затруднит индексацию и дальнейшее поисковое продвижение ресурса.
«Кривой» код
Две страницы для сайта могут выглядеть совершенно одинаково, но при этом их код будет сильно отличаться. Он может быть более или менее громоздким, находиться в одном файле или быть разбросан по разным. В нем моет быть много лишних элементов разметки и форматирования, которые не видны людям, но затрудняют работу поисковых роботов.
Отсутствие правильной перелинковки
Перелинковка – это проставление ссылок внутри сайта. Теория проста: чем больше вы хотите сакцентировать внимание на определенной странице, тем больше на нее должно вести ссылок. Это способствует переходам посетителей и является «путеводителем» для поисковиков.
Некоторые считают перелинковку дополнительной несущественной мерой, но на самом деле ее значение велико. Ее обязательно выполняет любой грамотный оптимизатор. Самые распространенные варианты перелинковки:
- «хлебные крошки», когда на каждой странице подробно показывается путь до нее от главной;
- «похожие статьи» на блогах — список ссылок под текстом;
- ссылки прямо в тексте.
Неуникальный контент
В первую очередь фильтры поисковиков, например, Яндекса (знаменитые АГС) заняты выявлением плагиата. Сайт с неуникальными текстами обычно попадает в бан. В индексе остается десяток или вообще одна страница. О дальнейшей оптимизации без предварительного вывода из-под фильтра не может быть и речи.
Игнорирование файла robots.txt
Файл robots.txt обязательно должен присутствовать и находиться в корневом каталоге сайта. Это своеобразная инструкция для поисковых машин, которая показывает им, что и как нужно индексировать. Если вообще не составлять файл robots.txt или допустить при его составлении ошибки, то могут возникнуть две наиболее распространенных проблемы:
- сайт не будет проиндексирован вообще, либо не будут проиндексированы его важные страницы;
- в индекс попадет конфиденциальная информация или дубли страниц.
Клоакинг
Клоакинг – это прием «черного» SEO, при помощи которого сайт показывает пользователю один текст, а поисковым роботам – другой. Клоакинг – очень грубое нарушение, которое чаще всего подводит сайт под фильтры поисковых систем. Он может присутствовать в разных вариантах:
- редиректы;
- использование «скрытого текста» (текст тем же цветом, что и фон, пиксельный текст и пр.).
Большое количество ссылок, ведущих на сайт
Сегодня поисковые системы очень хорошо научились отличать «естественные» ссылки от «покупных». Если в течение короткого времени на других ресурсах появляется большое количество ссылок на ваш, то это приводит не к оптимизации, а к пессимизации – понижении позиции в поисковой выдаче.
«Неправильные» ссылки
Если вы покупаете ссылки на внешних ресурсах для продвижения своего сайта, то можете столкнуться с такими проблемами:
- «временные» ссылки часто могут «мигать» — исчезать и появляться снова, что служит для поискового робота свидетельством их «продажности»;
- если со страницы, на которой стоит ваша ссылка, стоит еще несколько ссылок на другие сайты, то это снижает ее эффективность;
- «прогон» по каталогам сегодня имеет чаще негативный эффект: поисковики «знают» многие эти каталоги и «понимают», почему в них появляются ссылки.
Ссылки, ведущие с вашего сайта наружу
Создав сайт, конечно же, хочется получить от него максимальную отдачу, и, желательно, поскорее. Но любая реклама в виде индексируемых ссылок на другие ресурсы приводит к понижению позиции сайта, особенно молодого. Вообще, существует такое правило: с сайта должно вести не больше внешних ссылок, чем на нем есть страниц. А лучше на молодой ресурс не ставить чужие ссылки вообще. Или, по крайней мере, закрывать их от индексации.
«Битые» ссылки и ошибка 404
Если на сайте имеется много ссылок, при нажатии на которые посетитель попадает «вникуда», то это отрицательно сказывается на продвижении. Лучше, чтобы таких ссылок не было вообще.
Страница с ошибкой 404 (отсутствующая страница) не должна иметь никаких иных заголовков. Если робот видит заголовок у явно не существующей страницы, то индексация сайта затрудняется.
Проблемы технического характера
На сайте могут присутствовать иные проблемы, которые затруднят его продвижение:
- наличие вредоносного кода, который может быть занесен злоумышленниками или случайно с компьютера администратора;
- некачественные системы управления (CMS), которые перенаправляют посетителей на другие сайты, создают дубли и «кривые» коды;
- открытие страниц сайта ботнетами – «компьютерами-зомби», которые имитируют настоящих посетителей;
- на сайте находится слишком большое количество всплывающих окон, баннеров и других агрессивных рекламных элементов;
- полное отсутствие на страницах сайта текстового контента.
Возможные последствия
Каждая из вышеописанных ошибок SEO-проодвижения по отдельности может приводить к пессимизации – понижении позиций сайта в поисковой выдаче. Иногда они становятся препятствиями для индексации страниц сайта.
Если же имеет место одновременно несколько проблем, то сайт вполне может попасть под фильтры поисковиков, и большинство его страниц выпадет из индекса.
Самый простой способ избежать подобных неприятностей – нанять специалиста, который будет прицельно заниматься внутренней и внешней оптимизацией сайта. Исправление уже возникших проблем всегда обходится дороже и занимает больше времени, чем их своевременная профилактика.
Исправляйте ошибки вовремя, публикуйте уникальный интересный контент, грамотно покупайте ссылки – и вы обязательно сможете покорить ТОП!
Друзья, насколько для вас была полезна данная статья? Поделитесь своим мнением в комментариях.
Также рекомендую посмотреть видео о типичных SEO-ошибках от экспертов «Нетологии»:
И обязательно возвращайтесь на мой блог. Пошел готовить для вас новые интересные и полезные статьи. Ваш копирайтер-маркетолог Артем Кабанов.
Подойдет для первоначалки, а потом уже можно и более серьезным заниматься. Хотя и тут и в день можно не плохо делать.
Спасибо. Заригистрировался. Пока что мне все нравиться.
Спасибо за добрый отзыв, thyslenly! Буду стараться и впредь публиковать на блоге только самое полезное и интересное.