Получить новую статью

Вставьте здесь свой адрес:

Delivered by FeedBurner

Подписаться на статьи рубрики
Подписаться на статьи рубрики
Подписаться на статьи рубрики
БЫТОВАЯ ТЕХНИКА
новинки, содержание, ремонт
Подписаться на статьи рубрики
СЕРВИСЫ ОНЛАЙН
описание, рекомендации
Подписаться на статьи рубрики
ДИЗАЙН ВЕБ САЙТОВ
советы, показ, нюансы

users online

SEO советы

Микроразметка данных сайта подробно описана в веб мастере Google разделе Search Console.  Зайдите в  раздел Микроразметка данных сайта«Вид в поиске», далее в выпавшем меню нажмите  «Структурированные данные» и вы увидете график наличия или отсутствия  разметки  microformats.org.  Она должна быть внедрена при изготовлении шаблона сайта  и характеризуется  типом данных: Hentry, Hcard, Article — (описание смотреть в интернете).

В графе «Структурированные данные» на графике это отражено, а также внизу в виде таблицы.  В моём случае смотрите фото ниже. (фото слетело, найду и прикреплю)

Как видите, все три типа данных присутствуют.  Тип hentry — 7 ошибок, тип — hcard — нет ошибок, Article — сделана Маркером Google прямо перед написанием статьи. Article — микроразметка статьи.

Сразу скажу, по совету бывалых мастеров разметку hentry  отключил, как мало значащую. Для этого в конце кода файла  functions.php  вставил такой код:

Читать далее

Заблокированные ресурсы, как уже говорилось в предыдущей статье, возникают в результате недоступности поисковых роботов Google к некоторым частям скриптов, Заблокированные ресурсытаблицам стилей, отвечающих за внешний вид страницы и отражающих её функционал.

Сейчас уже большинству пользователей известен вред от заблокированных ресурсов, хотя они имеют высокий, средний и низкий степень «вредности». Проблема одна, страницы не попадают в индекс Google. Рассказываю историю по своей сути всеобщую.

Понятие «Заблокированные ресурсы» введено с марта 2015 года разработчиками Google и отражено в документе «Отчёт о заблокированных ресурсах». В основу положено сравнение, с одной стороны, отражения страницы веб браузером и с другой стороны, как её видит Поисковый робот.

Разница во взглядах определяется правилами Robots.txt сайта. Напомню внешний вид написания Robots.txt моего сайта имеет вид:

Читать далее

В веб мастере имеется полная картина, как идёт индексация в Google моего сайта согласно директивам robots.txt. Имейте в виду, в веб мастер Google должен быть ваш аккаунт с индексация в Google регистрацией, сайт должен пройти подтверждение на авторство и тогда вперёд. Есть раздел – страница Search Console, где показана индексация в Google моего сайта.

индексация в Google

индексация в Google

Оказывается, из проиндексированных 128 страниц, 58 заблокированных ресурсов, а реально существующих на этот момент 75. Почти все страницы заблокированы. Далее становится понятно, что эти ресурсы (например, ява скрипты) размещаются кусочками на почти всех страницах сайта. Да, это и видно при открытии заблокированного ресурса на странице Search Console веб мастера от Google.

В результате, поисковый робот сканирует страницу, доходит до закрытого ресурса и останавливается. Страница становиться не до индексированной и соответственно в поиск не попадает никогда (почти).

Cправка — Search Console

Чтобы правильно обработать и индексировать вашу страницу, роботу Google необходим доступ к ее ресурсам – файлам JavaScript и CSS, изображениям и т. д.

Если файл robots.txt сайта не позволяет просканировать все эти ресурсы, возникают ошибки. Из-за этого рейтинг сайта в Google Поиске становится низким.

Читать далее

Индексация в Yandex имеет свои особенности и заключается в обходе всех не запрещённых в robots.txt файлов. Туда неизбежно попадают файлы категорий, меток, тегов и Индексация в Yandex тому подобная служебная информация.

Индексация в Yandex сайта длиться около 4 секунд. Поэтому, что успел робот увидеть, переходя по ссылкам на сайте, то и остаётся загруженным для дальнейшего анализа. Таким образом, робот создаёт дубли страниц вперемежку с оригиналами страниц.

Дубли страниц очень и очень неприятная ситуация для сайта. Ведь робот по запросу может показать неполноценный дубль статьи и отпугнёт посетителя от сайта вообще.

Если полгода назад на этом сайте было загружено 600 страниц, в поиске 155 страниц, а в реальности 25 страниц, то надеяться на показ реальной страницы 0,3 вероятности. А мы стремимся к вероятности 1,0.

Проверить свой сайт на предмет дублей страниц можете по этим поисковым фразам только в поиске Яндекса:

site:site.ru feed
site:site.ru tag
site:site.ru attachment
site:site.ru attachment_id
site:site.ru page
site:site.ru category
site:site.ru comment-page
site:site.ru trackback

Читать далее

Как избежать проблем в индексации страниц поисковыми системами, маневрируя построением robots.txt, если не особо понимаешь саму схему построения robots.txt или robots.txtвообще не понимаешь что к чему.

Моя история построения файла robots.txt имеет отношение к сайту на движке WP http://infookno.ru/. Сначала я установил robots.txt по совету своего наставника безо всякого раздумья такого вида:
User-agent: *
Disallow: /wp-includes
Disallow: /wp-feed
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes

Host: infookno.ru
Sitemap: http://infookno.ru/sitemap.xml

User-agent: Googlebot-Image
Allow: /wp-content/uploads/

User-agent: YandexImages
Allow: /wp-content/uploads/

Читать далее

Комментарий и продвижение сайта

Посещение сайта более тысячи в день и ни одного комментария. Что вы можете подумать?

Чего ходить на такой сайт этой  тысяче молча. Раз посещение тысяча, значит даёт эксперт что то новое и мало известное. Неужели всё понятно и спросить нечего ни одному человеку.

Но не всё так примитивно. Причина есть и не одна.

Читать далее

Количество слов в заголовке

Заголовок статьи влияет на релевантность страницыТогда, из скольких слов составлять заголовок статьи? КонечнО, одно слово в заголовке гарантированно даст 100% релевантность страницы.

Но, глядя дальше, понимаешь, с одним словом протиснуться туда, куда хочет попасть юзер из поисковой системы, практически никогда не удастся.

Составим тогда  заголовок статьи из двух слов, уже значительно легче сузить релевантность страницы.

Так многие и поступают, если в двух словах удаётся заключить полный смысл статьи. Если глянуть на заголовок этой статьи (первые два слова) — этого сказать нельзя.

Хотя, разместить эти слова согласно правилам SEO очень просто необходимое число раз. И в этом случае релевантность страницы может  легко  подняться до  100%.

А нам требуется акцентировать смысл заголовка всеми минимально доступными словами. По сути, любой вероятный поисковый запрос должен превратиться в заголовок статьи  или его логическую часть.

Таким образом, составляя заголовок статьи, автор публикации имеет шанс повысить релевантность страницы.

Читать далее