Кратко по seo терминологии

 

1. Какие существуют полезные книги и блоги по SEO?

Из книг полезно почитать «Продвижение порталов и интернет-магазинов» Гроховский Л., «SEO: Поисковая Оптимизация от А до Я», «SEO Коллайдер» М.

Шакин, «SEO Винчестер» М. Шакин. Больше всего рекомендуется читать сео блоги. Та вы всегда найдете свежие фишки по продвижению. Особенно интересно читать такие интернет ресурсы на seo тематику: seointellect.ru/samostoyatelno/seo-stati, devaka.ru, megaindex.org/corp, workformation.ru, shakin.ru.

2. Что такое кэш страницы, чем он отличается от индекса?

Кэш страницы – это сохраненная копия страницы, которую проиндексировал поисковик конкретной поисковой системы. У каждой поисковой системы есть свой собственный кэш.

Кэш страницы все время обновляется в зависимости от заходов роботов индексации на сайт. В Google можно посмотреть сохраненную копию нажав на указатель стрелочки вниз, которая находится напротив url страницы.

По сути кэш страницы не отличается от индекса. Потому что индекс – это и есть страницы веб ресурсов, которые попали в хранилище поисковых систем. Но если говорить о глобальном индексе, то разница в том, что индекс — это содержимое информации всех веб ресурсов в памяти поисковых систем. Поисковые боты, в зависимости от качества сайта и информационной обновляемости ресурса, периодически заходят на сайты и обновляют содержимое базы данных поиска. Можно также разницу увидеть в том, что под индексом понимаем момент посещения ботами определенных страниц сайта.

3. Как найти внутреннее дублирование контента внутри сайта?

Находим дубли title. Программа PageWeight . При ручном поиске используем оператор site:mysite.com.ua (site: — собственно сам оператор, mysite.com.ru — сайт, который проверяется).

Находим дубли текста. “Отрывок текста” site:mysite.ua. Отрывок текста должен вмещать не более пяти восьми слов (одно предложение).

Используем платные сервисы seoto.me и saitreport.ru.

4. На сайте есть страницы, которые необходимо закрыть от индексации.

Директивой Disallow: закрываем все что нужно закрыть от индексациим в robots.txt. Например, добавить в файл robots.txt запись Disallow: /pages.html. Другой вариант добавить на страницы метатег.

Отличие этих двух вариантов состоит в том, что первый вариант предусматривает полное закрытие от индексации. Второй вариант выкидывает страницу из общего поискового индекса, то есть она тоже не индексируется, но робот может переходить по ссылкам, которые размещены внутри ее контента.

Выбор варианта всегда зависит от конкретной ситуации. Например, если это страница ошибки 404, то лучше закрыть в robots.txt . Если страница участвует во внутренней перелинковке, но ее на время надо отключить, то подойдет второй вариант.

5. Что такое страницы с get-параметрами? Какие проблемы могут возникнуть при seo-продвижении данных страниц?

Это страницы, которые содержат в адресной строке не оптимизированные url. Вот пример таких страниц: mysite.com.ua/page.php?get=param&blog=stati.

Get параметр выводит данные в адресную строку из суперглобального массива $_GET. Известно, что современные поисковые системы негативно относятся к страницам с get-параметрами.

Возникают следующие проблемы:

  • Плохая индексация страниц.
  • Появляются дубли страниц, как следствие размножения url одной страницы.
  • Низкие позиции по сравнению с сайтами в которых оптимизированы ЧПУ.
  • Нет возможности вставить ключевое слово в url.

6. Что такое микроформаты, и как они влияют на продвижение?

Микроформаты — это форматы специальной семантической разметки, которые придают HTML-разметке смысловые значения. Благодаря таким форматам поисковики конкретно понимают, какая информация, размещена в определенных блоках исходного кода страницы.

Микроформаты улучшают индексацию сайта. Эффективно влияют на CTR сниппета в поисковой выдаче. Как следствие улучшаются поведенческие факторы. Именно с помощью микроформатов в поисковой выдаче мы видим сниппеты украшенные звездочками, прописанными url адресами, быстрыми ссылками и т.д.

7. Напишите 3 самых важных метрики, по которым можно оценить качество донора.

Самые важные метрики сайта донора:

  • Посещаемость (конечно не накрученная).
  • Траст.
  • НЕ заспамленность.

8. Зачем оптимизаторы проверяют количество входящих ссылок на сайт?

Существует несколько основных причин:

Чтобы определить качество доноров сайта (спамность), который раскручивается. Если исходящих ссылок сайта донора больше чем входящих в три раза, то он считается спамным. Поисковики определяют, что возможно он продает ссылки. Плохие доноры всегда убираются. Они могут занижать позиции всего сайта.

При разработке стратегии покупки ссылок. Если сео аналитика показывает, что по определенным поисковым запросам большинство сайтов в ТОП-10 имеют общую ссылочную массу, условно говоря, в пределах 500 ссылок, то мы тоже должны приблизить общее число ссылок продвигаемого сайта к указанной цифре (правда сейчас идет перевес в сторону качества ссылок, а не количества).

9. Какие есть плюсы и минусы использования арендных ссылок в стратегии продвижения?

Плюсы:

  • Дешево.
  • Удобно менять анкоры.
  • Удобно снимать ссылки.

Минусы:

  • Если таких ссылок много можно попасть под фильтр. Как правило, они используются в комплексе с вечными ссылками.
  • Малое количество качественных площадок.
  • Большинство веб мастеров размещают ссылки в футере и нижней части сайдбара.
  • Основная масса, размещается не внутри контента, а блоками в отрыве от основного текста. Поисковики сразу определяют такие ссылки, как сео.

Печать