Спросите десять человек, что SEO есть, и вы вероятно, чтобы получить десять различных answers,Учитывая сомнительные прошлое отрасли, это не удивительно.Ключевое слово начинку, страницы шлюз, и спам в комментариях заработал первый поисковая optimisersзаслуженно плохую репутацию в веб-сообщества.Змея нефть продавцы продолжают торговать этих вредных методов для ничего не подозревающих владельцев сайтов сегодня, увековечения миф, что оптимизации вашего сайта для Google или Bing является по своей сути отвратительной практики .
Излишне говорить, это не true.
Вообще говоря, сегодняшняя SEO промышленность делится на две смежных областях: содержание маркетинга и технической оптимизации.Возможность создавать контент, который резонирует с аудиторией и общается тождество бренд vitalдля успеха любого веб-сайта, и статьями в каждый запутанность этого искусства можно найти в Интернете с относительной легкостью .
Когда дело доходит до последней области, однако –техническая оптимизация –Воды часто замутил по misinformation,Это необычайно богат дисциплина является ключом к реализации органической поисковый потенциал вашего контента, и, несмотря на перечисленные в квалификации по возобновляет многих разработчиков, она также является одним из наиболее часто неправильно поняли областях современной веб-разработки .
Сегодня мы будем изучать некоторые из основных принципов технического SEO, В том числе эффективности обхода, контроль индексации, ссылка обслуживания профиля, и многое другое.В конце концов, вы будете вооружены богатства методов для оптимизации органического поиска, которые применимы почти ко всем установленным веб-сайтов.Давайте начнем .
Сканирование Accessibility
Поисковые системы используют автоматизированные ботов широко известные как пауки, чтобы найти и содержания обхода в Интернете.Паук Google, (‘Googlebot “) обнаруживает адреса по ссылкам и читать карты сайта по предоставляемые веб-мастеров.Он интерпретирует содержание, добавляет эти страницы индекса Google, и занимает их для поисковых запросов, на которые он сочтет их актуальными .
Если робот Google не может эффективно сканировать ваш сайт, он не будет хорошо в органическом поиске .Независимо от размера вашего веб-сайта, истории и популярности, серьезные проблемы с доступностью обхода калечит вашу производительность и повлиять на вашу способность ранга органично.Google назначить ресурс «бюджет» в каждом домене на основе своих полномочий (подробнее об этом позже), что отражается в регулярности и глубине сканирования Googlebot в.Таким образом, наша основная задача состоит в максимизации эффективности посещений робота Google .
Архитектура &Sitemaps
Этот процесс начинается с базовой архитектуры вашего сайта.Не обращайте внимания на избитую советы говорю вам, чтобы сделать всю информацию доступной в течение трех кликов, и вместо этого сосредоточиться на создании веб-сайта в соответствии с информационной архитектуры (IA)лучшие практики.Петр Морвиль-х Информационная архитектура для Всемирной Webтребуется читать (The четвертый edition 1 будут доступны в сентябре 2015 года), и вы можете найти хорошее введение в основные принципы ИА, как они относятся к SEO более в Moz.com2.
Структура сайта должна быть сделан после обширных исследований ключевое слово в поисковой поведения и намерения пользователя.Это само по себе искусство, и мы не будем покрывать его здесь;как правило, однако, вы хотите, логический, примерно симметричный, пирамидальной формы иерархию страниц дорогостоящих категории около вершины и ваших более специфических страницах ближе к нижней.Click-глубину должно быть рассмотрение, но не ваша главной заботой .
Эта архитектура должна быть отражена с статический и человеческого понимания URL structure, Без динамических параметров, где возможно, и который использует дефисы вместо подчеркивания качестве разделителей слов (см принципы Google по Ссылка на structure 5 | __7).Поддержание последовательной внутренней картины зацепления, и избежать создания отдаленные, осиротевших страниц.Помните, что поисковые сканеры не могут использовать формы поиска, и так все содержание должно быть доступны через прямые ссылки .
Поисковые системы могут быть рассказал о структуре и содержании веб-сайта с помощью XML-Sitemaps6,Они особенно полезны для больших веб-сайтов и тех, с значительным количеством мультимедиа, так как они могут быть использованы для обозначения типов содержимого, частота изменения и приоритет страницу для поиска сканерам.Они notОднако, хороший исправление для основных архитектурных вопросов, таких, как осиротевший содержания.Взгляните через Google,documentation7чтобы узнать больше о том, как карты сайта интерпретируются .
Ваш карта сайта –которые могут быть разбиты на множество меньших карты сайта и индексного файла Sitemap, если это необходимо –может быть представлен с помощью Google Поиск Console4921188(ранее веб-мастеров).В духе поисковой агностицизма, это также желательно, чтобы объявить место Вашего Карта сайта в форме, доступной для других поисковых систем.Это может быть сделано с помощью robots.txt
, исходный текст file9который сидит в каталоге верхнего уровня веб-сервера, с следующего объявления:
Sitemap: http://yourdomain.com/sitemap-index-file.xml
XML Sitemaps могут быть сгенерированы автоматически с использованием различных инструментов свободных, таких как Yoast SEO Plugin10для веб-сайтов, работающих на WordPress (соответствующая документация доступны here 11 ).Если ваши карты сайта генерируются вручную, убедитесь, что держать их до современных.Избегайте отправки поисковых сканеры для URL-адресов, которые блокируются в ваш robots.txt
подать (смотрите следующий раздел), вернуться 404
Ошибки, не являются каноническими, или привести к переадресовывает, так как все из них будет тратить обхода бюджет вашего сайта .
Мы будем изучать эти принципы в большей глубины и искать пути диагностирования и фиксации соответствующих вопросов в Раздел 2 настоящего article12.
Заблокированные Content
Порой, вы можете предотвратить поисковых систем от открытия определенного содержания на вашем сайте.Общие примеры включают счета клиента, в значительной степени области персонализированных страниц с большой ценности для органического поиска, и постановка сайты под активным развитием.Наши цели здесь двоякая: для предотвращения этих адресов показывать в результатах поиска, и, чтобы они не поглощая обхода бюджет нашего сайта излишне .
Роботы meta
теги частью Роботы Исключение протокол (РЭП) 13И может быть использован для указания поисковых системне перечислить URL в их результатов pages,Размещено в странице head
Синтаксис очень прост:
<meta name="robots" content="noindex,nofollow">
Тег принимает десятки values14И noindex
и nofollow
два из лучших поддерживается.Вместе они допустить пауков от индексирования страницу или после любой из ее звеньев.Эти директивы также могут быть применены с помощью HTTP заголовка под названием X-Robots-Tag
;это часто более практичным средством развертывания, особенно на больших участках.На Apache с mod_headers
включена, следующие помешает PDF документы от индексации или имеющие свои ссылки с последующим пауков:
<FilesMatch ".pdf$">
Header set X-Robots-Tag "noindex, nofollow"
</FilesMatch>
Наконец есть robots.txt
,Вопреки распространенному мнению, этот файл не предоставлять средства предотвращения адреса появляться в поисковой results, Не обеспечивает какой-либо безопасности или конфиденциальности защиты.Это публично-просмотра и препятствует конкретных пауков от индексирования некоторых страниц или разделов сайта.Каждый поддомен в корневом домене будет использовать отдельный robots.txt
подать .
Основной robots.txt
Файл определяет агент пользователя с последующим одним или более Disallow
правила;это относительные пути URL, с которого вы хотите заблокировать сканерам.Заменяет может быть настроен путем дополнения их с Allow
правила.Шаблону могут быть использованы для построения более сложных правил, благодаря поддержке Google и Bing в течение двух регулярных выражений: конец строки ($
) и символ (*
).Простой пример приведен ниже:
User-agent: *
Disallow: /blocked-directory/
Allow: /blocked-directory/allowed-file.pdf$
Google предлагает Подробное guidelines17писать правила для robots.txt
И обеспечивает интерактивную среду тестирования в рамках Поиск Console4921188.
Заметим, что добавление на странице noindex
Директивы страницызаблокирован в robots.txt
будет notпривести к его перестанут появляться в результатах поиска.Сканеры, которые уважают директивы Disallow не будет в состоянии видеть tag, Так как они не имеют возможности доступа к странице.Вы должны будете разблокировать страницу, а затем служить noindex
Директива с помощью заголовка HTTP или meta
пометить .
Еще одна распространенная ошибка заключается в блокировании доступа к сканерам от CSS и JavaScript файлы, которые необходимы для оказания странице.Google был размещения новый акцент на этом вопросе в последнее время, и в последнее время разослал свежий раунд warnings19Поиск с помощью консоли .
Исторически сложилось так, робот Google была уподобить текстовом браузере, таких как Lynx, но сегодня это способны оказывать страниц аналогично современным веб browsers,Это включает в себя выполнение scripts20,Таким образом, предотвращение сканеры от доступа к этим ресурсам может ухудшить органического производительность.Вы можете проверить заблокированных ресурсов и просматривать приближение того, что “видит” робот Google от использования Заблокированные Resourcesи Fetch &Renderинструменты Поиск Console4921188.
Помните, что вы можете быстро просмотреть снимок, как страница “выглядит”, чтобы Googlebot введя cache:example.com/page
в адресной строке Chrome и выбрав Текст только version.
Неразборчивым Content
Несмотря на успехи в возможности визуализации робота Google, остается верным, что делает веб-сайты интенсивное использование AJAX и на стороне клиента рамках JavaScript, таких как AngularJS находятся на существенный недостаток, когда дело доходит до SEO.
Проблема возникает в результате их зависимостина хэш-фрагмента (#
) URL.Фрагмент идентификаторы не передается как часть запроса HTTP, и часто используются, чтобы перейти от одной части к другой странице.Клиентский JavaScript рамки следить за изменениями в этой хэш-фрагмента, динамично манипулировать страницы без необходимости внесения дополнительных обращений к серверу.Другими словами, clientделает тяжелую работу .
Тяжелая атлетика не является сильной робота Google.Обходные пути существуют, но они требуют дополнительного времени на разработку и в идеале должны быть запеченный в рабочий процесс от начала .
Решение, предложенное Google24еще в 2010 году включает в себя замену хэш (#
) с так называемой hashbang (#!
).При обнаружении, что ваш сайт соответствует этой схеме, робот Google будет изменять каждый URL следующим образом:
Original: yourdomain.com/#!content
Modified: yourdomain.com/?_escaped_fragment_=content
Все после hashbang передается на сервер в специальном параметре URL называется _escaped_fragment_
,Ваш сервер должен быть настроен, чтобы ответить на эти виды запросов со статическим HTML снимка динамического содержания .
Недостатки такого подхода numerous25,Hashbangs являются неофициальным стандартом, который ничего не делают для продвижения доступности, и, возможно, разрушительной для природы в Интернете.Короче говоря, что это ляп, который SEO не удается исправить первопричину problem.
HTML5 предлагает нам лучшее solutionв форме истории API, полный введение в который доступен в Погружение в HTML526,Оператор pushState
Метод позволяет манипулировать историю браузера путем изменения URL, который отображается в адресной строке без дополнительных запросов к серверу.В результате, мы пожинать плоды богатой, JavaScript питанием интерактивности andТрадиционный чистый структура URL .
Original: yourdomain.com/#content
Modified: yourdomain.com/content
Это решение не является чудодейственным.Наш сервер должен быть настроен, чтобы ответить на запросы для этих чистых URL, с HTML оказанную стороне сервера, то, что это чаще достигается с изоморфные JavaScript27,С хорошей реализации, можно построить богатый, JavaScript питанием веб-приложение, которое доступно для поиска сканерам и придерживается принципов прогрессивная enhancement,Поддержка браузеров для pushState
это хорошо, с Все современные браузеры плюс IE1028поддержки История API .
Наконец, будьте осторожны контента, который недоступен для роботов.Flash-файлы, Java-апплеты, и другой плагин в себе содержание все обычно игнорируются или обесценены поисковых системах, и его следует избегать, если вы стремитесь к содержанию должны быть проиндексированы .
Page Speed &Mobile
Алгоритмы поисковой системы становятся все более чувствительными к usabilityС страница speed29и мобильных friendliness30являются двумя из самых ярких примеров.К счастью, читатели Smashing Magazine уже должны быть осведомлены о важности этих вопросов.Поскольку было бы невозможно сделать эти огромные предметы справедливости в контексте данной статьи, мы ограничимся основными принципами каждой .
Поисковые системы поддержки различных мобильных конфигураций, в том числе отдельных URL-адресов для мобильных пользователей (через m.
поддомен, например) и динамического обслуживания с помощью Vary
HTTP-заголовка.Сегодня, однако, Google, предпочтительным подходом на мобильный является реагировать веб design,Если вы не знакомы с современным развитием переднего плана, или просто жили под очень большой камень за последние пять лет, вы могли бы сделать хуже, чем проверить Smashing Книга 531для грунтовки на современных рабочих процессов RWD .
Скорость страницу, тоже должна быть одной из ваших ведущих концернов.Это не просто потому, что дольше времени приводит нагрузки в более высокой скорости отскока;Google имеет indicated32что Сама страница скорость факторы в рейтинге algorithm.
Есть десятки инструментов, которые помогут вам определить вопросы, которые можно было бы замедляя свой веб-сайт.Один хороший вариант GTmetrix33;она имеет платные и бесплатные варианты, проводит анализ, основанный на обоих Google PageSpeed и Yahoo YSlow наборов правил, а также предоставляет множество полезных визуализации и моделирования .
Хорошие первые шаги включают в себя:
- Реализация сжатия GZIP на server
- Minification активов, таких как стилей и scripts
- Использование кэширования браузера с
Expires
header - Минимизация количества HTTP запросов (хотя эта рекомендация, в частности, будет меньше смысла, как HTTP / 2 Принятие растет)
Возможнолучшим введением в производительности и скорости страницы в настоящее время availableэто __2 Лара Хогана |Проектирование Для Performance34,Это очень практическое руководство по приближается проекты со скоростью в виду, и она включает в себя большой урок на howбраузеры запрашивать и отображать содержимое.Она доступна для свободного онлайн, но выручка от реализации идут на благотворительные цели, ориентированных на получение женщин и девочек в кодировании, так что вы должны, безусловно, купить его .
Наконец, следует знать, что чувствительность алгоритмов поиска “, чтобы юзабилити будет только возрастать в будущем.Даже безопасности в настоящее время является фактор ранжирования;Google объявил в конце 2014 года, что сайты использующие HTTPS encryption35будет теперь видеть небольшое преимущество над сайтами, которые не .
Сканирование Эффективность &Indexation
С разделах сайта мы хотим, чтобы появиться в органическом поиске теперь доступны для поисковых систем, это время, чтобы оценить howВаше содержание интерпретируется и индексируются .
Мы начнем с изучения один из ключевых принципов SEO дружественный дизайн сайта: дублировать content,Вопреки распространенному мнению, эта фраза не относится исключительно к буквальным углерода-копии страниц на собственном сайте.Как всегда в SEO, мы должны рассмотреть наш сайт с точки зрения робота.Поэтому, когда мы говорим о duplicateили thinСодержание, мы просто ссылаясь на URL, которые соответствуют следующим критериям:
- Вернуться а
200 OK
HTTP-ответ статус code36, Указывая, что запрашиваемой exists - Вернуться контент, который доступен через другие URL (дубликатов), или, что не предлагает никакой ценности для пользователей (тонкий)
Чтобы помочь продемонстрировать масштабы этих критериев, два примера из известного онлайн-ритейлера Великобритании приведены ниже .
Здесь каждая категория продукта доступен через бесконечное число бессмысленных подкатегорий.Это пример дублировать content;эти URL-адреса в настоящее время сканирования и индексирования поисковыми системами, что составляет серьезную отходов обхода бюджета сайта .
В этом случае, на страницах результатов поиска –даже те, которые не оказаться не продукт соответствует –не хватает каких-либо директив индексации и полностью открыты для поиска сканерам.Это хороший пример тонкий content–эти в основном-пустые страницы не предлагают никакой ценности для пользователей, и еще более 22,000 были indexed43на момент написания .
Это хорошо известно, что алгоритм Google, наказание сайты для крупномасштабного дублирования такого рода, с граненый навигации systems44причем особенно проблематично в этом отношении.Тем не менее, даже самый маленький из вопросов может стать усугубляется с течением времени.Поведенческие причуды в вашей CMS или конфигурации сервера проблемы могут привести к серьезным ползать бюджета отходов и разведения так называемого ссылаются equity(Сео ‘значение’ внешних ссылок на ваших страницах – подробнее об этом в Раздел 3 62 55 45 ).Все слишком часто, эти вопросы выходят полностью незамеченными веб-мастера .
Наша основная цель заключается в consolidateлюбой дубликат, тонкий, или наследие содержание.Одна статья не может начать царапать поверхность в условиях всех возможных сценариев, которые могут возникнуть, ни подходыих смягчения.Вместо этого, мы будем искать, чтобы вооружить себя с инструментами для диагностики этих проблем, когда они происходят .
Diagnostics
Вы можете узнать значительное количество о том, как ваш контент индексируется с помощью расширенный поиск operators46.
Ввод site:yourdomain.com
в Google вернет образец URL-адреса в вашем домене, которые были проиндексированы.Заголовок прямо на последний из этих разбивкой на страницы результатов –те, Google считает мере соответствующую –часто дают ключи к каких-либо проблем дублирования, влияющих на ваш сайт.Если вы представили с запросом, чтобы повторить поиск с с “включены опущенные результаты” (см ниже), щелкните его;в результате нефильтрованное вид часто отличный способ, чтобы раскрыть какие-либо особенно вопиющие проблемы .
Оператор site:
Оператор может быть еще более мощным, когда в сочетании с inurl
intitle
, Точным ("..."
), и отрицательные (-
) операторов.С помощью этих и других передовых операторов, как часть вашего исследования, это можно диагностировать определенные основные вопросы довольно быстро:
- Проверьте случайно индексом поддоменов и постановка сайтов.Если ваш сайт должен сидеть на
www
Например, проверить URL, пропавших без вести, что часть URL-адреса.site:yourdomain.com -inurl:www
- Проверьте несколько версий главную страницу с помощью поиска
<title>
тэги.Это часто можно увидеть, как корневой домен и имя документа индексируются отдельно:yourdomain.com
иyourdomain.com/index.html
, например.site:yourdomain.com intitle:"Your Homepage Title"
- Проверьте URL, прилагаемой с параметрами, которые не меняют содержимое страницы, возможно в течение определенного каталога.Идентификаторы сессии и партнерские трекеры особенно часто на больших платформах электронной коммерции и может легко привести в тысячах дублированных страниц.
site:yourdomain.com/directory/ inurl:trackingid=
Google, Поиск Console4921188обеспечивает отличную платформу для мониторинга общего состояния здоровья вашего сайта.HTML-ImprovementsПанель под Поиск Appearanceэто хороший способ, чтобы заметить дублированный контент.Обратите особое внимание на списки идентичны <title>
теги и мета описания, оба из которых помогают диагностировать проблемы с дублированием контента и плохо размеченными страницы .
Переход к Список Statusпод Google Indexобеспечит историческую точку зрения индексации вашего сайта.Хит “Дополнительно”, чтобы накладывать эту информацию с данными о количестве адресов вы блокирующих через ваш robots.txt
подать .
Будьте уверены, чтобы также проверить Мягкий 404 errors52под Crawl–Сканирование Errors,Это случаи, когда не существует страница не сумеет вернуть соответствующий 404
код состояния.Помните, с точки зрения робота, содержание страницы не связаны с ответом HTTP, возвращаемого сервером.Люди могут быть показаны сообщения “Страница не найдена”, но с неправильным обработки ошибок сервера может быть говорю, что роботы страница существует и должны быть проиндексированы .
Наконец, взгляните на Sitemapsраздел под Crawl,Как позволяя тестировать отдельные карты сайта, это может предоставить ценную информацию о том, как Google и другие поисковые системы интерпретации структуры сайта.Обратите пристальное внимание на соотношение адресов URL, индексированные по представленным;значительное расхождение может свидетельствовать о проблеме с двух экземплярах или «тонкого» содержания .
Перенаправление &Rewrites
В ситуациях, когда дубликат или содержание наследие имеет очевидное ‘новую’ URL –старый страница, которая была заменена, например –лучший курс действий, как правило, для реализации на стороне сервера redirection,Посетители человека будет легко прийти к предпочтительному URL, и поисковые роботы будут понимать, что оригинальная страница была перемещена .
Будьте уверены, чтобы всегда возвращать код 301
(постоянный) в ответ состояние HTTP, а не по умолчанию Apache, код 302
(временно).В то время как люди не смогут отличить, роботы интерпретировать два очень по-разному.В отличие от временного перенаправления, постоянный редирект:
- Причина старый URL в конечном счете выпадают из index__16 поисковой системы |
- Пройдите по ссылаются equityиз старой страницы на новую страницу, концепция мы будем изучать более подробно в Раздел 3625545
Осуществление будет, очевидно, меняться в зависимости от настроек сервера, но мы покажем некоторые простые примеры, в Apache с использованием .htaccess
Файл конфигурации.Особенно сложное отображение редирект, как правило, требуют использования mod_rewrite
Модуль, но не стоит недооценивать, сколько вы можете достичь с Redirect
и RedirectMatch
директивы в более простой mod_alias
,Следующие строки будет перенаправить один файл, и весь каталог плюс содержимое, в новых местах с помощью кода 301
перенаправить:
Redirect 301 /old-file.html http://www.yourdomain.com/new-file.html
RedirectMatch 301 ^/old-directory/ http://www.yourdomain.com/new-directory/
Проверьте Apache documentation56Для получения более подробной руководством по реализации этих директив .
В условиях, когда мы ищем решения дублирования более структурный характер –пропавших без вести www
Вопрос уже упоминалось выше, например –мы можем использовать Ссылка на переписывание rules.
Наша цель здесь, чтобы наш веб-сайт доступен только через наш выбранного хоста (www.yourdomain.com
).Обратите внимание, что либо является допустимым выбором, так долго, как мы проводим это последовательно.Запросы на URL, который опускаем www
префикс должен привести в коде 301
перенаправление соответствующей канонической версии.Люди будут плавно приходим на нужной странице и поиска сканеры понять, какой набор адресов должны быть проиндексированы.Мы добьемся этого со следующим mod_rewrite
директивы:
RewriteEngine on
RewriteCond %{HTTP_HOST} ^yourdomain.com [NC]
RewriteRule ^(.*)$ http://www.yourdomain.com/$1 [L,R=301]
Еще раз, обратитесь к Apache documentation57для более детальных рекомендаций.Существует также документация для соответствующих модулей в Nginx58и IIS59.
Актуальность URL переписывает, чтобы SEO выходит за рамки простых исправлений.Важно отметить, что это позволяет нам предоставлять ресурсы по HTTP URL, который в не обязательно соответствуют их местах в файловой system,Это позволяет нам осуществлять статический, удобочитаемый структуру URL, который отражает нашу логическую, IA-совместимый архитектуру сайта .
- Оригинал:
http://www.yourdomain.com/content/catID/43/prod.html?p=XjqG
- Переписан:
http://www.yourdomain.com/category/product/
Преимущества чистой структуры URL в SEO не может быть переоценена.В дополнение к предоставлению повышение эффективности сканирования, хорошая реализация предлагает огромное преимущество юзабилити.Помните, что URL-является одним из самых известных элементов, рассматриваемых поисковиках при принятии решения о которых URL нажать .
Учитывая количество возможных технологий стеки, методология может значительно варьироваться, но вы можете найти общую сводку URL лучшие практики на Google60И полезное введение к расширенному условия перезаписи в Linode.com61.
Один последнее слово на переадресовывает: избежать цепочки, где это возможно.Они не только неэффективным с точки зрения эффективности ползать, количество «ценности» проходил мимо 301
(постоянный) редирект уменьшается с каждой последующей хопа.Ваша цель должна быть, чтобы направить все варианты и пенсионеры страницы в правильном URL с помощью одного постоянного редиректа.См Раздел 3625545для получения дополнительной информации о концепции стоимости ссылку сохранения .
Канонический Tag
В ситуациях, когда перенаправление на стороне сервера является невозможно или нецелесообразно, есть еще один исправление доступно нами: rel="canonical"
ссылка элемент .
Впервые представленная в 200963в рамках совместных усилий Google, Bing, Yahoo и, тег позволяетуказать Поисковики предпочтительный URL для страницы.Способ применения прост: добавить link
элемент с rel="canonical"
атрибутов в head
раздел «истинного» страницы и всех его вариантах .
Чтобы использовать простой пример страницей:
http://www.yourdomain.com
http://www.yourdomain.com/index.html
http://www.yourdomain.com?sessionid=1988
Маркировка eachиз них со следующей метке будет означать для поисковых систем, какую версию показывать пользователям:
<link rel="canonical" href="http://www.yourdomain.com">
В отличие от перенаправления, каноническое тег никак не влияет на URL, показанный в адресной строке пользователя.Вместо этого, это просто намек для поисковых систем для лечения конкретных вариантов в виде одной страницы.Будьте уверены, что URL-адреса в ваших канонических тегов correct;канонизации весь сайт на одной странице или реализации облачении, которые указывают на 404
ошибки могут быть катастрофическими .
Обратите внимание, что в mostслучаи на стороне сервера Перенаправление является более надежным и удобным способом …
Если вы хотите прочитать полностью статью, посетите сайт наших спонсоров