В мае в нашем SEO агентстве мы выполнили работу по анализу входящих ссылок (дезаву) для клиента. Мы работали с очень большим файлом, который впоследствии пришлось загрузить в Google Search Console: таким образом Google мог прочитать, какие внешние ссылки на сайт нашего клиента ему не следует учитывать. Наш файл был в формате .txt и содержал более 1 миллиона строк (плохие парни постарались, и когда дело дошло до его загрузки в Search Console, он выдал нам ошибку загрузки.
Мы проконсультировались о нашей дилемме почему стоит выбрать базу данных вк с Джоном Мюллером (наш вопрос был: «Эй, @JohnMu, у меня есть файл отклонения, который я могу загрузить в Google, и я не могу его отправить. (75 МБ) Как мне это сделать?»), И вот что он ответил. :
дезавуировать
Этот ответ застал нас врасплох: мы работали таким образом уже много лет и, похоже, это дало хорошие результаты. Наконец, мы обнаружили, что отклонения имеют ограничение в 100 000 URL-адресов и вес в 2 МБ, чего в нашем случае было бы недостаточно. Но, принимая во внимание ответ Джона Мюллера на эту тему, мы задаемся вопросом , действительно ли эти стратегии отклонения обратных ссылок полезны для улучшения SEO веб-сайта?
Нашим ответом на эту проблему было оставить веб-сайт без текущих отклонений, чтобы увидеть влияние, которое это оказало на веб-позиционирование и такие показатели, как поток доверия и поток цитирования, на которые напрямую влияют обратные ссылки домена. Вот наш результат на данный момент.
Каков максимальный размер файлов отклонения?
-
- Posts: 222
- Joined: Sun Dec 22, 2024 6:08 am