Кто я?

Я аноним 👤, если хотите узнать имя оставьте "заявку" ))
Лучше расскажу о себе, через 20 лет в IT до меня дошло наконец кто я.
Я - универсальный технический утюг 🦾
Не просто решаю технические задачи — а выглаживаю результат, убирая все заломы.
Дизайн, видео, серверы, сети, безопасность, код — прошёл всё, делал всё сам. Широкий охват. Глубокая экспертиза. И, да, у меня большие очки!

Моё время занято на 60%

Обращайтесь — пока другой клиент не занял остаток!


Забронировать консультацию

iot-блог | контакты
© Digital Specialist | Регион Москва | Не являемся сотрудниками Google, Яндекса и NASA

Исправил SEO после «работы» сеошников

🔧 КЕЙС #SEO-01 / РАЗГРЕБАЮ ПОСЛЕ СЕОШНИКОВ
Исправил SEO после "работы" сеошников
Удалил дубли страниц, починил редиректы, настроил метатеги и карту сайта. Через 3 недели — в ТОП-10 Яндекса

😱 01. Звонок клиента

Приходит клиент, весь на нервах. Полгода платил сеошникам — 80 тысяч в месяц. Сайт не растёт, трафика нет, лидов нет. Сеошники говорят: «Надо ещё ссылок купить, ещё статей написать, ещё денег». Клиент уже сомневается, но продолжает платить. Потом случайно заходит в Яндекс.Вебмастер и видит: проиндексировано 3 страницы из 200. Остальные — в исключениях.

Звонит мне: «Спаси, горе-специалисты сливают бюджет».

// Данные на входе
$initial_state = [
  "indexed_pages" => 3,
  "duplicates" => "бесконечность",
  "title_tags" => "50% страниц без заголовков",
  "backlinks" => "ссылки с говносайтов",
  "budget_spent" => "480 000 ₽ за полгода"
];
🔍 02. Аудит: что накопали
1 Дубли страниц (куда без них)

Страница доступна по 4 адресам:

  • site.ru/page
  • site.ru/page/
  • www.site.ru/page
  • site.ru/index.php/page

Канонические URL не прописаны. Яндекс думает, что это 4 разные страницы с одинаковым контентом. Ранжирует хуже.

2 Метатеги (их просто нет)

Проверяю: у половины страниц title вообще не заполнен. У остальных — автогенерация «Новость | Новости | Блог | Сайт». Description либо отсутствует, либо дублирует title.

3 Редиректы (кривые руки)

Старые страницы удалили, 301-е редиректы не настроили. Пользователи и боты получают 404. Цепочки редиректов по 3-4 перехода.

site.ru/old-page → 302 → site.ru/new-page → 301 → site.ru/new-page/ → 200
(медленно, неестественно)
4 Карта сайта (sitemap.xml)

Sitemap.xml есть? Есть. Там 50 URL. Включены только главная и контакты. Остальное забыли добавить. В Яндекс.Вебмастере ошибка: «Нет страниц для индексации».

5 robots.txt (отключил индексацию)

Смотрю robots.txt — а там Disallow: /. Всё. Весь сайт закрыт от индексации. Сеошники полгода собирали ссылки на закрытый сайт. Гениально.

🔗 03. Ссылочная масса: проверка через Xtool.ru

Сеошники отчитались: «Закупили 50 ссылок на авторитетных сайтах, бюджет 150 тысяч». Проверяю.

$ xtool.ru --check site.ru/backlinks
Результат шокирует:
Донор ТИЦ Контакты Контент Вердикт
news-portal-xxx.ru 0 Нет Сгенерированные новости ГС (говносайт)
stroika-dostavka.ru 10 Только форма Рефераты статей Дорвей
blog-otzyvov.net 0 Email на gmail Скопированный контент Пустышка
realnyj-sajt.ru 20 Есть Свой контент Нормальный (один из 50)

Итог: 8 из 10 доноров — пустышки, дорвеи или ГС. Ссылки с таких сайтов не работают, а если Яндекс спалит — получим фильтр.

🛠️ 04. План спасения
1 Починил robots.txt

Убрал Disallow: /. Добавил Sitemap: https://site.ru/sitemap.xml

2 Настроил метатеги

Для каждой страницы прописал уникальные title и description. Использовал маску: «[Заголовок] — [Категория] — [Название сайта]». Description писал руками (частично через нейросети).

3 Удалил дубли

Настроил канонические URL (rel="canonical") на всех страницах. Выбрал единый формат: без www, со слешем в конце. Настроил 301-е редиректы с зеркал.

RewriteEngine On
RewriteCond %{HTTP_HOST} ^www\.site\.ru [NC]
RewriteRule ^(.*)$ https://site.ru/$1 [L,R=301]
RewriteCond %{REQUEST_URI} !\.[a-zA-Z0-9]{2,5}$
RewriteCond %{REQUEST_URI} !/admin/
RewriteRule ^(.*)([^/])$ /$1$2/ [L,R=301]
4 Пересобрал sitemap.xml

Сгенерировал новую карту сайта, включил все значимые страницы (около 180). Добавил даты последнего изменения, приоритеты. Загрузил в Яндекс.Вебмастер.

5 Обработал ссылочную массу

Все ссылки с ГС отклонил через Яндекс.Вебмастер (инструмент «Отказ от ссылок»). Оставил только нормальных доноров (их было 5 из 50).

📈 05. Что стало через 3 недели
187
страниц в индексе
ТОП-10
по 12 ключам
+320%
трафик из поиска
+15
заявок в неделю

Яндекс переиндексировал сайт, убрал дубли, начал показывать нормальные страницы. Клиент в шоке: «Я думал, сайт умирает, а он просто задушен был».

🤡 06. Реакция "сеошников"

Клиент попросил отчёт у прежних подрядчиков. Они написали:

«Мы делали сложную стратегию накопления ссылочного веса. Индексация временно была отключена для фокусировки на ссылочном. Сейчас нужно продолжать закупки, чтобы закрепить эффект. Дайте ещё 200 тысяч на ссылки с АГС-сайтов».

Клиент послал их лесом.

📚 07. Что вынес из этого кейса
  • robots.txt надо проверять первым делом — самая частая ошибка новичков.
  • Xtool.ru — годный инструмент — быстро пробивает доноров.
  • 8 из 10 сеошников — шарлатаны — проверяй, с кем работаешь.
  • База важнее ссылок — если сайт технически убит, ссылки не помогут.
08. Чек-лист: что проверить после «сеошников»
Пункт Что смотреть Как проверить
robots.txt Нет ли Disallow: / site.ru/robots.txt
Метатеги Уникальность title/description Screaming Frog, Netpeak Spider
Дубли страниц www/без www, слеши, canonicals Проверка зеркал в Яндекс.Вебмастере
Sitemap.xml Все ли страницы включены Яндекс.Вебмастер → Индексирование → Файлы Sitemap
Ссылочная масса Качество доноров Xtool.ru, Проверка АГС

← Назад к списку