Я начал использовать Claude Code как основной рабочий инструмент и заметил, что в процессе разработки постоянно переключаюсь в браузер — проверить PageSpeed, валидировать Schema.org, посмотреть позиции по ключам. Это разрушало фокус.
Тогда я нашёл open-source проект claude-seo и начал его развивать. Идея простая: если AI-агент может читать файлы и делать HTTP-запросы — он может и SEO-аудит прямо в терминале.
Анализ: почему монолитный SEO-инструмент работает медленно
Традиционный подход: один инструмент последовательно проверяет всё. Сначала технический аудит, потом контент, потом структурированные данные. Каждый шаг ждёт предыдущего.
AI-агенты дают другую возможность: параллельная специализация. Один агент не обязан уметь всё — он должен уметь одно, но делать это хорошо и одновременно с другими.
Решение: оркестрация 6 параллельных субагентов
Команда /seo audit [url] запускает шесть агентов одновременно:
| Агент | Зона ответственности |
|---|---|
| Technical | Crawlability, robots.txt, sitemap, Core Web Vitals |
| Content | Заголовки, тексты, E-E-A-T сигналы |
| Visual | Скриншоты через Playwright, OG-изображения, доступность |
| Markup | Schema.org валидация и генерация JSON-LD |
| Backlinks | Ссылочный профиль через DataForSEO MCP |
| AEO/GEO | Оптимизация под AI-поисковики |
Все результаты агрегируются в единый ACTION-PLAN.md с приоритизированным списком задач.
AEO/GEO — то, чего нет в классических инструментах
Это ключевое отличие проекта. AEO (AI Engine Optimization) и GEO (Generative Engine Optimization) — оптимизация контента под AI-поисковики: ChatGPT Search, Perplexity, Gemini.
Классические SEO-инструменты не знают, как анализировать цитируемость контента в LLM-ответах. Этот плагин делает именно это: проверяет структуру материала, наличие авторитетных сигналов, формат ответов на вопросы (FAQ-структуры), которые AI-модели используют для формирования своих ответов.
MCP-интеграция как архитектурное решение
Вместо того чтобы хардкодить API-вызовы, плагин использует Model Context Protocol — стандарт Anthropic для подключения внешних инструментов к агентам. DataForSEO подключается как MCP-сервер и отдаёт живые данные по ключевым словам, позициям и ссылочной массе прямо в контекст агента.
Это позволяет менять провайдеров данных без переписывания логики агентов.
E-E-A-T фреймворк
Автоматизированная проверка по четырём факторам Google: Experience (личный опыт автора), Expertise (экспертность), Authoritativeness (авторитетность источника), Trust (доверие).
Для YMYL-тематик (медицина, финансы, право) это особенно критично — без E-E-A-T сигналов позиции в выдаче не растут независимо от технического состояния сайта.
Принцип Progressive Disclosure
Основной код лаконичен — это принципиально. Детали реализации и референсные данные вынесены в отдельные файлы. Это позволяет новому разработчику понять логику за 10 минут, а глубже изучить конкретный модуль по необходимости.
Результат
Полный SEO-аудит сайта занимает 3–5 минут вместо нескольких часов — за счёт параллельной работы агентов. Специалист получает не список инструментов, а готовый план действий.
Главный вывод: мультиагентная архитектура — это не только про разработку. Это про любую профессиональную экспертизу, которую можно декомпозировать на параллельные специализации.