8 апр. 2026 г.

AEO Visibility Challenge — Неделя 1: 0% видимости. Так выглядит честный старт с нуля

Webappski только что переориентировалось на Answer Engine Optimization. Прежде чем заявлять, что мы способны сделать другие бренды видимыми для ИИ, мы измерили самих себя. Результат: ноль упоминаний в девяти запросах к API и шести ручных проверках платформ. Это первая неделя публичной серии, в которой агентство AEO показывает, как строит видимость в ИИ с абсолютного нуля.

AEO Visibility Challenge — Неделя 1: 0% видимости. Так выглядит честный старт с нуля

Webappski — это AEO-агентство. В первой неделе нашего публичного эксперимента по AI-видимости мы протестировали свой бренд в пяти системах: ChatGPT, Gemini, Claude, Perplexity и Microsoft Copilot — по три небрендированных запроса в каждой, итого пятнадцать проверок. Результат: ноль упоминаний. Ни один из ИИ-движков пока не знает, что мы существуем. Именно так выглядит честный первый день для агентства, которое только что переориентировалось на Answer Engine Optimization.

7 апреля 2026 года команда Webappski провела первый замер видимости webappski.com в экосистеме AI-поиска. Сделали мы это ровно так, как делаем для клиентов — прямые вызовы API к OpenAI, Google и Anthropic, плюс ручные проверки в Perplexity и Microsoft Copilot. Три тестовых запроса подобрали так, чтобы они соответствовали трём вертикалям, в которых мы работаем: коммерческий поиск агентства, информационный how-to и вертикальный поиск для индустрии SaaS.

На этом мы не остановились. Webappski мы прогнали ещё через два самых популярных сторонних инструмента измерения AEO: HubSpot AEO Grader и Ahrefs Free AI Visibility. То, что мы узнали о самих этих инструментах, в каком-то смысле важнее того, что мы узнали о собственной видимости.

Три тестовых запроса

Тестовые запросы мы подобрали так, чтобы они отражали реальные поисковые интенты в трёх вертикалях Webappski: наём агентства (коммерческая интенция), авторитет в how-to контенте и вертикальная специализация SaaS. Ни в одном из них не упоминается название нашего бренда. Это сделано намеренно — брендированный запрос ничего не доказывает, ведь любой будет процитирован, если его собственное имя стоит в поисковой строке.

  1. Q1 (коммерческая интенция): best answer engine optimization agencies 2026
  2. Q2 (информационная интенция): how to make my website visible in ChatGPT and Perplexity
  3. Q3 (вертикальная интенция): AEO services for B2B SaaS companies

Результаты прямых вызовов API

Каждый из трёх запросов мы запустили в трёх ИИ-движках через их официальные API: OpenAI (gpt-4o-search-preview), Google Gemini (gemini-2.0-flash с grounding) и Anthropic Claude (claude-sonnet-4-6 с web search). Итого девять API-вызовов. Результат был одинаковым в каждом из них: webappski.com не появился ни в тексте ответа, ни в цитированных источниках, ни где-либо ещё в любом из девяти ответов.

Вместо нас мы увидели имена агентств, которые уже захватили эти запросы. First Page Sage вышел рекомендацией номер один в двух движках (Claude и Gemini) для коммерческого запроса. NoGood появился в двух движках и интересен тем, что построил собственную AEO-платформу под названием Goodie. iPullRank также оказался в двух движках. Остальные агентства, упомянутые в наших девяти API-ответах: Omnius, House of Growth, Avenue Z, Minuttia, Searchtides, Amsive, LSEO, WebFX, Ignite Visibility, Victorious и SmartSites.

В вертикальном SaaS-запросе появился совершенно другой набор имён: Omnius (Лондон, специализация на SaaS), XEO.works, Online Optimism, плюс цитирования пяти SaaS-AEO листов на Discovered Labs, Team4 Agency, ABM Agency, Maximus Labs и блоге Omnius. Во всех пяти списках Webappski отсутствовал. Именно это отсутствие — самая практически применимая находка первой недели: существует пять готовых подборок, попадание в любую из которых мгновенно даст нам измеримую видимость.

Ручные проверки платформ

Прямой доступ к API доступен не для каждого ИИ-ассистента, которым пользуются наши потенциальные клиенты. Perplexity открывает API только подписчикам Pro, а у Microsoft Copilot вовсе нет публичного потребительского API. Поэтому команда проверила обе платформы вручную — открыла каждую в инкогнито-окне, прогнала те же три запроса и внимательно прочитала ответы.

Perplexity вернул ноль упоминаний по всем трём запросам. Microsoft Copilot вернул ноль упоминаний по всем трём запросам. Ручной счёт оказался ноль из шести. Вместе с девятью API-проверками итог первой недели — ноль из пятнадцати, ровно 0%.

Затем мы протестировали сами трекеры

Имея уже жёсткие данные напрямую из ИИ-движков, мы решили прогнать Webappski через два популярных сторонних инструмента измерения AEO, чтобы посмотреть — совпадают ли они с реальностью. Не совпали. И то, как именно оба приложения разошлись с реальностью, оказалось главным уроком всей недели.

HubSpot AEO Grader

Результат HubSpot AEO Grader для webappski.com со значениями 28/100 (OpenAI), 34/100 (Perplexity) и 44/100 (Gemini)
HubSpot AEO Grader оценил Webappski в 28-44 балла из 100 в трёх движках, отметив Gemini как 'on the right track' — в то время как пять других независимых источников подтвердили ноль упоминаний.

HubSpot выдал следующие общие AEO-оценки: 28/100 для OpenAI, 34/100 для Perplexity и 44/100 для Gemini. Для Gemini результат пришёл даже с зелёным статусом: 'You are on the right track.' Brand Sentiment был оценён как 19/40, 18/40 и 26/40 соответственно. Share of Voice для Gemini составил 7/10.

Эти числа не сходятся с тем, что мы только что наблюдали напрямую. Пять независимых источников — три прямых API-теста и две ручные проверки платформ — вернули ноль упоминаний. Так почему же HubSpot показывает Webappski на середине AEO-шкалы, а Gemini якобы 'on the right track'? Три фактора, скорее всего, объясняют этот разрыв.

  1. Грейдер использует узкий географический и категориальный фильтр. URL результата содержит параметры ?geography=Europe&productsServices=services&industry=AEO. В такой узкой нише любой сайт с базовым техническим AEO — llms.txt, Schema.org, продуманными страницами услуг — получает относительно высокий балл. Грейдер не измеряет фактические упоминания в ИИ. Он скорее измеряет, насколько сайт технически готов к тому, чтобы его в принципе можно было измерить.
  2. Это часть более широкой продуктовой экосистемы. AEO Grader — это бесплатный входной инструмент, существующий рядом с коммерческими предложениями HubSpot, и этот контекст влияет на логику оценки. Сообщение 'есть куда расти' — куда более вовлекающее начало разговора, чем 'у вас ноль' или 'вы идеальны', — и эта склонность к средним показателям, скорее всего, объясняет, почему наши числа удобно приземлились над нулём, а не на нём.
  3. Brand Recognition — единственная метрика, ближайшая к правде. Во всех трёх движках HubSpot оценил Brand Recognition Webappski как 1/20. Эта одна метрика совпадает с тем, что мы видели напрямую: ИИ-движки практически не знают о нашем существовании. Остальные метрики взвешены иначе и в итоге смягчают общую картину.

Ahrefs Free AI Visibility

Результат Ahrefs Free AI Visibility с сообщением 'No AI mentions found for webappski'
Ahrefs Free AI Visibility вернул ровный ответ 'No AI mentions found for webappski' — ближе к реальности, но Ahrefs Free известен ложными негативами даже для брендов, которые явно упоминаются в других источниках.

Ahrefs дал нам ровно противоположный ответ: 'No AI mentions found for webappski.' Ни балла. Ни разбивки. Только ровный ноль и предложение перейти на Brand Radar за подробностями.

На первый взгляд Ahrefs совпадал с нашими жёсткими данными — пять источников показали ноль, и Ahrefs показал ноль. Однако наша команда уже тестировала Ahrefs Free на других брендах, которые действительно упоминаются в своих категориях. Бесплатная версия и в тех случаях выдавала ложные негативы. Поэтому честный вывод не в том, что один трекер прав, а другой ошибается. Честный вывод такой: оба бесплатных сторонних трекера стоит воспринимать как неточные индикаторы, а не как стандарты измерения. HubSpot обычно ставит брендам оценку выше их реальной видимости, Ahrefs Free — обычно ниже. Ни один из них нельзя безопасно использовать как единственный источник истины.

Чему нас научила первая неделя

Самая важная находка первой недели — не сама оценка, а противоречие между измерительными инструментами. HubSpot показал 28-44 из 100. Ahrefs показал ноль. Реальность, измеренная пятью независимыми способами, тоже показала ноль. Два платных сторонних инструмента, две совершенно разные истории — и ни одна из них не соответствовала тому, что ИИ-движки реально возвращают, когда наши потенциальные клиенты что-то у них спрашивают.

Webappski только что переориентировалось на AEO. Техническая база у нас на месте — llms.txt, структурированные данные Schema.org, страницы услуг, построенные по принципу answer-first. Контент-pipeline написан, но публично пока не выложен. Это значит, что наш baseline звучит не как 'у нас всё есть, но не работает'. Наш baseline — это буквально точка отсчёта. И в этом весь смысл публичного ведения этого челленджа: показать пошагово, как AEO-агентство строит свой авторитет с абсолютного нуля, без срезов.

Самое интересное наблюдение по конкуренции касается First Page Sage. Они доминировали в Q1 и в Claude, и в Gemini — не потому, что их контент лучший в индустрии, а потому что они уже в 2023 году объявили себя 'первым агентством, предлагающим услуги AEO'. Они захватили ментальную категорию в обучающих данных моделей ИИ ещё до того, как кто-либо другой вообще начал пытаться. Это окно частично уже закрылось, но не для каждой вертикали. Урок такой: в ИИ-поиске назвать категорию первым важнее, чем производить лучший контент.

Наша команда запустила этот челлендж, потому что мы стали скептичны к измерительным инструментам, чьи дашборды не соответствуют тому, что ИИ-движки реально возвращают. Если ваше агентство заявляет, что занимается AEO, у вас должен быть публичный, проверяемый baseline. Иначе ваша AEO-экспертиза опирается на тот же фундамент, что и дашборд стороннего инструмента — а нам хотелось чего-то более строгого, того же стандарта, который мы применяем к работе с клиентами.

Мы протестировали это дважды — и снова получили ноль

После первого раунда аудита мы расширили методологию дуальной проверкой моделей: каждый ИИ-провайдер запрашивался как самой свежей доступной моделью, так и стабильной референсной. Это нужно было, чтобы исключить шум конкретной модели — возможность того, что одна версия нас просто пропустила, а другая, более новая, могла бы найти.

Модели верхнего уровня, которые мы протестировали: OpenAI gpt-5.4 через Responses API с инструментом web_search, Anthropic claude-opus-4-6 с инструментом web_search, ограниченным пятью вызовами на запрос, и Gemini 2.5 Flash с grounding Google Search. Уточнение: самый верхний уровень Gemini Pro (gemini-3.1-pro-preview) был недоступен из-за достигнутого месячного лимита расходов нашего проекта в Google AI Studio — этот вопрос мы решим во второй неделе и переключимся на Pro-уровень.

Latest-tier модели проделали значительно больше работы, чем референсные. gpt-5.4 процитировал 14 источников по нашим трём запросам — почти впятеро больше, чем три источника gpt-4o-search-preview. claude-opus-4-6 использовал 20 цитирований против десяти у claude-sonnet-4-6. Более новые, более мощные модели искали интенсивнее, дольше и в большем числе доменов.

И всё равно не нашли ни одного упоминания Webappski.

Это самый сильный возможный сигнал baseline. Ноль — это не функция выбранной модели, использованного API-интерфейса или конкретного провайдера. Это структурная невидимость — бренда фактически нет в корпусе, из которого ИИ-движки извлекают информацию по этим запросам. Никакой умный выбор модели не помог бы нас обнаружить. Авторитет нам нужно построить самим.

Что происходит дальше

Неделя 2 — это начало настоящей работы. Команда выложит контент-pipeline по AEO, который до этого ждал в черновиках. Мы запустим outreach к авторам SaaS-AEO листов, в которых Webappski сейчас отсутствует — Discovered Labs, Team4 Agency, ABM Agency, Maximus Labs и Omnius. Цель по Q3 (вертикали SaaS) — конкретная: попасть в одну из этих пяти подборок в течение четырёх недель. Это единственное размещение должно дать нам первое измеримое упоминание.

Для Q1 (общий поиск агентства) и Q2 (запрос на авторитет how-to) путь длиннее. Q1 требует размещения в более авторитетных подборках, которые Claude и Gemini уже цитируют — Scrunch, Minuttia, ModernMarketingPartners. Q2 требует гостевых публикаций на доменах, которые ИИ-движки считают авторитетными для AEO how-to: cranseo.com, trueffle.com, RankMath и Prerender. Оба направления — работа на месяцы, а не на недели.

Наш реалистичный прогноз на Неделю 8: 15-20% видимости. Если получим меньше — это будет означать, что проблема глубже, чем нехватка backlink-ов и контента, и этот разговор будет публично ещё интереснее, чем нынешний.

Методология

Каждую неделю мы запускаем три небрендированных запроса в пяти ИИ-движках. Три прямых API-теста используют самые свежие доступные модели с включённым web search: OpenAI gpt-4o-search-preview, Google Gemini 2.0 Flash с grounding и Anthropic Claude Sonnet 4.6 с web search. Две ручные проверки платформ проходят в Perplexity и Microsoft Copilot, в режиме инкогнито, без залогиненного аккаунта — чтобы убрать влияние персонализации на результаты.

Мы фиксируем, упомянут ли webappski в тексте ответа, появляется ли домен бренда в цитированных источниках, какую позицию занимает упоминание, если оно есть, и какой у него sentiment, если есть. Score видимости считаем как процент от пятнадцати общих проверок, которые вернули упоминание. Baseline первой недели — 0/15 = 0%. Каждая следующая неделя сравнивается ровно с этим baseline, используя ровно те же запросы и ровно те же движки.

Следите за AEO Visibility Challenge Webappski каждую неделю, чтобы увидеть всю серию. Мы публикуем каждый результат — успехи, провалы и особенно противоречия между тем, что говорят трекеры, и тем, что ИИ-движки реально возвращают.

← Вернуться ко всем постам