AEO Visibility Challenge — Tydzień 3: 0/10 dla naszej własnej marki, pobrania z npm prawie podwojone do 729
Tydzień 2 poszedł w całości na budowę trackera, a nie na pisanie o nim — dlatego ten wpis to połączona aktualizacja Tygodnia 2 i 3 z naszego eksperymentu z widocznością usług AEO Webappski. Otworzyliśmy warstwę pomiarową na licencji open source i przepuściliśmy przez nią własną markę. Wynik: nadal zero. Pobrania: spokojne ~400 tygodniowo, dopóki paczka generowała zwykły raport tekstowo-tabelaryczny — a potem prawie podwoiły się do 729 w ciągu około 48 godzin od momentu, w którym v0.2.5 zastąpiła go zwizualizowanym raportem HTML.

Szybka odpowiedź
Open-source'owy tracker AEO od Webappski — @webappski/aeo-tracker (npm, MIT, link) — utrzymywał się na poziomie około 400 pobrań tygodniowo przez pierwsze dwa tygodnie życia jako zwykły raport tekstowo-tabelaryczny, a następnie prawie podwoił się do 729 w ciągu ~48 godzin od wydania v0.2.5 ze zwizualizowanym raportem HTML/SVG. Wynik widoczności AEO samego Webappski w tym samym tygodniu: 0 z 10 zautomatyzowanych komórek (3 Gemini + 4 ChatGPT + 3 Claude). Liczba porównywalna z Tygodniem 1 — po odjęciu komórki stabilności ChatGPT i dodaniu 3 ręcznych zapytań Perplexity oraz 3 ręcznych Copilot — to 0 z 15 (3 zapytania × 5 silników), dokładnie tyle samo co baseline z Tygodnia 1. Obie liczby są prawdziwe. Poniżej: dlaczego zbudowaliśmy własne narzędzie zamiast płacić za cudze, co pierwsze uruchomienie na Webappski pokazało i jaki mamy plan, żeby ruszyć liczbę powyżej zera.
Dlaczego przestaliśmy płacić za trackery AEO
W Tygodniu 1 przepuściliśmy webappski.com przez HubSpot AEO Grader oraz darmowe narzędzie AI Visibility od Ahrefs. Grader HubSpota w trakcie kilku uruchomień w tym samym tygodniu zwracał wyniki w przedziale 28-44. Narzędzie Ahrefsa zwróciło zupełnie inny kształt rezultatu. Bezpośrednie testy API tych samych silników pokazały zero wzmianek w każdym zapytaniu.
Przez kolejne dwa tygodnie rozszerzyliśmy eksperyment o płatne trackery, o które najczęściej pytali nas potencjalni klienci: Profound, Otterly i Peec.ai (ceny na kwiecień 2026: odpowiednio 499 USD/mies., 69 EUR/mies. i 89 EUR/mies., plany wejściowe).
Wyniki nie napawały optymizmem.
- Różni dostawcy zwracali różne liczby dla tej samej marki w tym samym tygodniu.
- Żaden z nich nie chciał pokazać surowej odpowiedzi AI, na podstawie której rzekomo wyliczany był wynik.
- Część narzędzi po prostu scrapowała wyniki Bing lub Google SERP i wyciągała z nich „widoczność w ChatGPT” — co nie ma nic wspólnego z faktycznym wywołaniem API ChatGPT.
- Każdy panel owijał swój pomiar w autorską warstwę punktacji („Brand Presence Index”, „Visibility Score”, „AEO Index”), której wzoru nie udało nam się znaleźć nigdzie w dokumentacji.
Dla agencji, która zamierza pobierać od klientów pieniądze za pracę nad AEO, była to sytuacja nie do utrzymania. Potrzebujemy liczby, której da się obronić w trakcie spotkania. Wynik z czarnej skrzynki dostawcy, którego nie możemy niezależnie zweryfikować, nie jest liczbą, której da się bronić.
Spisaliśmy więc minimalne wymagania dla trackera, któremu sami byśmy zaufali:
- Bezpośrednie wywołania API do ChatGPT, Gemini, Claude i Perplexity — bez scrapowania, bez sesji przeglądarki przez proxy.
- Każda surowa odpowiedź zapisywana na dysku, tak by każdą liczbę z raportu dało się zweryfikować, cofając się do dokładnej odpowiedzi AI, z której pochodzi.
- Bez własnej, autorskiej warstwy punktacji — pokazujemy liczby wzmianek i pozycje, nie nieprzejrzysty indeks.
- Open source, żeby ktokolwiek (klienci, konkurencja, dziennikarze) mógł przeczytać kod i zakwestionować logikę.
- Wystarczająco tanie, by uruchamiać co tydzień dla marki przed pierwszym przychodem. Cykle tygodniowe poniżej dolara.
Nic na rynku nie spełniało tej poprzeczki. Więc zbudowaliśmy to sami.
Czym jest @webappski/aeo-tracker
@webappski/aeo-tracker to narzędzie wiersza poleceń napisane w Node.js, opublikowane na npm na licencji MIT. Działa lokalnie na Twoim komputerze, woła oficjalne API ChatGPT, Gemini, Claude i Perplexity, a następnie generuje raport w Markdown z wykresami SVG osadzonymi inline oraz w pełni interaktywny dashboard HTML. Paczka nie ma żadnych zależności runtime — całe CLI, łącznie z renderem wykresów, to zwykły Node.js 18+. Audyt kodu zajmuje jedno popołudnie.
Trzy komendy od początku do końca:
npm install -g @webappski/aeo-tracker
aeo-tracker init --auto
aeo-tracker run
aeo-tracker report --htmlinit --auto pobiera Twoją stronę główną, prosi LLM o zaproponowanie zapytań pasujących do kategorii, weryfikuje je drugim modelem i zapisuje konfigurację. run woła każdy silnik AI, którego klucz API masz ustawiony w środowisku powłoki. report --html renderuje deliverables.
Kilka decyzji projektowych, które wprost odpowiadają na opisane wyżej frustracje:
- Bezpośrednie wywołania API, nic po drodze. Bez scrapowania, bez automatyzacji przeglądarek, bez sesji przez proxy. Kiedy tracker mówi „ChatGPT”, chodzi o wywołanie OpenAI API. Kiedy mówi „Gemini” — o Google Gemini API. Identyfikatory modeli są domyślnymi wartościami z konfiguracji, które możesz nadpisać dla pojedynczego uruchomienia.
- Krzyżowa weryfikacja konkurencji dwoma modelami LLM. Po każdej odpowiedzi AI dwa tanie modele klasyfikujące niezależnie od siebie wyciągają z tekstu wszystkie wymienione marki. Jeśli oba się zgadzają, marka trafia do warstwy „verified” raportu. Jeśli zgadza się tylko jeden — ląduje w „unverified” z plakietką w przerywanej linii. Halucynowane nazwy marek, które jednomodelowe ekstraktory zwracają nagminnie, są dzięki temu odfiltrowane.
- Walidacja zapytań przed startem. Zanim jakiekolwiek zapytanie trafi do silnika, osobny przebieg LLM sprawdza, czy nie jest komercyjnie dwuznaczne, zbyt naszpikowane akronimami albo poza realną kategorią marki. Złe zapytania są odrzucane, zanim wydasz na nie kredyty API.
- Surowe odpowiedzi zapisywane na dysku. Każda kombinacja zapytanie × silnik zapisuje plik JSON w katalogu
aeo-responses/YYYY-MM-DD/. Każda liczba z raportu da się prześledzić aż do dokładnej odpowiedzi AI, z której powstała. - Tygodniowe uruchomienia poniżej dolara. Pokrycie dwoma silnikami (OpenAI + Gemini) to z grubsza dwadzieścia centów na uruchomienie. Pełne pokrycie czterosilnikowe z dodanymi Anthropic i Perplexity to mniej więcej pięćdziesiąt pięć centów.
Pełny kod źródłowy znajdziesz pod adresem github.com/DVdmitry/aeo-tracker. Repozytorium leży na osobistym koncie hostingowym GitHub maintainera, podczas gdy paczka npm jest opublikowana w organizacyjnym scope @webappski — to świadoma decyzja, którą podjęliśmy, żeby szybciej wypuścić narzędzie, a nie przypadek; własność być może skonsolidujemy w jednym z kolejnych wydań. Od teraz zamierzamy dogfoodować trackera co tydzień zarówno na samym Webappski, jak i przy każdej przyszłej współpracy z klientem — ten wpis to pierwszy taki cykl tygodniowy.
Co tracker pokazuje dziś dla Webappski
Oto nagłówek z najnowszego uruchomienia, datowanego na 21 kwietnia 2026:
0 z 10 komórek zapytanie-silnik wymieniło Webappski. Wynik: 0%. Status: INVISIBLE.
Wybraliśmy trzy zapytania pasujące do wertykali, w których sprzedajemy — komercyjne wyszukiwanie agencji, zapytanie o usługi dla startupów oraz informacyjne zapytanie problem-led. Żadne z nich nie zawiera nazwy naszej marki. Brandowe zapytanie niczego nie udowadnia — silnik cytuje Cię tylko dlatego, że sam o siebie poprosiłeś.
- Q1: „best Answer Engine Optimization agencies 2026” (intencja komercyjna)
- Q2: „Answer Engine Optimization service for startups” (wertykal startupowy)
- Q3: „how to fix AI search visibility for my startup” (intencja informacyjna problem-led)
Rozbicie na poszczególne silniki:
- Gemini: 0 z 3. Webappski nie pojawił się ani w treści odpowiedzi, ani w cytowanych źródłach żadnego z trzech zapytań.
- ChatGPT: 0 z 4. Ten sam rezultat. API ChatGPT zostało odpytane cztery razy zamiast trzech: trzy uruchomienia na bieżącym domyślnym modelu przeglądarkowym (komórki nagłówkowe) plus jedno porównawcze na wcześniejszej generacji modelu, w roli sanity checku stabilności (liczone jako czwarta komórka). Wszystkie cztery zwróciły zero wzmianek, więc kształt nagłówka — 0 — wygląda tak samo niezależnie od tego, jak liczymy.
- Claude: 0 z 3. Webappski nie pojawił się w żadnej odpowiedzi.
To daje 0 z 10 zautomatyzowanych komórek (3 Gemini + 4 ChatGPT + 3 Claude), zero wzmianek w każdej z nich. Żeby uzgodnić to z baseline'em z Tygodnia 1 wynoszącym 0/15 (3 zapytania × 5 silników), odejmujemy dodatkową komórkę stabilności ChatGPT i dodajemy ręczne sprawdzenia w trybie incognito dla Perplexity (3 zapytania) i Microsoft Copilot (3 zapytania) wykonane tego samego dnia: 9 zautomatyzowanych + 6 ręcznych = 0 z 15, dokładnie ten sam kształt co w Tygodniu 1. Na każdym silniku, do którego narzędzie sięga automatycznie, i na każdym, którego ręcznie używają nasi potencjalni klienci, pozostajemy niewidoczni.
Jest jeden plus tego pomiaru, którego ręczne podejście z Tygodnia 1 nam nie dało: dokładnie widzimy, którzy konkurenci są rekomendowani w naszym miejscu, na którym zapytaniu i przez który silnik.
Kogo AI wymieniło zamiast nas
W odpowiedziach z dziesięciu komórek po imieniu pojawiły się cztery inne trackery AEO — każdy w jednej komórce.
- Webappski (my): 0 / 10 komórek — baseline.
- Profound: 1 / 10 komórek — zamknięty dashboard, plan wejściowy od 499 USD/mies.
- Scrunch AI: 1 / 10 komórek — zamknięty dashboard, ceny niepublikowane.
- Peec.ai: 1 / 10 komórek — zamknięty dashboard, od 89 EUR/mies.
- Otterly.ai: 1 / 10 komórek — zamknięty dashboard, od 69 EUR/mies. Pojawił się w odpowiedzi Claude na Q1.
Piętro niżej — w warstwie agencji — silniki AI wymieniły kilka nazw:
- Dla Q1 („best AEO agencies 2026”): ChatGPT zacytował w treści źródeł LSEO i WebFX. Claude wymienił Profound, Scrunch AI, Peec AI oraz Otterly AI jako warstwę narzędziową.
- Dla Q2 („AEO service for startups”): Gemini wskazał Flying Cat, NoGood, Marcel Digital i Minuttia. Claude wskazał Discovered Labs, Omniscient Digital, Omnius i RevenueZen.
- Dla Q3 („how to fix AI search visibility for my startup”): głównie wskazówki na poziomie kategorii, bez konkretnych rekomendacji marek. Komórka, w której najbardziej spodziewasz się cytowań konkurencji, okazała się tą o najmniejszym ich zagęszczeniu.
Dla agencji w pierwszym tygodniu istnienia w tej kategorii ta mapa to gotowy plan działania. Każdy wymieniony konkurent jest miejscem, którego silniki AI nauczyły się już rekomendować, na zapytaniu, które nasi potencjalni klienci wpisują w tym miesiącu. Zamknięcie luki oznacza pojawienie się w tych samych typach źródeł, z których silniki nauczyły się tych nazw.
Co tracker mówi nam zrobić w tym tygodniu
Narzędzie generuje rekomendacje per silnik na podstawie danych z uruchomienia. Pule, z których czerpią poszczególne silniki, są różne — to, co działa na ChatGPT, niekoniecznie zadziała na Claude — dlatego lista akcji jest podzielona według silnika. Lista na Tydzień 3 jest dla marki na zerze prosta i przewidywalna:
- Gemini opiera się na wynikach Google Search — to udokumentowane zachowanie (Google AI for Developers — Grounding with Google Search). Strony o wysokim Domain Rating, które Google już indeksuje na powiązane słowa kluczowe, ważą tu najwięcej. Akcja: zdobywać cytowania w publikacjach o wysokim DR. Dodać schematy
FAQPageiArticlena landing page'ach, żeby sygnały danych strukturalnych Gemini były w stanie nas znaleźć. - Przeglądanie ChatGPT historycznie napędzane było indeksem Bing, zgodnie z dokumentacją OpenAI Browse with Bing i raportami SearchEngineLand. Platformy z recenzjami i serwisy społecznościowe Q&A są nadreprezentowane w autorytatywnej puli wyników Bing. Akcja: dostać się na G2 i Capterra. Odpowiadać na Reddicie i Quorze tam, gdzie nazwa narzędzia padła naturalnie. Opublikować artykuł porównawczy.
- Claude łączy wiedzę z korpusu treningowego z wyszukiwaniem w sieci. Anthropic dokumentuje narzędzie web search; dostawca pod spodem zmieniał się w czasie, a Brave bywa najczęściej cytowany jako historyczny domyślny silnik. Ekosystemy deweloperskie (npm, GitHub, dev.to) i strony lansujące produkty są nadreprezentowane w korpusie treningowym. Akcja: wypuścić paczkę na npm (zrobiliśmy to — to częściowo dlatego ten artykuł powstał). Opublikować na dev.to. Wystartować na Product Hunt.
Najpierw wykonujemy rekomendację dla Claude, bo dla firmy, której własny produkt jest też narzędziem dla deweloperów, daje największą dźwignię: tracker Webappski na npm i GitHubie sam w sobie jest próbą zasilenia korpusu treningowego Claude'a.
Dlaczego otworzyliśmy warstwę pomiarową na open source
Rozsądnym biznesowo ruchem byłoby zapakowanie @webappski/aeo-tracker jako płatnego SaaS w dolnym przedziale cenowym kategorii, naliczanie opłaty za hostowany dashboard i blokowanie każdego eksportu za paywallem. Rozważaliśmy to. Poszliśmy w drugą stronę z jednego prostego powodu: w tej kategorii pomiar powinien być commodity — interpretacja i wykonanie nie powinny. Zamknięte dashboardy w tej przestrzeni kosztują dziś od kilkudziesięciu dolarów (Otterly, Peec.ai) do kilkuset (Profound) miesięcznie wyłącznie za samą warstwę pomiarową.
Klient, który może niezależnie zainstalować nasz tracker i zobaczyć własne surowe liczby, to klient, który tydzień po tygodniu może sprawdzać naszą pracę. Nie musi nam wierzyć na słowo w sprawie wyniku, który prezentujemy na poniedziałkowym spotkaniu — może uruchomić ten sam skrypt i przeczytać te same pliki JSON. To rodzaj relacji, jakiej chcemy.
Tym, co zostaje przy Webappski — i za co pobieramy opłatę — jest część, której CLI nie robi. Czytanie macierzy w poniedziałkowy poranek. Decydowanie, które luki warto zamykać, a które są tylko szumem w zapytaniach. Pitch'owanie kanonicznych źródeł, które cytują silniki AI. Pisanie stron porównawczych, które przesuwają wynik. Negocjowanie wpisów w listingach. Redagowanie odpowiedzi na Reddicie i Quorze, których moderatorzy nie usuną. Nic z tej pracy nie siedzi w CLI, nic z niej nie jest tanie i to wszystko razem jest powodem, dla którego agencja AEO w ogóle istnieje.
Jeśli brzmi to interesująco: webappski.com/aeo-services to miejsce, w którym umawiamy rozmowy wprowadzające. Jeśli nie: tracker i tak jest Twój — npm install -g @webappski/aeo-tracker, bez telemetrii, bez analityki, bez ruchu do naszych serwerów. Twoje klucze API i Twoje dane zostają na Twojej maszynie.
729 pobrań tygodniowo po wypuszczeniu zwizualizowanego raportu
Chronologia jest tu ważniejsza niż sama liczba w nagłówku, bo krzywa to ciekawsza historia niż sam jej szczyt.

@webappski/aeo-tracker opublikowaliśmy na npm po raz pierwszy mniej więcej dwa tygodnie przed tym raportem (około 12 kwietnia 2026). Wczesne wersje generowały zwykły raport tekstowo-tabelaryczny — użyteczny, ale wizualnie bez polotu. (Dla osób, które trafiają tu na zimno: Answer Engine Optimization to praktyka sprawiania, by marka pojawiała się w odpowiedziach asystentów AI — ChatGPT, Perplexity, Gemini, Claude — tak samo, jak SEO sprawia, że marka pojawia się w niebieskich linkach Google. Tracker w tej kategorii to przyrząd, który mówi Ci, czy ta praktyka działa.) Przez pierwsze dziesięć do dwunastu dni paczka ustabilizowała się w przedziale ~400 pobrań tygodniowo — przyzwoity baseline dla niszowego narzędzia, ale w pełni mieszczący się w tym, co darmowe open-source'owe narzędzie AEO może zarobić wyłącznie na poczcie pantoflowej i samym fakcie posiadania scope'u organizacyjnego na npm.
W czwartek 23 kwietnia 2026 wypuściliśmy v0.2.5, która zastąpiła zwykły raport tekstowo-tabelaryczny zwizualizowanym raportem HTML (wykresy SVG inline, interaktywna macierz silników, panel rekomendacji per silnik) plus wariant w Markdown z tymi samymi wykresami. W ciągu mniej więcej 48 godzin od tego wydania licznik tygodniowy npm pokazywał 729 pobrań — prawie dwa razy więcej niż wcześniejszy baseline, ta sama paczka, ta sama nisza, bez żadnego nowego kanału dystrybucji włączonego między dwoma zrzutami.
Podwojenie przypisujemy upgrade'owi wizualizacji, a nie nagłemu napływowi ruchu z zewnątrz. Nasze case study TypelessForm — w którym przepuściliśmy nowy zwizualizowany tracker przez siostrzany produkt i opublikowaliśmy cały raport HTML, łącznie z komórkami, w których TypelessForm uzyskał 33 z 100 i tymi, w których uzyskał zero — wychodzi razem z tym wpisem o Webappski 26 kwietnia 2026, więc nie mogło napędzić skoku pobrań z 23-25 kwietnia uchwyconego na powyższym zrzucie. Liczba 729 spłynęła zanim cross-link z TypelessForm w ogóle się ukazał. Prawdopodobni współsprawcy w tym 48-godzinnym oknie: ruch bezpośrednio na stronę paczki npm (zwizualizowane README jest istotnie bardziej klikalne niż wcześniejsze, czysto tekstowe), efekt resztkowej poczty pantoflowej z wcześniejszych wersji oraz cache'e CI i mirrorów, których npm nie odbotuje. Pełna atrybucja źródeł oraz ustabilizowana liczba tygodniowa pojawią się w notatce statusowej Tygodnia 4 w dniu 3 maja 2026, kiedy 7-dniowe okno kroczące npm w pełni przewinie się po v0.2.5 oraz kiedy cross-link z TypelessForm będzie miał już cały tydzień, by się włączyć.
Uwaga o samym liczniku npm: pobrania tygodniowe obejmują cache'e mirrorów i instalacje z CI — npm nie odbotuje swojego publicznego licznika — więc liczbę 729 należy czytać jako „sygnał wzrostu rzędu wielkości”, a nie precyzyjny licznik instalacji wykonanych przez ludzi.
To dokładnie ten cross-link, który open-source'owe wydanie miało umożliwić: działająca agencja dogfood'ująca działające narzędzie na działającym produkcie, z liczbami na widoku. Streszczenie tego case study w jednym zdaniu: narzędzie wygenerowało dający się obronić baseline 33/100 dla marki, która jest live od pięciu tygodni, i wydobyło mapę konkurencji (AnveVoice, Wispr Flow, Form2Agent), która czysto pokrywa się z miejscami, w które TypelessForm musi teraz inwestować w treść.
Podobne, specyficzne dla Webappski rozbicie konkurencji opublikujemy, gdy nasza własna liczba zacznie się ruszać. Do tego czasu sensowna aktualizacja jest taka, że mamy przyrząd skalibrowany do wykrywania ruchu, kiedy on nastąpi, zamiast polegać na dashboardzie dostawcy, którego liczba potrafi przeskoczyć o piętnaście punktów między wtorkiem a czwartkiem, a nikt nie wytłumaczy dlaczego.
Co pozostaje bez zmian w Tygodniu 3
Dwie rzeczy, które nie zmieniły się od Tygodnia 1, warto powtórzyć — bo w tej kategorii powściągliwość to ruch pozycjonujący.
Mamy zero cytowań w silnikach AI. 0 z 10 z tego uruchomienia to trzeci z rzędu pomiar płaskiego zera (uruchomiliśmy tracker codziennie 19, 20 i 21 kwietnia, żeby zwalidować stabilność — ten sam wynik każdego dnia, te same marki cytowane zamiast nas). Agencja, która właśnie przestawiła się na AEO i przez trzy tygodnie nie umie ruszyć własnej liczby, jest słusznym celem sceptycyzmu. Publikujemy to mimo wszystko, bo alternatywa — udawanie, że jesteśmy dalej, niż jesteśmy — to dokładnie to, przeciwko czemu sprzedajemy.
Nadal nie zapitchowaliśmy żadnego z kanonicznych źródeł, które cytują silniki AI. To oczywisty pierwszy ruch (jedno cytowanie w domenie o wysokim DR rozchodzi się po wielu silnikach). Rzetelnie zrobiony pitch zajmuje tydzień na publikację. O pierwszej rundzie outreachu — nazwiska, daty, response rate i delta per silnik względem baseline'u Tygodnia 3 — opowiemy w aktualizacji Tygodnia 6 w dniu 17 maja 2026, kiedy się zamknie.
Status pięciu listingów SaaS-AEO oznaczonych w Tygodniu 1. Tydzień 1 wskazał pięć istniejących list (Discovered Labs, Team4 Agency, ABM Agency, Maximus Labs, blog Omnius), na których Webappski było nieobecne, i deklarował wejście na co najmniej jedną z nich w ciągu czterech tygodni. Uczciwa aktualizacja na koniec Tygodnia 3: outreach jeszcze się nie zaczął — wysiłek inżynierski potrzebny do wypuszczenia trackera pochłonął dostępną moc przerobową. Przesuwamy termin o trzy tygodnie. Nową datą docelową pierwszego umieszczenia w listingu jest Tydzień 6 (raport publikowany 17 maja 2026). Nazwiska, kontakty do redakcji, daty i response rate pojawią się w tej aktualizacji Tygodnia 6 — przedłużenie zostaje wprost zaznaczone, żeby publiczne zobowiązanie pozostało rozliczalne.
Eksperyment jest publiczny nie bez powodu. Cokolwiek ukrywamy o własnej widoczności, nie możemy wiarygodnie deklarować, że umiemy to naprawić u klienta.
Wypróbuj @webappski/aeo-tracker na swojej marce
Cały sens otwarcia trackera na open source jest taki, żebyś nie musiał wierzyć naszej liczbie na słowo. Minimalny działający setup to dwa klucze API i mniej niż minuta w terminalu:
npm install -g @webappski/aeo-tracker
export OPENAI_API_KEY="sk-proj-..."
export GEMINI_API_KEY="AIzaSy..."
aeo-tracker init --yes --brand=YOURBRAND --domain=YOURDOMAIN.COM --auto
aeo-tracker run
aeo-tracker report --htmlTo pokrywa ChatGPT i Gemini za mniej więcej dwadzieścia centów na uruchomienie. Dorzuć klucz Anthropic dla Claude'a (około trzydzieści centów) lub klucz Perplexity dla kolumny Perplexity (około pięć centów), żeby uzyskać pełne pokrycie czterosilnikowe za pięćdziesiąt pięć centów na cykl tygodniowy.
Po pierwszym uruchomieniu cały workflow to dwie komendy raz w tygodniu: aeo-tracker run && aeo-tracker report --html. Raport HTML otwiera się w przeglądarce automatycznie.
- Paczka npm: https://www.npmjs.com/package/@webappski/aeo-tracker
- Repozytorium GitHub: https://github.com/DVdmitry/aeo-tracker (konto hostingowe maintainera; scope npm to
@webappski) - Issues i PR-y mile widziane w tym samym repozytorium.
Jeśli uruchomisz tracker na własnej marce i będziesz chciał pomocy w czytaniu macierzy, nasza strona usług AEO to dobry punkt startu — przynieś plik JSON z aeo-responses/ oraz raport HTML, a my powiemy, które luki są warte Twojego czasu, a które to tylko szum w zapytaniach.
Szybki przewodnik decyzyjny
Krótka mapa „sytuacja → akcja” dla tych, którzy nie mają ochoty czytać całego wpisu:
- Zarządzasz AEO marki i potrzebujesz liczby, której da się obronić na spotkaniu → zainstaluj
@webappski/aeo-tracker, uruchamiaj co tydzień, wysyłaj output JSON każdemu, kto pyta. Koszt: 0,20-0,55 USD na uruchomienie. - Płacisz już za Profound, Otterly albo Peec.ai i chcesz zweryfikować ich liczby → uruchom nasz tracker równolegle przez tydzień i porównaj komórki per silnik. Rozbieżności wskażą, która warstwa punktacji w panelu robi tu największą robotę.
- Chcesz pomocy w interpretacji macierzy, kiedy już ją masz, albo chcesz, żeby pitching cytowań robił ktoś z zewnątrz → umów rozmowę o usługach AEO Webappski. Przynieś JSON i raport HTML z CLI.
- Zastanawiasz się, czy AEO jest w ogóle warte zachodu, zanim wydasz pierwszego dolara → uruchom nasz tracker raz na własnej marce, za darmo, i przeczytaj wpis z baseline'em Tygodnia 1, żeby zobaczyć, jak wygląda zero dla agencji, która właśnie weszła w tę kategorię.
- Jesteś kontrybutorem open source albo badaczem AEO → repozytorium, issues i PR-y pod adresem github.com/DVdmitry/aeo-tracker. Logika dwumodelowej ekstrakcji konkurencji to ta część, którą najbardziej warto przejrzeć.
FAQ
Czym jest @webappski/aeo-tracker?
Open-source'owe CLI w Node.js na licencji MIT, które mierzy, jak często silniki odpowiedzi AI — ChatGPT, Gemini, Claude, Perplexity — wymieniają daną markę. Woła oficjalne API bezpośrednio, zapisuje każdą surową odpowiedź na dysk, wyciąga wzmianki o konkurencji przez krzyżową weryfikację dwoma modelami i generuje raport w Markdown oraz HTML. Instalacja: npm install -g @webappski/aeo-tracker.
Czym różni się od Profound, Otterly, Peec.ai czy AEO Gradera od HubSpota?
Trzy różnice. (1) Bezpośrednie wywołania API silników — bez scrapowania, bez sesji przez proxy, bez cudzej warstwy punktacji. (2) Każda surowa odpowiedź AI ląduje na dysku, dzięki czemu każdą liczbę z raportu da się prześledzić aż do oryginalnego tekstu. (3) Jest darmowe i open source na MIT. Czytasz kod, kwestionujesz logikę, forkujesz.
Czy Webappski oferuje płatne usługi AEO?
Tak — to właśnie agencja. Tracker jest warstwą pomiarową. Agencja to interpretacja i wykonanie: cytowania w źródłach trzecich, treści porównawcze, wpisy w listingach, audyty schematów, cotygodniowa lektura raportu. webappski.com/aeo-services to miejsce, w którym umawiamy rozmowy wprowadzające.
Dlaczego Wasz własny wynik AEO nadal wynosi zero?
Bo jesteśmy osiemnaście dni w istnieniu agencji w tej kategorii i nie zapitchowaliśmy jeszcze żadnego z kanonicznych źródeł, które cytują silniki AI. Najpierw mierzymy, publikujemy uczciwie i ruszymy liczbę, kiedy ją ruszymy. Eksperyment jest publiczny po to, żeby luka między „tym, co sprzedajemy” a „tym, co robi nasza własna liczba”, była widoczna.
Co oznacza 729 pobrań tygodniowo dla zupełnie nowej paczki?
Tygodniowy licznik pobrań npm to 7-dniowe okno kroczące, które obejmuje także instalacje z mirrorów i CI. Paczka utrzymywała się przy ~400 pobraniach tygodniowo przez pierwsze dwa tygodnie, gdy wypuszczała zwykły raport tekstowo-tabelaryczny, a potem prawie podwoiła się do 729 w ciągu ~48 godzin od wydania v0.2.5, które zastąpiło ten raport zwizualizowanym dashboardem HTML/SVG. To podwojenie najlepiej czytać jako sygnał upgrade'u wizualizacji, a nie skok premierowy. Ustabilizowaną liczbę tygodniową raportujemy w Tygodniu 4, kiedy 7-dniowe okno w pełni przewinie się po v0.2.5.
Co dalej
Częstotliwość publikacji między teraz a kolejnym dużym raportem jest celowa, nie jest to cisza. Oto harmonogram:
- Tydzień 4 (publikacja 3 maja 2026) — krótka notatka statusowa. W tym tygodniu zaczyna się pierwsza runda outreachu do kanonicznych źródeł oznaczonych przez
aeo-trackerz cytowań konkurencji; publikujemy zwięzłą pitch-listę z redakcjami, do których trafił mailing, datami i deltą trackera (jeśli będzie) względem baseline'u Tygodnia 3. - Tydzień 5 (publikacja 10 maja 2026) — krótka notatka statusowa. Dystrybucja: artykuł na dev.to live, plus jedna społeczność reddita tolerująca self-promo (najpewniej r/SideProject lub r/SEO — konkretny subreddit potwierdzimy dopiero po zapoznaniu się z każdym zestawem reguł) oraz Hacker News (Show HN, jeśli próg karmy konta na to pozwoli). Każde z tych miejsc karmi inną pulę źródeł innego silnika. Nie zobowiązujemy się do konkretnego subreddita, dopóki nie sprawdzimy reguł moderacji — usunięty post to publicznie widoczna porażka, na którą tak wcześnie nie możemy sobie pozwolić.
- Tydzień 6 (publikacja 17 maja 2026) — pełny raport. Response rate'y outreachu, pierwsze umieszczenie w listingu (jeśli będzie), delta per silnik względem baseline'u Tygodnia 3 oraz codzienny przebieg
aeo-trackerprzez cały tydzień z opublikowanym diffem.
Ostatni wiersz tabeli platformy Webappski w każdej z tych aktualizacji będzie taki sam: zero płacących klientów AEO onboardowanych do tej pory. To również wiersz, który ma największe znaczenie. Najpierw rusza widoczność, drugi rusza przychód. Most między jednym a drugim to właśnie to, po co istnieje agencja.
Przeczytaj Tydzień 1 AEO Visibility Challenge, żeby zobaczyć pełny pomiar baseline'u, albo umów rozmowę o usługach AEO, jeśli chcesz pomocy w interpretacji własnej macierzy trackera. Zapis do newslettera i e-mail kontaktowy znajdziesz w stopce strony.