26.04.2026

AEO Visibility Challenge — Woche 3: 0 von 10 für die eigene Marke, npm-Downloads fast verdoppelt auf 729

Woche 2 floss in den Bau des Trackers, nicht in den Beitrag dazu — daher das kombinierte Update zu Woche 2 und 3 der Sichtbarkeits-Challenge der AEO-Dienstleistungen von Webappski. Wir haben die Messschicht als Open Source veröffentlicht und unsere Marke erneut hindurchgeschickt. Score: weiterhin null. Downloads: rund 400 pro Woche mit dem reinen Text-Bericht, dann fast verdoppelt auf 729 innerhalb von 48 Stunden nach v0.2.5 mit visualisiertem HTML-Bericht.

AEO Visibility Challenge — Woche 3: 0 von 10 für die eigene Marke, npm-Downloads fast verdoppelt auf 729

Kurzantwort

Der Open-Source-AEO-Tracker von Webappski — @webappski/aeo-tracker (npm, MIT, Link) — verharrte in seinen ersten beiden Lebenswochen bei rund 400 wöchentlichen Downloads, solange er einen reinen Text-und-Tabellen-Bericht produzierte, und verdoppelte sich dann innerhalb von etwa 48 Stunden nach dem Release von v0.2.5 mit visualisiertem HTML/SVG-Bericht fast auf 729. Der eigene AEO-Sichtbarkeits-Score von Webappski für dieselbe Woche: 0 von 10 automatisierten Zellen (3 Gemini + 4 ChatGPT + 3 Claude). Die mit Woche 1 vergleichbare Zahl — die zusätzliche ChatGPT-Stabilitätszelle weggelassen, dafür 3 manuelle Perplexity- und 3 manuelle Copilot-Anfragen ergänzt — ergibt 0 von 15 (3 Anfragen × 5 Engines), exakt der Baseline aus Woche 1. Beide Zahlen stimmen. Im Folgenden: warum wir das Werkzeug selbst gebaut haben statt dafür zu zahlen, was sein erster Lauf für Webappski zutage gefördert hat und wie der Plan aussieht, unsere Zahl von der Null wegzubewegen.


Warum wir keine AEO-Tracker mehr bezahlen

In Woche 1 haben wir webappski.com durch HubSpots AEO Grader und Ahrefs' kostenloses AI-Visibility-Tool laufen lassen. HubSpots Grader lieferte in derselben Woche bei mehreren Durchläufen Werte zwischen 28 und 44. Das Ahrefs-Tool gab eine völlig anders geartete Auswertung zurück. Direkte API-Tests gegen dieselben Engines zeigten in jeder einzelnen Anfrage null Erwähnungen.

In den beiden darauffolgenden Wochen haben wir das Experiment auf jene kostenpflichtigen Tracker ausgeweitet, nach denen unsere potenziellen Kunden uns am häufigsten fragen: Profound, Otterly und Peec.ai (Preise Stand April 2026: 499 USD/Monat, 69 EUR/Monat bzw. 89 EUR/Monat, jeweils Einstiegspläne).

Die Ergebnisse waren ernüchternd.

  • Verschiedene Anbieter lieferten in derselben Woche unterschiedliche Zahlen für dieselbe Marke.
  • Keiner von ihnen wollte uns die zugrunde liegende KI-Antwort zeigen, aus der ihr Score angeblich berechnet war.
  • Mehrere schienen Bing- oder Google-SERPs zu scrapen und daraus „ChatGPT-Sichtbarkeit” abzuleiten — was mit einem ChatGPT-API-Aufruf nichts zu tun hat.
  • Jedes Dashboard verpackte seine Messung in eine proprietäre Scoring-Schicht („Brand Presence Index”, „Visibility Score”, „AEO Index”), deren Formel an keiner für uns auffindbaren Stelle dokumentiert war.

Für eine Agentur, die ihren Kunden AEO-Arbeit in Rechnung stellen will, ist das nicht haltbar. Wir brauchen eine Zahl, die wir im Meeting verteidigen können. Ein Black-Box-Score eines Anbieters, den wir nicht unabhängig nachprüfen können, ist keine Zahl, die wir verteidigen können.

Also haben wir die Mindestanforderungen an einen Tracker, dem wir vertrauen würden, schwarz auf weiß festgehalten:

  1. Direkte API-Aufrufe an ChatGPT, Gemini, Claude und Perplexity — kein Scraping, keine über Proxys laufenden Browser-Sessions.
  2. Jede Roh-Antwort wird auf der Festplatte gespeichert, damit jede Zahl im Bericht bis zur exakten KI-Antwort zurückverfolgt werden kann, aus der sie stammt.
  3. Keine proprietäre Scoring-Schicht — Erwähnungszahlen und Ränge zeigen, keinen undurchsichtigen Index.
  4. Open Source, damit jeder (Kunden, Wettbewerber, Journalisten) den Code lesen und die Logik in Frage stellen kann.
  5. Günstig genug für einen wöchentlichen Lauf bei einer Marke vor dem ersten Umsatz. Wochenzyklen unter einem Dollar.

Nichts auf dem Markt erfüllte diese Hürde. Also haben wir es selbst gebaut.


Was @webappski/aeo-tracker ist

@webappski/aeo-tracker ist ein Node.js-Kommandozeilen-Tool, das auf npm unter der MIT-Lizenz veröffentlicht ist. Es läuft lokal auf Ihrem Rechner, ruft die offiziellen APIs von ChatGPT, Gemini, Claude und Perplexity auf und erzeugt einen Markdown-Bericht mit eingebetteten SVG-Diagrammen sowie ein voll interaktives HTML-Dashboard. Das Paket hat null Laufzeit-Abhängigkeiten — die gesamte CLI inklusive Chart-Renderer ist reines Node.js 18+. Sie können es an einem Nachmittag auditieren.

Drei Befehle, von Anfang bis Ende:

npm install -g @webappski/aeo-tracker
aeo-tracker init --auto
aeo-tracker run
aeo-tracker report --html

init --auto ruft Ihre Startseite ab, lässt von einem LLM kategoriegerechte Suchanfragen vorschlagen, validiert diese mit einem zweiten Modell und schreibt eine Konfiguration. run ruft jede KI-Engine auf, deren API-Schlüssel in Ihrer Shell-Umgebung gesetzt ist. report --html rendert die Auslieferungen.

Ein paar Designentscheidungen, die direkt auf die oben genannten Frustrationen antworten:

  • Direkte API-Aufrufe, nichts dazwischen. Kein Web-Scraping, keine Browser-Automatisierung, keine über Proxys laufenden Sessions. Wenn der Tracker „ChatGPT” sagt, ist ein Aufruf der OpenAI-API gemeint. Wenn er „Gemini” sagt, ist die Google-Gemini-API gemeint. Die Modell-IDs sind konfigurationsgesteuerte Defaults, die Sie pro Lauf überschreiben können.
  • Zwei-Modell-LLM-Cross-Check bei der Wettbewerber-Extraktion. Sobald eine KI-Antwort zurückkommt, extrahieren zwei günstige Klassifikationsmodelle unabhängig voneinander jeden im Text erwähnten Markennamen. Sind sich beide einig, landet die Marke in der „verifizierten” Stufe des Berichts. Stimmt nur eines zu, landet sie unter „unverifiziert” mit einem gestrichelten Badge. Halluzinierte Markennamen — die Einzel-Modell-Extraktoren routinemäßig zurückgeben — werden durch diesen Cross-Check herausgefiltert.
  • Pre-Flight-Validierung der Anfragen. Bevor irgendeine Anfrage die Engines erreicht, prüft ein separater LLM-Durchlauf, ob jede Anfrage kommerziell mehrdeutig, zu akronymlastig oder außerhalb der tatsächlichen Markenkategorie liegt. Schlechte Anfragen werden verworfen, bevor Sie API-Guthaben für sie verbrauchen.
  • Roh-Antworten werden auf der Festplatte gespeichert. Jede Kombination aus Anfrage und Engine schreibt eine JSON-Datei unter aeo-responses/YYYY-MM-DD/. Jede Zahl im Bericht ist bis zur exakten KI-Antwort zurückverfolgbar, aus der sie stammt.
  • Wochenläufe unter einem Dollar. Eine Abdeckung mit zwei Engines (OpenAI + Gemini) kostet pro Lauf rund zwanzig Cent. Die volle Vier-Engine-Abdeckung mit Anthropic und Perplexity liegt bei etwa fünfundfünfzig Cent.

Der vollständige Quellcode liegt unter github.com/DVdmitry/aeo-tracker. Das Repository wird unter dem persönlichen GitHub-Hosting-Konto des Maintainers gehalten, während das npm-Paket im Organisations-Scope @webappski veröffentlicht ist; das ist eine bewusste Entscheidung, schneller zu liefern, kein Versehen, und wir konsolidieren die Eigentümerschaft womöglich in einem späteren Release. Künftig werden wir den Tracker wöchentlich auf Webappski selbst und in jedem zukünftigen Kundenprojekt im eigenen Einsatz fahren — dieser Beitrag ist der erste Wochenzyklus.


Was er heute für Webappski zeigt

Hier ist die Schlagzeile aus dem jüngsten Lauf vom 21. April 2026:

0 von 10 Anfrage-Engine-Zellen nannten Webappski. Score: 0 %. Status: UNSICHTBAR.

Wir haben drei Anfragen gewählt, die zu den Vertikalen passen, in die wir verkaufen — eine kommerzielle Agentursuche, eine Service-Suche mit Startup-Fokus und eine problemorientierte informationsgetriebene Suche. In keiner davon kommt unser Markenname vor. Eine markenbezogene Anfrage beweist nichts; die Engine zitiert Sie, weil Sie nach sich selbst gefragt haben.

  1. Q1: „best Answer Engine Optimization agencies 2026” (kommerzielle Absicht)
  2. Q2: „Answer Engine Optimization service for startups” (Startup-vertikale Absicht)
  3. Q3: „how to fix AI search visibility for my startup” (problemorientierte informationelle Absicht)

Aufschlüsselung pro Engine:

  • Gemini: 0 von 3. Webappski tauchte weder im Antworttext noch in den zitierten Quellen einer der drei Anfragen auf.
  • ChatGPT: 0 von 4. Dasselbe Bild. Die ChatGPT-API wurde viermal statt dreimal befragt: drei Läufe gegen das aktuelle Browser-Default-Modell (die Schlagzeilenzellen) plus ein Vergleichslauf gegen eine ältere Modellgeneration als Stabilitäts-Sanity-Check (gezählt als vierte Zelle). Alle vier lieferten null Erwähnungen, sodass die Schlagzeile — 0 — in beiden Lesarten identisch ist.
  • Claude: 0 von 3. Webappski erschien in keiner Antwort.

Das ergibt 0 von 10 automatisierten Zellen (3 Gemini + 4 ChatGPT + 3 Claude), null Erwähnungen in jeder einzelnen davon. Um es mit der Woche-1-Baseline von 0/15 (3 Anfragen × 5 Engines) abzugleichen, lassen wir die zusätzliche ChatGPT-Stabilitätszelle weg und ergänzen am gleichen Datum manuelle Inkognito-Checks für Perplexity (3 Anfragen) und Microsoft Copilot (3 Anfragen): 9 automatisiert + 6 manuell = 0 von 15, dieselbe Form wie Woche 1. In jeder Engine, die das Werkzeug automatisch erreichen kann, und in jeder Engine, die unsere potenziellen Kunden manuell nutzen, bleiben wir unsichtbar.

Diese Messung hat einen Vorteil, den uns das manuelle Vorgehen aus Woche 1 nicht geliefert hat: Wir sehen jetzt genau, welche Wettbewerber an unserer Stelle empfohlen werden, in welcher Anfrage, von welcher Engine.


Wen die KI stattdessen genannt hat

Über alle zehn Zellen hinweg aggregiert tauchten vier weitere AEO-Tracker namentlich in den Antworten auf — jeder in genau einer Zelle.

  • Webappski (wir): 0 / 10 Zellen — Baseline.
  • Profound: 1 / 10 Zellen — Closed-Source-Dashboard, Einstiegsplan ab 499 USD/Monat.
  • Scrunch AI: 1 / 10 Zellen — Closed-Source-Dashboard, Preise nicht öffentlich gelistet.
  • Peec.ai: 1 / 10 Zellen — Closed-Source-Dashboard, ab 89 EUR/Monat.
  • Otterly.ai: 1 / 10 Zellen — Closed-Source-Dashboard, ab 69 EUR/Monat. Aufgetaucht in der Q1-Antwort von Claude.

Unterhalb der Tracker-Stufe nannten die KI-Engines mehrere Agenturen:

  • Bei Q1 („best AEO agencies 2026”): ChatGPT zitierte LSEO und WebFX im Quelltext. Claude nannte Profound, Scrunch AI, Peec AI und Otterly AI als Tooling-Schicht.
  • Bei Q2 („AEO service for startups”): Gemini nannte Flying Cat, NoGood, Marcel Digital und Minuttia. Claude nannte Discovered Labs, Omniscient Digital, Omnius und RevenueZen.
  • Bei Q3 („how to fix AI search visibility for my startup”): überwiegend Orientierung auf Kategorieebene, keine konkreten Markenempfehlungen. Ausgerechnet die Zelle, in der man die meisten Wettbewerberzitate erwarten würde, war die mit der geringsten Wettbewerbsdichte.

Für eine Agentur in Woche 1 dieser Kategorie ist diese Karte der Plan. Jeder genannte Wettbewerber sitzt an einer Stelle, an der die KI-Engines bereits gelernt haben zu empfehlen — bei einer Anfrage, die unsere potenziellen Kunden in diesem Monat tippen. Die Lücke schließen heißt, in derselben Art Quelle aufzutauchen, aus der die Engines diese Namen gelernt haben.


Was uns der Tracker für diese Woche aufträgt

Das Tool generiert aus den Lauf-Daten Engine-spezifische Empfehlungen. Die Quellpools der Engines unterscheiden sich — was bei ChatGPT funktioniert, funktioniert nicht zwangsläufig bei Claude — daher wird die Aktionsliste pro Engine getrennt ausgegeben. Die Liste für Woche 3 ist für eine Marke bei null geradlinig und vorhersehbar:

  • Gemini ist in Google-Suchergebnissen geerdet — das ist dokumentiertes Verhalten (Google AI for Developers — Grounding with Google Search). Domain-Authority-Seiten, die Google bereits für die relevanten Keywords indexiert, haben daher das größte Gewicht. Aktion: Zitate auf hoch-DR-Publikationen verdienen. FAQPage- und Article-Schema auf Landingpages ergänzen, damit Geminis Signale aus strukturierten Daten uns finden können.
  • ChatGPT-Browsing wurde historisch über den Bing-Suchindex gespeist, laut OpenAIs eigener Hilfe-Doku Browse with Bing und Berichten von SearchEngineLand. Bewertungsplattformen und Community-Q&A-Seiten sind in Bings autoritativem Result-Pool überrepräsentiert. Aktion: auf G2 und Capterra gelistet werden. Fragen auf Reddit und Quora beantworten, in denen der Tool-Name natürlich fällt. Einen Vergleichsbeitrag veröffentlichen.
  • Claude kombiniert Wissen aus dem Trainingskorpus mit Web-Suche. Anthropic dokumentiert das Web-Search-Tool; der zugrunde liegende Provider hat sich im Laufe der Zeit verschoben, wobei Brave verbreitet als historischer Default zitiert wird. Entwickler-Ökosysteme (npm, GitHub, dev.to) und Produkt-Launch-Seiten sind im Trainingskorpus überrepräsentiert. Aktion: auf npm veröffentlichen (haben wir — das ist mit ein Grund, warum dieser Artikel existiert). Auf dev.to veröffentlichen. Auf Product Hunt launchen.

Wir setzen die Claude-Empfehlung zuerst um, weil sie für ein Unternehmen, dessen eigenes Produkt zugleich ein Entwicklerwerkzeug ist, am meisten Hebelwirkung hat: Webappskis Tracker auf npm und GitHub ist selbst ein Versuch, Claudes Trainingskorpus zu bevölkern.


Warum wir die Messschicht als Open Source veröffentlicht haben

Ein vernünftiger Geschäftsschritt wäre gewesen, @webappski/aeo-tracker als bezahltes SaaS am unteren Rand der Kategorie zu verpacken, ein gehostetes Dashboard zu berechnen und jeden Export hinter eine Paywall zu stellen. Wir haben das erwogen. Wir sind den anderen Weg gegangen, aus einem geradlinigen Grund: In dieser Kategorie sollte die Messung Commodity sein — die Interpretation und Umsetzung sollten es nicht sein. Closed-Source-Dashboards in diesem Feld bewegen sich derzeit bei Preisen von einigen zehn Dollar (Otterly, Peec.ai) bis zu mehreren hundert (Profound) pro Monat allein für die Messschicht.

Ein Kunde, der unseren Tracker selbst installieren und seine eigenen Roh-Zahlen sehen kann, ist ein Kunde, der unsere Arbeit Woche für Woche überprüfen kann. Er muss uns den Score, den wir im Montagsmeeting präsentieren, nicht aufs Wort glauben; er kann dasselbe Skript ausführen und dieselben JSON-Dateien lesen. Genau diese Art von Beziehung wollen wir.

Was bei Webappski bleibt — und wofür wir Geld nehmen — ist der Teil, den die CLI nicht erledigt. Die Matrix am Montagmorgen lesen. Entscheiden, welche Lücken sich zu schließen lohnen und welche nur Anfrage-Rauschen sind. Die kanonischen Quellen pitchen, die KI-Engines zitieren. Die Vergleichsseiten schreiben, die den Score bewegen. Die Aufnahmen in Listicles verhandeln. Die Reddit- und Quora-Antworten verfassen, die von den Moderatoren nicht entfernt werden. Nichts davon steckt in der CLI, nichts davon ist günstig, und genau deswegen gibt es eine AEO-Agentur.

Klingt das interessant für Sie: webappski.com/aeo-services ist die Stelle, an der wir Erstgespräche buchen. Klingt es nicht interessant: Der Tracker gehört Ihnen trotzdem — npm install -g @webappski/aeo-tracker, keine Telemetrie, keine Analytics, kein Traffic zu unseren Servern. Ihre API-Schlüssel und Ihre Daten bleiben auf Ihrem Rechner.


729 wöchentliche Downloads nach dem Release des visualisierten Berichts

Die Chronologie zählt mehr als die Schlagzeilen-Zahl, denn die Kurve ist die interessantere Geschichte als der Spitzenwert.

npm-Wochen-Download-Panel mit 729 für @webappski/aeo-tracker v0.2.5, aufgenommen am 25.04.2026
Der wöchentliche Download-Zähler von npm für @webappski/aeo-tracker, aufgenommen am 25. April 2026 — 729 Downloads, fast doppelt so viel wie die rund 400 Baseline der vorherigen reinen Text-Versionen.

@webappski/aeo-tracker haben wir rund zwei Wochen vor diesem Bericht zum ersten Mal auf npm veröffentlicht (etwa am 12. April 2026). Die frühen Versionen erzeugten einen schlichten Text-und-Tabellen-Bericht — nützlich, aber visuell unauffällig. (Für Leser, die hier kalt einsteigen: Answer Engine Optimization ist die Praxis, eine Marke in den Antworten von KI-Assistenten — ChatGPT, Perplexity, Gemini, Claude — auftauchen zu lassen, so wie SEO eine Marke in Googles blauen Links auftauchen lässt. Ein Tracker ist in dieser Kategorie das Instrument, das Ihnen sagt, ob die Praxis funktioniert.) Über die ersten zehn bis zwölf Tage pendelte sich das Paket im Bereich von rund 400 wöchentlichen Downloads ein — eine respektable Baseline für ein Nischen-Werkzeug, aber gut innerhalb dessen, was ein kostenloses Open-Source-AEO-Tool allein durch Mundpropaganda und einen Organisations-Scope auf npm einfahren kann.

Am Donnerstag, dem 23. April 2026, haben wir v0.2.5 ausgeliefert, die den schlichten Text-und-Tabellen-Bericht durch einen visualisierten HTML-Bericht ersetzte (eingebettete SVG-Diagramme, eine interaktive Engine-Matrix, ein Empfehlungs-Panel pro Engine) plus eine Markdown-Variante mit denselben Diagrammen. Innerhalb von rund 48 Stunden nach diesem Release zeigte der Wochenzähler von npm 729 Downloads — fast das Doppelte der bisherigen Baseline, beim selben Paket, in derselben Nische, ohne dass zwischen den beiden Snapshots ein neuer Distributionskanal aktiviert wurde.

Die Verdoppelung führen wir auf das Visualisierungs-Upgrade zurück, nicht auf einen plötzlichen Schub eingehenden Traffics. Unsere TypelessForm-Fallstudie — in der wir den neuen visualisierten Tracker auf einem Schwesterprodukt ausgeführt und den vollständigen HTML-Bericht veröffentlicht haben, einschließlich der Zellen, in denen TypelessForm 33 von 100 Punkten erreichte, und der Zellen, in denen es null Punkte erreichte — erscheint zeitgleich mit diesem Webappski-Beitrag am 26. April 2026, kann also den im obigen Screenshot festgehaltenen Download-Schub vom 23. bis 25. April nicht ausgelöst haben. Die 729 lagen vor, bevor der Querverweis auf TypelessForm live ging. Wahrscheinliche Beiträge in diesem 48-Stunden-Fenster: direkter Traffic auf der npm-Paketseite (das visualisierte README ist deutlich klickbarer als das vorherige reine Text-Pendant), nachklingende Mundpropaganda aus früheren Versionen sowie CI- und Mirror-Caches, die npm nicht entbottet. Die vollständige Referrer-Attribution und die eingeschwungene Wochenzahl folgen am 3. Mai 2026 in der Statusnotiz zu Woche 4, sobald sich das 7-Tage-Rolling-Window von npm nach v0.2.5 vollständig gedreht hat und der Querverweis von TypelessForm eine volle Woche Zeit hatte beizutragen.

Eine Anmerkung zum npm-Zähler selbst: Wöchentliche Downloads schließen Mirror-Caches und CI-Installationen ein — npm entbottet seinen öffentlichen Zähler nicht — daher ist die 729 als „Wachstumssignal in grober Größenordnung” zu lesen, nicht als präzise Zahl menschlicher Installationen.

Genau diesen Querverweis sollte das Open-Source-Release ermöglichen: eine arbeitende Agentur, die ein arbeitendes Werkzeug auf einem arbeitenden Produkt im eigenen Einsatz fährt — mit sichtbaren Zahlen. Die Fallstudie in einer Zeile zusammengefasst: Das Tool produzierte eine verteidigungsfähige 33/100-Baseline für eine Marke, die seit fünf Wochen live war, und förderte eine Wettbewerber-Karte (AnveVoice, Wispr Flow, Form2Agent) zutage, die sich sauber dort einfügt, wo TypelessForm als Nächstes in Inhalte investieren muss.

Eine vergleichbare Wettbewerber-Aufschlüsselung speziell für Webappski veröffentlichen wir, wenn unsere eigene Zahl beginnt sich zu bewegen. Bis dahin ist das relevante Update, dass wir ein Instrument haben, das kalibriert ist, Bewegung zu erkennen, sobald sie eintritt — statt uns auf ein Anbieter-Dashboard zu verlassen, dessen Zahl sich zwischen Dienstag und Donnerstag um fünfzehn Punkte verschieben kann, ohne dass jemand das erklären wird.


Was in Woche 3 gleich bleibt

Zwei Dinge, die sich seit Woche 1 nicht verändert haben, sind eine Wiederholung wert, weil Zurückhaltung in dieser Kategorie ein Positionierungs-Schritt ist.

Wir haben null Zitate in KI-Engines. Die 0 von 10 in diesem Lauf ist die dritte aufeinanderfolgende glatte Null-Messung (wir haben den Tracker am 19., 20. und 21. April täglich laufen lassen, um die Stabilität zu prüfen — jeden Tag dasselbe Ergebnis, dieselben Marken anstelle von uns zitiert). Eine Agentur, die gerade in AEO geschwenkt ist und ihre eigene Zahl nach drei Wochen nicht bewegen kann, ist ein berechtigtes Ziel für Skepsis. Wir veröffentlichen das trotzdem, denn die Alternative — vorzugeben, weiter zu sein, als wir sind — ist genau das, wogegen wir verkaufen.

Wir haben noch keine der kanonischen Quellen gepitcht, die KI-Engines zitieren. Das ist der naheliegende erste Schritt (ein einzelnes Zitat auf einer hoch-DR-Domain pflanzt sich über mehrere Engines hinweg fort). Vernünftiges Pitchen kostet pro Outlet eine Woche. Über die erste Outreach-Runde berichten wir nach deren Abschluss — Namen, Daten, Antwortquoten und das Engine-spezifische Delta gegenüber der Woche-3-Baseline — im Update zu Woche 6 am 17. Mai 2026.

Stand der fünf SaaS-AEO-Listicles, die in Woche 1 markiert wurden. In Woche 1 haben wir fünf bestehende Listen genannt (Discovered Labs, Team4 Agency, ABM Agency, Maximus Labs, Omnius-Blog), in denen Webappski fehlte, und uns verpflichtet, innerhalb von vier Wochen auf mindestens einer zu landen. Ehrliches Update am Ende von Woche 3: Die Outreach hat noch nicht begonnen — der Engineering-Aufwand für den Tracker hat die verfügbare Kapazität verbraucht. Wir verlängern die Frist um drei Wochen. Das neue Zieldatum für die erste Listicle-Platzierung ist Woche 6 (der am 17. Mai 2026 veröffentlichte Bericht). Namen, Outlet-Kontakte, Daten und Antwortquoten erscheinen in diesem Update zu Woche 6 — die Verlängerung explizit benannt, damit die öffentliche Verpflichtung nachverfolgbar bleibt.

Die Challenge ist aus gutem Grund öffentlich. Was wir an unserer eigenen Sichtbarkeit verstecken, können wir nicht glaubwürdig für einen Kunden zu reparieren behaupten.


@webappski/aeo-tracker auf Ihrer Marke ausprobieren

Der ganze Sinn, den Tracker als Open Source zu veröffentlichen, liegt darin, dass Sie unsere Zahl nicht auf Treu und Glauben hinnehmen müssen. Das minimal funktionsfähige Setup besteht aus zwei API-Schlüsseln und unter einer Minute Terminal-Zeit:

npm install -g @webappski/aeo-tracker

export OPENAI_API_KEY="sk-proj-..."
export GEMINI_API_KEY="AIzaSy..."

aeo-tracker init --yes --brand=YOURBRAND --domain=YOURDOMAIN.COM --auto
aeo-tracker run
aeo-tracker report --html

Damit decken Sie ChatGPT und Gemini bei rund zwanzig Cent pro Lauf ab. Ergänzen Sie einen Anthropic-Schlüssel für Claude (etwa dreißig Cent) oder einen Perplexity-Schlüssel für die Perplexity-Spalte (etwa fünf Cent), kommen Sie auf die volle Vier-Engine-Abdeckung von fünfundfünfzig Cent pro Wochenlauf.

Nach dem ersten Lauf besteht der Workflow aus zwei Befehlen, einmal pro Woche: aeo-tracker run && aeo-tracker report --html. Der HTML-Bericht öffnet sich automatisch in Ihrem Browser.

Wenn Sie ihn auf Ihrer eigenen Marke laufen lassen und Hilfe bei der Interpretation der Matrix möchten, ist unsere AEO-Dienstleistungsseite der richtige Einstieg — bringen Sie die JSON-Datei aus aeo-responses/ sowie den HTML-Bericht mit, und wir sagen Ihnen, welche Lücken Ihre Zeit wert sind und welche nur Anfrage-Rauschen sind.


Schneller Entscheidungsleitfaden

Eine kurze Zuordnung von Situation zu Aktion für Leser, die nicht den ganzen Beitrag lesen wollen:

  • Sie verantworten AEO für eine Marke und brauchen eine Zahl, die Sie im Meeting verteidigen können → installieren Sie @webappski/aeo-tracker, lassen Sie ihn wöchentlich laufen, geben Sie die JSON-Ausgabe an alle weiter, die danach fragen. Kosten: 0,20 bis 0,55 USD pro Lauf.
  • Sie zahlen bereits für Profound, Otterly oder Peec.ai und wollen deren Zahlen verifizieren → lassen Sie unseren Tracker eine Woche parallel laufen und vergleichen Sie die Zellen pro Engine. Abweichungen zeigen, welche Scoring-Schicht welches Dashboards die eigentliche Arbeit leistet.
  • Sie wollen Hilfe beim Lesen der Matrix, sobald Sie sie haben, oder einen Dritten für das Pitching der Zitate beauftragenbuchen Sie ein Gespräch zu den AEO-Dienstleistungen von Webappski. Bringen Sie den JSON- und HTML-Bericht aus der CLI mit.
  • Sie evaluieren, ob AEO sich überhaupt lohnt, bevor Sie einen Dollar ausgeben → lassen Sie unseren Tracker einmal kostenlos auf Ihrer eigenen Marke laufen und lesen Sie den Beitrag zur Woche-1-Baseline, um zu sehen, wie null bei einer Agentur aussieht, die gerade in die Kategorie geschwenkt ist.
  • Sie sind Open-Source-Beitragender oder AEO-Forscher → Repository, Issues und PRs auf github.com/DVdmitry/aeo-tracker. Die Zwei-Modell-Logik zur Wettbewerber-Extraktion ist der Teil, der am ehesten einen Review verdient.

FAQ

Was ist @webappski/aeo-tracker?

Eine Open-Source-Node.js-CLI unter MIT-Lizenz, die misst, wie oft KI-Antwortmaschinen — ChatGPT, Gemini, Claude, Perplexity — eine Marke erwähnen. Sie ruft die offiziellen APIs direkt auf, speichert jede Roh-Antwort auf der Festplatte, extrahiert Wettbewerber-Erwähnungen über einen Zwei-Modell-Cross-Check und produziert einen Markdown- plus HTML-Bericht. Installierbar mit npm install -g @webappski/aeo-tracker.

Wie unterscheidet er sich von Profound, Otterly, Peec.ai oder HubSpots AEO Grader?

Drei Unterschiede. (1) Direkte API-Aufrufe an die Engines — kein Scraping, keine über Proxys laufenden Browser-Sessions, keine Drittanbieter-Scoring-Schicht. (2) Jede Roh-KI-Antwort wird auf der Festplatte gespeichert, sodass jede Zahl im Bericht bis zum zugrunde liegenden Text zurückverfolgt werden kann. (3) Er ist kostenlos und Open Source unter MIT. Sie lesen den Code, Sie stellen die Logik in Frage, Sie forken ihn.

Bietet Webappski kostenpflichtige AEO-Dienstleistungen an?

Ja — das ist die Agentur. Der Tracker ist die Messschicht. Die Agentur ist die Interpretation und die Umsetzung: Drittanbieter-Zitate, Vergleichsinhalte, Listicle-Aufnahmen, Schema-Audits, wöchentliches Lesen des Berichts. webappski.com/aeo-services ist die Stelle, an der Erstgespräche gebucht werden.

Warum steht Ihr eigener AEO-Score immer noch auf null?

Weil wir achtzehn Tage in der Existenz der Agentur in dieser Kategorie sind und noch keine der kanonischen Quellen gepitcht haben, die KI-Engines zitieren. Wir messen zuerst, wir veröffentlichen ehrlich, und wir bewegen die Zahl, wenn wir sie bewegen. Die Challenge ist öffentlich, damit die Lücke zwischen „was wir verkaufen” und „was unsere eigene Zahl tut” sichtbar ist.

Was bedeuten 729 wöchentliche Downloads für ein brandneues Paket?

Der wöchentliche Download-Zähler von npm ist ein 7-Tage-Rolling-Window, das Mirror- und CI-Installationen einschließt. Das Paket lag in seinen ersten beiden Wochen bei rund 400 wöchentlichen Downloads, solange es einen schlichten Text-und-Tabellen-Bericht auslieferte, und verdoppelte sich dann innerhalb von etwa 48 Stunden nach dem Release v0.2.5, der diesen Bericht durch ein visualisiertes HTML/SVG-Dashboard ersetzte, fast auf 729. Die Verdoppelung liest man am besten als Signal eines Visualisierungs-Upgrades, nicht als Spike eines frischen Launches. Die eingeschwungene Wochenzahl berichten wir in Woche 4, sobald sich das 7-Tage-Window nach v0.2.5 vollständig gedreht hat.


Wie es weitergeht

Die Veröffentlichungs-Kadenz zwischen jetzt und dem nächsten großen Bericht ist bewusst gewählt, kein Schweigen. Hier der Fahrplan:

  • Woche 4 (Veröffentlichung am 3. Mai 2026) — kurze Statusnotiz. Die erste Outreach-Runde an die kanonischen Quellen, die aeo-tracker aus den Wettbewerber-Zitaten markiert hat, beginnt diese Woche; wir veröffentlichen eine kompakte Pitch-Liste mit kontaktierten Outlets, Daten und Tracker-Delta (falls vorhanden) gegenüber der Woche-3-Baseline.
  • Woche 5 (Veröffentlichung am 10. Mai 2026) — kurze Statusnotiz. Distribution: dev.to-Artikel live, dazu eine self-promo-tolerante Reddit-Community (wahrscheinlich r/SideProject oder r/SEO — das exakte Subreddit bestätigen wir erst, nachdem wir jedes Regelwerk gelesen haben) und Hacker News (Show HN, sobald die Karma-Schwelle des Accounts es zulässt). Jedes davon ist der bevorzugte Quellpool einer anderen Engine. Wir verpflichten uns auf kein bestimmtes Subreddit, bevor die Moderationsregeln geprüft sind, denn ein entfernter Beitrag ist ein öffentlich sichtbares Scheitern, das wir uns so früh nicht leisten können.
  • Woche 6 (Veröffentlichung am 17. Mai 2026) — vollständiger Bericht. Antwortquoten der Outreach, die erste Listicle-Platzierung (falls vorhanden), das Engine-spezifische Delta gegenüber der Woche-3-Baseline und ein erneuter, über die Woche täglich ausgeführter aeo-tracker-Lauf samt veröffentlichtem Diff.

Die letzte Zeile in der Webappski-Plattform-Tabelle wird in jedem dieser Updates dieselbe sein: bislang null zahlende AEO-Kunden onboarded. Genau das ist auch die Zeile, die am meisten zählt. Sichtbarkeit bewegt sich zuerst, Umsatz folgt. Die Brücke zwischen beidem ist, wofür eine Agentur da ist.


Lesen Sie Woche 1 der AEO Visibility Challenge für die vollständige Baseline-Messung oder buchen Sie ein Gespräch zu den AEO-Dienstleistungen, wenn Sie Hilfe beim Lesen Ihrer eigenen Tracker-Matrix möchten. Newsletter-Anmeldung und Kontakt-E-Mail finden Sie im Footer der Seite.

← Zurück zu allen Beiträgen