Wie du von ChatGPT, Perplexity und Google AI Overviews zitiert wirst

Vadim Kravcenko
Vadim Kravcenko
· 19 min read

Aktualisiert im März 2026

Kurzfassung: Ich habe ChatGPT gebeten, SEO-Tools zu empfehlen. Wir standen nicht auf der Liste. Sieben Wochen später, nach einem gezielten Experiment auf unserer eigenen Website, schon. Das hier ist der komplette Plan — was funktioniert hat, was nicht und worauf die einzelnen KI-Suchmaschinen tatsächlich achten. Die Kurzversion: Erwähnungen deiner Marke auf Drittseiten sind am wichtigsten, Schema Markup hat bei Google AI Overviews ungefähr den 3-fachen Effekt, und Perplexity belohnt eine hohe Dichte an externen Quellenangaben. Aber ich greife vor.

Ich habe ChatGPT gebeten, ein SEO-Tool zu empfehlen. Wir standen nicht auf der Liste.

ChatGPT-Oberfläche für KI-gestützte Suche
ChatGPT — dort muss deine Marke auftauchen. Quelle: OpenAI

Ende 2025. Dienstagmorgen. Ich öffnete ChatGPT und tippte: "What are the best tools for automated SEO?"

Content optimization strategies for getting cited by AI search engines
Optimizing content structure to increase AI search engine citations. Source: Semrush
Monitoring tools for tracking brand visibility and citations in AI search engines
Tracking how AI search engines cite and reference your content. Source: Semrush

Es listete sechs Tools auf. Semrush, Ahrefs, Surfer SEO, Moz, SE Ranking und eines, von dem ich noch nie gehört hatte. SEOJuice wurde nicht erwähnt. Nicht in der Hauptliste, nicht als Alternative, nicht einmal in einer Fußnote.

Ich probierte Variationen. "Best internal linking tools." "SEO automation for small businesses." "Yoast alternatives." Nichts. Über zwanzigirgendwas Prompts hinweg existierten wir praktisch nicht.

Das war ein Problem, mit dem ich nicht gerechnet hatte. Wir waren komplett damit beschäftigt, das Produkt zu bauen — Lida und ich arbeiteten seit Anfang 2025 als Zwei-Personen-Team daran, sind im Januar 2026 von .io auf .com migriert und haben die meiste Zeit Features ausgeliefert, statt sie zu promoten. Klassisches SEO lief gut. Aber KI-Suche war ein blinder Fleck.

Und die Zahlen machten es schwer, das zu ignorieren. ChatGPT vermittelte Websites monatlich 243,8 Millionen Besuche. KI-Referral-Traffic war laut BrightEdges Analyse des KI-getriebenen Suchtraffics 2025 im Verlauf von 2025 um ungefähr 700 % gewachsen. Immer noch nur ein kleiner Anteil des gesamten Web-Traffics — rund 1 % — aber mit 130-150 % Wachstum im Jahresvergleich.

Wichtiger als die aktuelle Zahl war der Trend. Gartner hatte prognostiziert, dass das Volumen klassischer Suche bis 2026 wegen KI-Chatbots um 25 % sinken würde. Ob genau diese Zahl eintritt, kann man diskutieren, aber am Trend selbst nicht. Ein wachsender Anteil potenzieller Kunden findet Antworten über KI und nicht mehr über zehn blaue Links. Und wir kamen in diesen Antworten nicht vor.

Also tat ich das, was ich meistens tue, wenn ich auf ein Problem stoße, das ich noch nicht verstehe. Ich las die Forschung, führte Experimente auf unserer eigenen Website durch und dokumentierte, was passierte. Dieser Artikel ist alles, was ich dabei gelernt habe — der Plan, die Daten und die Fehlschläge, aus denen wir am meisten gelernt haben.

Worauf KI-Suchmaschinen tatsächlich achten (die Forschung)

Die beste akademische Arbeit dazu stammt aus einem Forschungspaper von 2023 von der Princeton University, Georgia Tech, dem Allen Institute for AI und IIT Delhi. Die Studie wurde bei KDD 2024 vorgestellt und analysierte 10.000 Suchanfragen. Sie zeigte, dass bestimmte Strategien zur Content-Optimierung — das Hinzufügen von Statistiken, Quellenangaben und Zitaten — die Häufigkeit von KI-Zitierungen um bis zu 40 % steigern konnten.

Das Paper aus Princeton ist die beste Forschung, die wir haben, aber es untersuchte eine kontrollierte Stichprobe. Versteh die Prozentwerte eher als grobe Orientierung, nicht als unumstößliche Wahrheit.

Was das Paper als Ausgangspunkt etabliert hat, wurde seitdem durch Monitoring-Daten aus der Praxis erweitert. Nachdem wir Zitationsmuster über unser eigenes AISO-Monitoring analysiert und mit groß angelegten Studien von SE Ranking (SE Rankings Studie 2025 mit 129.000 Domains) und Profound (Profounds Analyse von KI-Zitationsmustern 2025 mit 216.000 Seiten) abgeglichen hatten, tauchten fünf Faktoren immer wieder konsistent auf.

Faktor Was das bedeutet Wichtiger Datenpunkt
Markenerwähnungen auf Drittseiten Dass andere Websites über dich sprechen, ist wichtiger als alles auf deiner eigenen Domain Marken werden 6,5-fach häufiger über Drittquellen zitiert als über die eigene Domain (SE Ranking, 2025)
Domain-Autorität und Vertrauen Verweisende Domains, Bewertungsprofile und plattformübergreifende Präsenz Websites mit 32K+ verweisenden Domains werden 3,5-fach häufiger zitiert; Profile auf Bewertungsplattformen bringen 3x mehr Chancen (SE Ranking, 2025)
Content-Struktur und Zitierbarkeit Datenreiche, zitierfähige Passagen, die KI ohne umgebenden Kontext extrahieren kann Bis zu 40 % mehr Sichtbarkeit durch Statistiken und Quellenangaben (Paper aus Princeton, KDD 2024)
Ladegeschwindigkeit Schnelle Seiten werden abgerufen und geparst; langsame Seiten werden beim Echtzeit-Retrieval übersprungen FCP unter 0,4 s erzielt im Schnitt 6,7 Zitate vs. 2,1 bei Seiten über 1,13 s (SE Rankings Studie 2025 mit 129.000 Domains)
Content-Aktualität Veraltete Inhalte verlieren Zitationspriorität, manchmal schon nach wenigen Wochen Neue Inhalte gelangen bei Perplexity innerhalb von 3-5 Werktagen in den Kreis der zitierten Quellen

Wenn ich diese Faktoren nach Wirkung sortieren müsste: zuerst Erwähnungen auf Drittseiten, mit großem Abstand. Danach Autoritäts- und Vertrauenssignale. Dann Content-Struktur. Danach Geschwindigkeit und Aktualität. Wenn die ersten beiden sitzen, ist der Rest Optimierung auf einem bereits starken Fundament.

(Kurze Randbemerkung: Dieses Ranking basiert auf Korrelationsdaten, nicht auf kontrollierten Experimenten. Bisher hat niemand eine saubere kausale Studie dazu veröffentlicht. Das Princeton-Paper kommt dem am nächsten, hat aber die Effekte von Markenerwähnungen nicht getestet.)

Der 7-Wochen-Plan, durch den wir in KI-Antworten auftauchten

Hier ist, was wir tatsächlich gemacht haben. Kein theoretisches Framework — sondern die konkrete Abfolge an Arbeit über ungefähr sieben Wochen, durch die wir von unsichtbar zu einer regelmäßig zitierten Quelle geworden sind.

Ich sage "ungefähr", weil sich manche Wochen überschnitten und manche Aufgaben länger dauerten als geplant. Echte Experimente sind chaotisch.

Woche 1: Ausgangslage prüfen

Ich habe 30 Suchanfragen, die für unsere Produktkategorie relevant sind, in ChatGPT, Perplexity, Google AI Overviews und Claude getestet. Ich habe dokumentiert, welche Marken bei welcher Suchanfrage erwähnt wurden. Ich habe dokumentiert, wer statt uns zitiert wurde. Das Muster war klar: Bei Vergleichsanfragen ("best X vs Y") tauchten wir überhaupt nicht auf, aber gelegentlich erschienen wir bei eng gefassten technischen Suchanfragen rund um automatisierte interne Verlinkung. Unsere Markenpräsenz war zu dünn, als dass die KI uns in der breiteren Kategorie SEO-Tools als ernsthaften Kandidaten wahrgenommen hätte.

Wochen 2-4: Markenpräsenz auf Drittseiten (die harte Arbeit)

Das war die Phase mit dem größten Effekt und gleichzeitig die am wenigsten glamouröse. Wir haben unsere Profile auf G2, Capterra und Product Hunt eingerichtet oder übernommen und optimiert. Ich begann, auf Reddit wirklich hilfreiche Antworten zu schreiben — keine "nutz SEOJuice"-Kommentare, sondern echte technische Erklärungen zu den Mechaniken interner Verlinkung und On-Page-Optimierung. Wenn jemand fragte, wie automatisierte Verlinkung funktioniert, erklärte ich ehrlich die Trade-offs und ließ das Produkt nur dann natürlich einfließen, wenn es relevant war.

Wir haben Autoren von Vergleichsartikeln und Roundups mit echten Daten aus unserer Plattform kontaktiert. Außerdem veröffentlichten wir originale Benchmarks aus unseren Monitoring-Daten auf einer öffentlichen Datenseite und machten sie ausdrücklich zitierbar. Originäre Daten, die andere zitieren, sind der beste Generator für Markenerwähnungen, den ich bisher gefunden habe.

Wir baten auch unsere besten Kunden, ihre Erfahrungen auf G2 und Capterra zu teilen. Authentische Bewertungen, keine geskripteten. Plattformen bestrafen künstliche Muster, und KI-Modelle scheinen verdächtige Bewertungscluster ebenfalls abzuwerten. Schon eine kleine Zahl echter Reviews veränderte unsere Sichtbarkeit — Domains mit Profilen auf Bewertungsplattformen haben laut der SE-Ranking-Studie eine 3x höhere Chance auf Zitate.

Reddit verdient besondere Betonung. Laut Profounds Analyse der KI-Zitationsmuster von 2025 tauchte Reddit in 38 % der Perplexity-Antworten auf, bei Produktempfehlungs-Suchanfragen sogar in 52 %. Speziell für Perplexity ist eine authentische Reddit-Präsenz nicht optional — sie ist eine Primärquelle. Aber Authentizität ist entscheidend. Die Reddit-Community erkennt Promo-Accounts sofort, und als Spammer markiert zu werden, schadet deiner Marke mehr als gar keine Präsenz.

Wochen 4-5: Content für bessere Zitierbarkeit umstrukturieren

Wir haben unsere 15 wichtigsten Seiten mit dem umgeschrieben, was ich irgendwann "zitierbare Blöcke" nannte — in sich geschlossene Abschnitte von 50-150 Wörtern, die eine konkrete Frage direkt mit Daten beantworten. Das Format: klare Überschrift als Frage, direkte Antwort im ersten Satz, unterstützende Evidenz, Quellenangabe.

Drei konkrete Änderungen waren wichtig:

  • Antworten in den ersten 200 Wörtern jeder Seite nach vorne gezogen. In unseren Monitoring-Daten extrahierte Perplexity in 71 % der Fälle aus den ersten 200 Wörtern.
  • Datendichte erhöht. Unser Ziel waren 3+ konkrete Datenpunkte pro 500 Wörter. Seiten, die diesen Schwellenwert erreichten, bekamen 4,1-fach mehr Perplexity-Zitate als meinungsbasierte Inhalte zum gleichen Thema.
  • Dichte externer Quellenangaben erhöht. Seiten, die auf 5+ autoritative externe Quellen verlinkten, wurden von Perplexity häufiger zitiert. Es sieht so aus, als würde Perplexity dein Zitierverhalten als Glaubwürdigkeitssignal nutzen — wenn du gute Quellen zitierst, wirst du selbst zu einer guten Quelle.

Wochen 5-6: Schema Markup und technische Arbeit

Hierher stammt die Erkenntnis zum Schema Markup. Wir haben auf unseren Kundenseiten Seiten mit und ohne FAQ- und HowTo-Schema per A/B-Test verglichen. Seiten mit Schema tauchten ungefähr 3x häufiger in Google AI Overviews auf als vergleichbare Seiten ohne Schema.

Beim Einfluss von Schema Markup auf Google AI Overviews bin ich ziemlich sicher. Beim Einfluss auf ChatGPT deutlich weniger. Wir konnten kein konsistentes Muster erkennen, nach dem ChatGPT auswählte, was es zitiert — Aktualität und Domain-Autorität schienen am wichtigsten zu sein, aber unsere Stichprobe war zu klein, um dabei wirklich sicher zu sein.

Über Schema hinaus haben wir die Dichte benannter Entitäten auf unseren Seiten erhöht. Inhalte mit konkreten Personen, Unternehmen, Tools, Studien und Orten werden häufiger zitiert als generische Inhalte. Seiten mit 15+ erkannten Entities zeigen in Google AI Overviews eine 4,8-fach höhere Auswahlwahrscheinlichkeit. Statt "researchers found that content optimization helps" schrieben wir also "the Princeton GEO paper (Aggarwal et al., KDD 2024) found that adding statistics increased citation rates by up to 40%." Mehr Entities, mehr Spezifität, mehr Zitate.

Wir haben außerdem die Ladegeschwindigkeit optimiert. FCP unter 0,4 Sekunden korrelierte bei Echtzeit-Retrieval-Engines (Perplexity, ChatGPT mit Browsing) mit deutlich mehr Zitaten. Ich sollte aber dazusagen: In unseren spezifischen Tests zu Google AI Overviews zeigte Ladegeschwindigkeit keinen messbaren Effekt. Möglicherweise läuft dort eine andere Pipeline als beim Echtzeit-Retrieval.

Woche 7: Monitoring und erste Ergebnisse

Innerhalb der siebten Woche sahen wir die ersten Erwähnungen. Perplexity zitierte unsere Datenseite und zwei Blogartikel. Eine Suchanfrage im Browsing-Modus von ChatGPT zu Tools für interne Verlinkung enthielt uns. Google AI Overviews verwies auf einen unserer schema-optimierten Guides.

Kleine Zahlen. Aber nach Wochen mit null fühlte sich jede Zahl relevant an.

Sechs Monate später war das Bild klarer: konsistente Perplexity-Zitate, wachsende Präsenz in ChatGPT in unserer Kategorie und ein spürbarer Flywheel-Effekt, bei dem KI-Erwähnungen zu Brand Searches führten, diese wiederum zu mehr Erwähnungen auf Drittseiten und diese wiederum zu mehr KI-Zitaten.

(Wir monitoren das wöchentlich. Rankings verschieben sich ständig. Was im Januar funktioniert hat, kann im Juni schon nicht mehr funktionieren. Dieses Flywheel kann sich auch rückwärts drehen, wenn du es nicht weiter fütterst.)

Worauf die einzelnen KI-Suchmaschinen achten (sie sind nicht gleich)

Einer der größten Fehler bei GEO ist, alle KI-Suchmaschinen gleich zu behandeln. Sie haben unterschiedliche Retrieval-Mechanismen, unterschiedliche Quellenpräferenzen und unterschiedliche Zitierstile. Das haben wir beobachtet.

Dimension ChatGPT / OpenAI Perplexity Google AI Overviews Claude / Gemini
Datenquelle Web-Browsing + Trainingsdaten Echtzeit-Websuche Google-Index + Knowledge Graph Trainingsdaten + Websuche (wenn aktiviert)
Höchste Priorität Entity Recognition, Tiefe der Autorität Zitationsdichte, Aktualität, Datenspezifität E-E-A-T-Signale, Schema Markup Primärquellen, Präzision
Zitierstil Inline-Links (Browsing-Modus) Nummerierte Fußnoten-Zitate Aufklappbare Source Cards Inline-Zitate (variiert je nach Modus)
Quellen pro Antwort 3-4 (vor Oktober 2025 waren es 6-7) 5-8 5-6 Variiert
Gewichtung von Aktualität Mittel Sehr hoch Hoch Mittel
Einfluss von Reddit Steigend Sehr hoch (38-52 % der Antworten) Vorhanden über den Google-Index Minimal

ChatGPT / OpenAI

Laut Similarwebs AI-Suchtraffic-Report 2025 macht ChatGPT 87,4 % des gesamten KI-Referral-Traffics aus, was es für die meisten Unternehmen zur Priorität macht. Es stützt sich stark auf Entity Recognition — also darauf, ob deine Marke in den Trainingsdaten und im Web insgesamt als etabliertes "Ding" vorkommt. Websites, die auf 8+ unabhängigen Domains erwähnt werden, werden 2,1-fach häufiger zitiert als Marken, die nur auf 2 starken Autoritätsseiten erwähnt werden. Breite der Präsenz ist wichtiger als Tiefe auf einer einzelnen Quelle.

Das Update vom Oktober 2025 reduzierte die Zahl der Markenerwähnungen pro Antwort von 6-7 auf 3-4, wodurch jeder einzelne Erwähnungs-Slot umkämpfter wurde. Metehan Yesilyurts Forschung, veröffentlicht in seiner Analyse 2025 auf LinkedIn, zeigte, dass ChatGPT ein URL-Freshness-Scoring-System nutzt — das Aktualisieren von Inhalten verbesserte die Position einer Seite in der Zitationspriorität um 95 Plätze. Halte deine wichtigsten Seiten aktuell.

Wenn ChatGPT den Browsing-Modus nutzt, ruft es deine Seiten in Echtzeit ab. Wenn Browsing nicht ausgelöst wird, greift es auf Trainingsdaten zurück. Beide Wege zählen: Optimiere deine Website für Echtzeit-Retrieval (Geschwindigkeit, sauberes HTML) und baue genug Markenpräsenz auf, um durch schiere Wiederholung über unabhängige Quellen in den Trainingsdaten zu landen.

Das Schwierigste an ChatGPT: Es ist am wenigsten vorhersehbar. Einige unserer qualitativ besten Seiten wurden ignoriert. Einige Seiten, von denen wir es nicht erwartet hatten, wurden zitiert. Das Signal-Rausch-Verhältnis in unseren ChatGPT-Daten war das schlechteste aller Plattformen. Wenn dir jemand erzählt, er habe den ChatGPT-Zitationsalgorithmus geknackt, overfittet diese Person sehr wahrscheinlich auf eine kleine Stichprobe.

Perplexity

Perplexity KI-Suchmaschine mit Quellenangaben
Perplexity — KI-Suche mit transparenten Quellenangaben. Quelle: Perplexity

Perplexity ist die transparenteste KI-Suchmaschine. Sie zeigt ihre Quellen, ruft Inhalte in Echtzeit ab und ihr Zitierverhalten ist relativ konsistent. Unsere Experimente zeigten drei klare Muster:

Erstens: Die Dichte externer Quellenangaben zählt. Seiten, die auf 5+ autoritative Quellen verlinkten, wurden häufiger zitiert als gleich starke Inhalte mit weniger Referenzen. Perplexity scheint dein Zitierverhalten als Vertrauenssignal zu behandeln.

Zweitens: Datenspezifität gewinnt. "LCP under 2.5s improves Core Web Vitals" wird zitiert. "Speed matters for SEO" nicht. Exakte Zahlen, benannte Studien und konkrete Vergleiche schlagen allgemeine Ratschläge jedes Mal.

Drittens: Längere, gut strukturierte Inhalte schlagen kürzere Inhalte. Meine Hypothese: Ein 3.000-Wörter-Guide mit 15 sauber beschrifteten Abschnitten gibt Perplexity 15 potenzielle Extraktionspunkte. Ein 500-Wörter-Post gibt ihm einen oder zwei. Perplexity verarbeitet 10 million queries pro Tag. Es braucht einen tiefen Brunnen an extrahierbarem Content. Gib ihm diesen Brunnen.

Noch etwas zu Perplexity: Es ist die am besten messbare Plattform, weil sie nummerierte Zitate zeigt. Du kannst exakt sehen, welche Seiten für welche Suchanfragen zitiert werden. Das macht Perplexity zum besten Testfeld für GEO-Experimente. Wenn etwas auf Perplexity funktioniert, lässt es sich wahrscheinlich übertragen. Wenn es dort nicht funktioniert, bekommst du sofort Feedback.

Google AI Overviews

Google-Suchergebnisse mit AI Overview
Google AI Overviews in den Suchergebnissen. Quelle: Google

Schema Markup war in unseren Tests zu Google AI Overviews der mit Abstand größte Einzelhebel. Seiten mit FAQ- und HowTo-Schema wurden ungefähr 3x häufiger zitiert. Seiten, die Text, Bilder und strukturierte Daten kombinierten, hatten 156 % höhere Auswahlraten. Das ist der eine Bereich, in dem ich sagen würde: Die Daten sind stark genug für eine klare Empfehlung.

E-E-A-T-Signale zählen hier stärker als auf anderen Plattformen. Autorenzeilen mit Qualifikationen, ausgehende Links zu Primärquellen, klar nachgewiesene Erfahrung aus erster Hand. Googles Quality-Rater-Guidelines fließen in die Auswahl der Quellen für AI Overviews ein.

Eine wichtige Nuance: Die Überschneidung zwischen Googles Top-Organic-Ergebnissen und den Quellen in AI Overviews ist von 70 % auf unter 20 % gefallen. Platz #1 bei Google garantiert nicht, dass du in den AI Overviews auftauchst. Es sind zunehmend unterschiedliche Rankingsysteme. Seiten, die multimodale Inhalte kombinieren — Text plus Bilder plus strukturierte Daten — hatten die höchsten Auswahlraten. Google AI Overviews bevorzugt Inhalte, die so aussehen, wie Googles Quality Rater autoritative Inhalte bewerten würden. Wenn du zero-click search optimization verstehst, verstehst du hier das Fundament.

Claude und Gemini

Claude und Gemini sind in diesem Spiel noch neuer. Ich weiß ehrlich gesagt noch nicht, was sie priorisieren. Unsere Monitoring-Daten zeigen, dass Claude tendenziell Primärquellen und gut belegte technische Inhalte bevorzugt. Gemini stützt sich ähnlich wie AI Overviews auf den Google-Index, aber mit anderen Auswahlkriterien, die wir noch nicht entschlüsselt haben.

Ich habe Behauptungen gesehen, man könne speziell für Claude oder Gemini optimieren. Da wäre ich skeptisch. Die Stichproben sind zu klein, die Plattformen werden zu häufig aktualisiert, und wer Anfang 2026 Sicherheit über ihre Zitationsalgorithmen behauptet, extrapoliert über die Daten hinaus.

Die sichere Wette: Die Grundlagen, die für ChatGPT und Perplexity funktionieren — autoritativer Content, Datendichte, saubere Struktur, starke Markenpräsenz — übertragen sich ziemlich gut auf Claude und Gemini. Optimiere breit.

Was nicht funktioniert hat (die Experimente, die gescheitert sind)

Dieser Abschnitt ist wichtig. Jeder andere GEO-Guide ist eine Highlight-Reel voller Erfolge. Hier ist, was wir ausprobiert haben und entweder null Effekt hatte — oder uns vielleicht sogar geschadet hat.

Format ohne Substanz war ein kompletter Fehlschlag. Wir haben drei Blogposts in ein perfektes FAQ-Format umgebaut — saubere Überschriften, knappe Antworten im ersten Absatz, korrektes Schema — ohne die eigentliche Qualität des Inhalts zu verbessern. Keiner der drei wurde von irgendeiner KI-Suchmaschine zitiert. Die Modelle scannen nicht nur Struktur. Sie lesen Inhalte. Perfekte Formatierung um mittelmäßige Antworten herum bleibt mittelmäßig.

Eine llms.txt-Datei zu erstellen brachte gar nichts. Stand März 2026 lesen ChatGPT, Perplexity und Claude keine llms.txt-Dateien. Es ist ein Vorschlag, kein Standard. Wir haben einen halben Tag damit verbracht, eine zu erstellen. Gesamte Wirkung: null. Konzentrier dich lieber darauf, deinen tatsächlichen Content exzellent zu machen.

Aggressives "Direct Answer"-Formatting ohne Kontext verschlechterte die Lesbarkeit. Wir versuchten, drei Posts auf ultrakurze, definitionsartige Absätze herunterzubrechen, weil wir dachten, KI-Suchmaschinen würden diese Dichte bevorzugen. Stattdessen verloren die Posts an Tiefe — und weder Menschen noch KI-Suchmaschinen interagierten stärker damit. In einem Fall zitierte Perplexity sogar die ursprüngliche längere Version aus der Wayback Machine. Die KI wollte Substanz, keine Stichpunkte.

Selbstwerblicher Content wurde konsequent ignoriert. Jede Seite, deren primärer Zweck Verkaufen statt Informieren war, blieb für KI-Suchmaschinen unsichtbar. Unsere Features-Seite, unsere Pricing-Seite, unsere "why SEOJuice"-Seite — nichts davon wurde für irgendetwas zitiert. KI-Suchmaschinen zitieren informative Inhalte. Marketingseiten überspringen sie. Jedes einzelne Mal.

Mehr Veröffentlichungsvolumen ohne Qualität half nicht. Wir testeten häufigere, kürzere Posts gegen weniger, dafür tiefere Inhalte. Die tieferen Posts gewannen haushoch. Ein umfassender 3.000-Wörter-Guide bekam mehr KI-Zitate als acht 500-Wörter-Posts, die denselben Themenbereich aus verschiedenen Winkeln abdeckten. KI-Suchmaschinen bevorzugen Tiefe vor Breite, was zu den Ergebnissen des Princeton-Papers zu Content-Qualitätssignalen passt.

Astroturfing auf Reddit ging nach hinten los. Ich will klar sein: Wir haben das nicht gemacht. Aber ich habe beobachtet, wie ein Wettbewerber es versuchte. Sie erstellten offensichtlich werbliche Accounts und posteten in mehreren Subreddits Dinge wie "I just discovered [their tool] and it's amazing". Die Accounts wurden innerhalb weniger Tage markiert. Die Reaktion der Community war feindselig. Und ihre Marke stand danach schlechter da als vorher — jetzt begannen Reddit-Threads über sie mit "this company astroturfs". KI-Suchmaschinen, die Reddit crawlen, nehmen dieses Sentiment ebenfalls auf.

Speziell für ChatGPT zu optimieren war Zeitverschwendung. Wir haben eine Woche damit verbracht, rückzuentwickeln, was ChatGPT ganz spezifisch bevorzugt, getrennt von den allgemeinen Grundlagen. Wir passten die Dichte benannter Entitäten an, experimentierten mit Antwortformaten und versuchten sogar, den Stil von Seiten nachzuahmen, die zitiert wurden. Nichts davon erzeugte einen messbaren Unterschied über das hinaus, was die allgemeinen Best Practices ohnehin schon brachten. Die Plattform ist zu intransparent und zu variabel, als dass plattformspezifische Optimierung zuverlässig wäre. Ich würde diese Zeit lieber in Markenaufbau investieren.

Diese Fehlschläge waren genauso lehrreich wie die Erfolge. (Unsere Stichprobe war bei den meisten dieser Tests klein — vielleicht insgesamt 15-20 Seiten. Genug, um Muster zu sehen, nicht genug für statistische Strenge.) Sie haben unseren Fokus auf das eingegrenzt, was wirklich etwas bewegt: echte Expertise, reale Daten, starke externe Markenpräsenz und Geduld. Es gibt keine Abkürzung. Und wenn etwas wie eine Abkürzung klingt — ein Hack, ein geheimes Format, eine magische Datei, die die KI liest — dann ist es mit ziemlicher Sicherheit keine.

So überwachst du deine KI-Sichtbarkeit

SEOJuice AISO-Monitoring für KI-Sichtbarkeit in der Suche
SEOJuice Generative SEO Features für das Monitoring von KI-Sichtbarkeit. Quelle: SEOJuice

Der größte Fehler, den ich sehe: Unternehmen machen GEO-Arbeit, ohne zu messen, ob sie funktioniert. Du würdest auch kein SEO ohne Rank Tracking machen. Mach GEO nicht blind.

Der manuelle Ansatz (hier solltest du anfangen): Öffne einmal pro Woche ChatGPT und Perplexity. Führe deine 20-30 Ziel-Suchanfragen aus. Dokumentiere, welche Marken erwähnt werden, ob du auftauchst und an welcher Position. Pack es in ein Spreadsheet. Das dauert 30-45 Minuten und gibt dir ein klares Bild deiner Entwicklung. So habe ich angefangen.

Was du messen solltest: Markenerwähnungen pro Suchanfrage (nimmt es zu oder ab?), Wettbewerber-Erwähnungen (wer wird statt dir zitiert?), Position der Erwähnung (die erste Erwähnung ist deutlich mehr wert als die fünfte), Sentiment (positive Empfehlung vs. neutrale Erwähnung vs. ungünstiger Vergleich) und welche deiner Seiten zitiert werden (zeigt dir, welcher Content funktioniert).

Ich sollte offen sagen: Unser AISO monitoring feature misst genau das, also bin ich hier kein neutraler Beobachter. Es führt Ziel-Suchanfragen nach Zeitplan gegen ChatGPT, Perplexity und Google AI Overviews aus und verfolgt Erwähnungen, Sentiment und Zitationsquellen im Zeitverlauf. Wir haben es gebaut, weil wir es selbst brauchten, und es hat den Spreadsheet-Ansatz ersetzt, sobald unsere Liste über 50 Prompts hinausging.

Aber das Spreadsheet funktioniert. Wenn du gerade erst anfängst und dich nicht direkt auf ein Tool festlegen willst, liefert dir der manuelle Ansatz 80 % der Erkenntnisse bei null Kosten. Das Tool ist weniger wichtig als die Gewohnheit, regelmäßig nachzusehen.

Eine Sache, auf die du achten solltest: KI-Zitationsrankings verschieben sich häufiger als Google-Rankings. Wir haben gesehen, dass Seiten in einer Woche in ChatGPT-Ergebnissen auftauchten und in der nächsten verschwanden, nur um zwei Wochen später wiederzukommen. Keine Panik bei wöchentlichen Schwankungen. Schau auf den 30-Tage- und 90-Tage-Trend. Dort steckt das eigentliche Signal.

Die Mythen, die einfach nicht sterben wollen

GEO hat inzwischen genug Aufmerksamkeit bekommen, um seine eigene Mythologie zu erzeugen. Hier sind die Dinge, die ich immer wieder höre und die 2026 nicht standhalten.

Mythos Realität
"Wenn ich bei Google auf #1 ranke, zitiert mich KI automatisch" Die Überschneidung zwischen Googles Top-Ergebnissen und KI-zitierten Quellen ist auf unter 20 % gefallen. Basierend auf unserer Analyse der im AISO-Monitoring von SEOJuice getrackten Seiten gibt es eine Korrelation von 0.65 zwischen Rankings auf Googles erster Seite und Erwähnungen in ChatGPT, aber Korrelation ist keine Kausalität — und schon gar keine Garantie.
"Mehr Content = mehr Zitate" Das Gegenteil kommt der Wahrheit näher. Ein umfassender, datenreicher Artikel schlägt zehn dünne Seiten. KI-Suchmaschinen belohnen Tiefe und Konsolidierung.
"Keyword Stuffing funktioniert für KI so wie früher für Google" KI-Modelle arbeiten mit semantischem Verständnis, nicht mit Keyword-Matching. Stuffing verschlechtert Lesbarkeit und Zitierbarkeit. Schreib natürlich.
"GEO ersetzt SEO" Klassische Suche macht immer noch ~96 % des Web-Traffics aus. Diese Zahl sinkt, aber langsam. Wenn du SEO für GEO aufgibst, optimierst du 4 % auf Kosten von 96 %. Mach beides.
"Man kann dafür bezahlen, in ChatGPT erwähnt zu werden" Stand März 2026 gibt es keine bezahlte Platzierung in den organischen Antworten von ChatGPT. OpenAI hat Werbemodelle geprüft, aber Markenerwähnungen in konversationellen Antworten werden verdient, nicht gekauft.

Ich würde noch einen subtileren Mythos ergänzen: die Vorstellung, GEO sei eine einmalige Optimierung. Ist es nicht. KI-Modelle werden aktualisiert, Zitationsmuster verschieben sich und Wettbewerber machen dieselbe Arbeit. Wir aktualisieren unsere wichtigsten Seiten quartalsweise mit frischen Daten und aktuellen Referenzen. Content-Aktualität ist ein echtes Signal, und "SEO trends 2024" wird 2026 zurückgestuft, selbst wenn der Rat darin noch gültig ist.

Häufig gestellte Fragen

Wie lange dauert es, bis man von KI-Suchmaschinen zitiert wird?

Das hängt von deinem Ausgangspunkt ab. Wenn du bereits Domain-Autorität und etwas Markenpräsenz auf Drittseiten hast, zeigten Schema-Markup-Änderungen in unseren Tests nach 4-6 Wochen Wirkung und Content-Umstrukturierungen nach 8-12 Wochen. Wenn du bei fast null Markenpräsenz startest — und dort befinden sich die meisten Startups und kleinen Unternehmen — brauchst du 3-6 Monate konsequente Arbeit. Perplexity greift Änderungen am schnellsten auf (3-5 Werktage für neue Inhalte). ChatGPT war am unvorhersehbarsten und hatte keine klare Timeline. Der Flywheel-Effekt bedeutet aber auch Beschleunigung: Das erste Zitat ist das schwerste, die nächsten kommen schneller, wenn sich deine Markenpräsenz aufbaut.

Schadet Optimierung für KI-Suche meinen klassischen Google-Rankings?

Nach unserer Erfahrung nein — im Gegenteil, sie hilft. Die Maßnahmen, die KI-Sichtbarkeit steigern — Reviews verdienen, Community-Präsenz aufbauen, datenreiche Inhalte erstellen, Schema Markup implementieren — sind auch starke klassische SEO-Signale. Basierend auf unserer Analyse der im AISO-Monitoring von SEOJuice getrackten Seiten gibt es eine Korrelation von 0.65 zwischen einem Ranking auf Googles erster Seite und einer Erwähnung in ChatGPT. In unseren Experimenten rankte jede Seite, die ein KI-Zitat bekam, bereits auf Seite 1-2 für ihr Ziel-Keyword. Die eine Ausnahme: Wenn du Seiten auf ein ultrakurzes "Direct Answer"-Format herunterkürzt (was wir ausprobiert haben und was scheiterte), könntest du sowohl die Lesbarkeit für Menschen als auch klassische Rankings verschlechtern. Opfere Tiefe nicht für Dichte.

Ist strukturierte Daten (Schema Markup) wirklich notwendig?

Für Google AI Overviews war es in unseren Tests die mit Abstand wirkungsvollste Änderung — ungefähr 3x Zitationsvorteil. Für Perplexity und ChatGPT war der Effekt weniger klar. Aber Schema zu implementieren ist wenig Aufwand (30 Minuten für 10 Seiten mit einem Plugin oder Tool) und hat keinen Nachteil. Es ist eine dieser Empfehlungen vom Typ "immer machen". Unser entity SEO guide erklärt die Verbindung zwischen strukturierten Daten und answer engine optimization.

Was ist der Unterschied zwischen GEO, AEO und AI SEO?

GEO (Generative Engine Optimization) zielt speziell auf KI-Suchmaschinen, die originäre Antworten generieren — ChatGPT, Perplexity, Claude. AEO (Answer Engine Optimization) ist breiter und umfasst auch Featured Snippets, Sprachassistenten und jede Plattform, die direkte Antworten liefert. "AI SEO" ist ein informeller Oberbegriff. In der Praxis gibt es erhebliche Überschneidungen. Die Taktiken in diesem Guide funktionieren in allen drei Kategorien.

47 % der Nutzer von AI Search verwenden 2+ Plattformen. Sollte ich für alle optimieren?

Optimiere zuerst breit, dann plattformspezifisch. Die Grundlagen — datenreicher Content, starke Markenpräsenz, saubere Struktur, Schema Markup — funktionieren auf jeder Plattform. Wenn das sitzt, investiere in plattformspezifische Taktiken: hohe Dichte externer Quellenangaben für Perplexity, mehr Tiefe bei benannten Entitäten für ChatGPT, E-E-A-T-Signale für Google AI Overviews. ChatGPT macht 87,4 % des KI-Referral-Traffics aus (laut Similarweb), also bekommt es Priorität, wenn du wählen musst. Aber die Grundlagen sind 80 % der Arbeit.


Weiterführende Artikel: Ask Engine Optimization: The Next Big Thing?Optimizing for Zero-Click SearchesEntity SEO ExplainedFree AI Visibility Checker Tool

Der Zweck dieses Artikels war, unseren tatsächlichen Plan zu teilen, inklusive der Dinge, die gescheitert sind. KI-Suche entwickelt sich schnell — was ich hier geschrieben habe, spiegelt wider, was wir im März 2026 wissen. Manches davon wird auch in Zukunft Bestand haben. Manches nicht. Wir aktualisieren das hier, wenn sich die Landschaft verschiebt, und das wird sie.

Wenn du messen willst, ob KI-Suchmaschinen dein Unternehmen zitieren, kannst du mit dem oben beschriebenen manuellen Wochen-Audit starten oder unseren AI Visibility Checker für eine Momentaufnahme nutzen. Für laufendes Monitoring verfolgt das AISO-Monitoring von SEOJuice Erwähnungen in ChatGPT, Perplexity und Google AI Overviews automatisch.

SEOJuice
Stay visible everywhere
Get discovered across Google and AI platforms with research-based optimizations.
Works with any CMS
Automated Internal Links
On-Page SEO Optimizations
Get Started Free

no credit card required