-- Alle 55 Checks anhand der aktuellen Google-Dokumentation verifiziert, Änderungen des Core Updates vom März 2026 eingearbeitet, Abschnitt zur KI-Suche nach der Post-SGE-Phase komplett neu geschrieben.
TL;DR: Druck dir dieses SEO-Cheat-Sheet 2025 aus. Setz ein Lesezeichen. Geh es jedes Quartal durch. 55 Checks in 6 Kategorien, die 2026 alle relevanten SEO-Bereiche abdecken -- von technischen Grundlagen bis zur Vorbereitung auf KI-Suche. Jeder Check zeigt dir, worauf du achten musst und welches Tool du dafür nutzt. Das ist keine Theorie. Das ist die Checkliste, die ich bei jedem Website-Audit nutze.
Tipp zum Ausdrucken
Diese Seite ist als Nachschlagewerk gedacht. Nutze Ctrl+P (Cmd+P auf dem Mac), um sie auszudrucken -- die Tabellen sind für A4/Letter formatiert. Oder lass sie einfach dauerhaft in einem Browser-Tab offen, so wie ich.
Jeder Check ist gleich aufgebaut: ein Kontrollkästchen, der Name des Checks, eine kurze Erklärung in 1-2 Sätzen, warum er wichtig ist, und ein Tool zur Überprüfung. Grüne Häkchen bedeuten: alles gut. Rot heißt: da wartet Arbeit auf dich. Gelb heißt: nicht kritisch, aber du solltest es irgendwann angehen.
Ich empfehle, das Ganze quartalsweise durchzugehen. Manche Checks (wie HTTPS oder robots.txt) richtest du einmal ein und vergisst sie dann. Andere (wie Content-Aktualität oder Core Web Vitals) verändern sich mit der Zeit und brauchen regelmäßige Aufmerksamkeit. Die Checks sind innerhalb jeder Kategorie nach Wirkung sortiert -- arbeite also zuerst die vorderen Punkte ab.
Wenn du sonst nichts aus dieser Liste machst, konzentrier dich auf diese fünf: Check 1 (HTTPS), 6 (LCP), 11 (Title-Tags), 16 (interne Links) und 21 (E-E-A-T-Signale). Nach meiner Erfahrung aus Audits von Hunderten Websites machen diese fünf allein ungefähr 60% der Ranking-Probleme aus, die ich finde. Alles andere ist auch wichtig, aber das hier sind die tragenden Wände. Nimm dir eine pro Tag für eine Woche vor, und du bist weiter als die meisten Wettbewerber, die noch immer durch eine 55-Punkte-Liste scrollen und sich fragen, wo sie anfangen sollen.
Das hier sind die Basics. Wenn einer dieser Checks fehlschlägt, ist der Rest egal -- deine Website wird nicht gut abschneiden, egal wie gut dein Content ist. Ich habe schon großartige Inhalte gesehen, die monatelang nicht indexiert wurden, weil die robots.txt falsch konfiguriert war. Das ist das SEO-Äquivalent dazu, einen Roman zu schreiben und ihn dann in einer abgeschlossenen Schublade liegen zu lassen.
| ✓ | Check | Warum das wichtig ist | So prüfst du es |
|---|---|---|---|
| ☐ | 1. HTTPS auf allen Seiten | Google hat HTTPS bereits seit 2014 als Ranking-Signal bestätigt. Mixed Content (HTTP-Ressourcen auf HTTPS-Seiten) löst Browser-Warnungen aus und zerstört Vertrauen. 2026 gibt es wirklich keine Ausrede mehr, das nicht sauber umgesetzt zu haben. | Starte einen Crawl -- markiere jede Seite, die über HTTP ausgeliefert wird oder Mixed Content lädt. Prüfe außerdem auf Canonical-URLs, die noch nicht auf HTTPS zeigen. |
| ☐ | 2. robots.txt ist erreichbar und korrekt | Eine kaputte robots.txt (500-Fehler) kann dazu führen, dass Google das Crawling deiner gesamten Website vorübergehend stoppt. Eine falsch konfigurierte robots.txt blockiert Seiten, die du eigentlich indexiert haben willst. Beides ist katastrophal. | Rufe yourdomain.com/robots.txt auf. Prüfe, ob ein 200-Status zurückkommt. Stelle sicher, dass CSS-/JS-Dateien nicht blockiert werden. Nutze den robots.txt-Tester von Google in der GSC. |
| ☐ | 3. XML-Sitemap eingereicht und aktuell | Deine Sitemap ist der direkteste Weg, Google über alle wichtigen Seiten zu informieren. Veraltete Sitemaps mit toten URLs verschwenden Crawl Budget. | Google Search Console -> Sitemaps. Prüfe das Datum der letzten Einreichung. Stelle sicher, dass keine noindex-Seiten oder 404s enthalten sind. |
| ☐ | 4. Canonical-Tags sind korrekt | Falsche Canonical-Tags sagen Google, dass die Seite, die du ranken willst, ignoriert und stattdessen eine andere indexiert werden soll. Selbstreferenzierende Canonicals sind fast immer die richtige Wahl. | Crawle deine Website. Das Canonical-Tag jeder Seite sollte auf die eigene URL zeigen -- außer du konsolidierst Duplikate ganz bewusst. |
| ☐ | 5. Mobilfreundlich auf allen Seiten | Google arbeitet mit Mobile-First-Indexing -- aus Googles Sicht ist deine mobile Version maßgeblich. Eine Seite, die auf Desktop perfekt aussieht, mobil aber kaputt ist, wird auf Basis dieser kaputten mobilen Version bewertet. | Google Mobile-Friendly Test. Prüfe zusätzlich manuell auf echten Geräten -- automatisierte Tests übersehen Scroll-Locks, überlappende Elemente und winzige Tap-Targets. |
| ☐ | 6. Seitengeschwindigkeit: LCP unter 2.5s | Largest Contentful Paint misst, wie schnell dein Hauptinhalt lädt. Googles Schwelle: unter 2.5s ist „gut“. Über 4s ist „schlecht“. Die meisten Websites scheitern hier wegen nicht optimierter großer Header-Bilder oder render-blockierendem JS. | PageSpeed Insights, Chrome DevTools Performance-Tab oder das SEOJuice CWV Impact tool. |
| ☐ | 7. INP unter 200ms | Interaction to Next Paint hat im März 2024 FID ersetzt und ist jetzt die zentrale Core Web Vital für die Reaktionsgeschwindigkeit. 43% der Websites scheitern 2026 noch immer an diesem Wert. Er misst, wie schnell deine Seite auf Klicks, Taps und Tastatureingaben reagiert. | Chrome DevTools -> Performance -> INP prüfen. PageSpeed Insights zeigt Felddaten. Abhilfe: JavaScript auf dem Hauptthread reduzieren und nicht kritische Skripte später laden. |
| ☐ | 8. CLS unter 0.1 | Cumulative Layout Shift misst die visuelle Stabilität -- also wie stark die Seite beim Laden herumspringt. Ads, spät ladende Bilder und dynamische Inhalte ohne reservierte Abmessungen sind die üblichen Verdächtigen. | PageSpeed Insights, Lighthouse. Abhilfe: explizite width- und height-Angaben bei Bildern/iframes setzen, keine Inhalte oberhalb des sichtbaren Bereichs nach dem Laden einfügen. |
| ☐ | 9. Schema-Markup auf wichtigen Seitentypen | Strukturierte Daten helfen Google, deinen Content besser zu verstehen, und ermöglichen Rich Results (Sterne, FAQs, Breadcrumbs usw.). Seiten mit Rich Results erzielen im Schnitt 20-30% höhere CTR. | Google Rich Results Test. Mindestens: Organization (Homepage), Article/BlogPosting (Blog), Product (Ecommerce), FAQ (Support), BreadcrumbList (alle Seiten). |
| ☐ | 10. Crawl Budget wird nicht verschwendet | Wenn du 10,000+ Seiten hast, zählt Crawl Budget. Verwaiste Seiten, unendliche Pagination, sessionbasierte URLs und facettierte Navigation können enorme Crawl-Ressourcen verbrennen. | GSC -> Einstellungen -> Crawl-Statistiken. Prüfe, wie viele Seiten täglich gecrawlt werden. Wenn die Zahl sinkt, prüfe auf verwaiste Seiten und Redirect-Ketten. |
Wenn du in Kategorie 1 10/10 erreicht hast: Glückwunsch -- du gehörst zu den Top 20% der Websites, die ich auditiere. Die meisten Websites scheitern an 2-3 dieser Punkte. Die häufigsten Probleme, in dieser Reihenfolge: veraltete Sitemaps (Check 3), INP über 200ms (Check 7) und fehlendes Schema-Markup (Check 9). Wenn deine technische Grundlage stabil ist, wird alles andere auf dieser Liste dramatisch einfacher. Wenn sie kaputt ist, ist alles andere egal. Ich habe dafür eine Regel: Ich spreche mit einem Kunden nicht über Content-Strategie, bevor nicht alle 10 Punkte hier grün sind. Spart uns beiden Zeit.
Mit On-Page SEO fangen die meisten an -- und dort hören die meisten auch wieder auf. Diese Checks sind notwendig, aber nicht ausreichend. Sie sind Mindeststandard, kein Wettbewerbsvorteil. Stell es dir vor wie Zähneputzen: essenziell, aber niemand gewinnt einen Schönheitswettbewerb nur deshalb, weil die Zähne sauber sind.
| ✓ | Check | Warum das wichtig ist | So prüfst du es |
|---|---|---|---|
| ☐ | 11. Eindeutige Title-Tags auf jeder Seite | Dein Title-Tag ist der wichtigste On-Page-Ranking-Faktor überhaupt. Doppelte Titles verwirren Google, welche Seite ranken soll. Fehlende Titles lassen Google raten -- und Google rät oft erstaunlich schlecht. | Starte einen Crawl. Markiere Seiten mit doppelten Titles, fehlenden Titles oder Titles über 60 Zeichen (werden in den SERPs abgeschnitten). Das SEOJuice audit erkennt alle drei. |
| ☐ | 12. Meta Descriptions auf wichtigen Seiten | Meta Descriptions beeinflussen Rankings nicht direkt, aber sie beeinflussen die CTR -- und die zählt. Eine gute Description ist oft der Unterschied zwischen Klick und Weiter-Scrollen. Google schreibt etwa 62% der Meta Descriptions um, aber eine vorhandene gibt dir zumindest eine Chance. | Crawle deine Website. Jede Seite, die organischen Traffic anziehen soll, sollte eine eindeutige Meta Description unter 155 Zeichen haben. |
| ☐ | 13. Eine H1 pro Seite, keyword-relevant | Google nutzt die H1, um das Hauptthema einer Seite zu verstehen. Mehrere H1s verwässern dieses Signal. Keine H1 bedeutet, dass Google das Thema allein aus dem Body Content ableiten muss. | Quelltext ansehen oder einen Crawler nutzen. Eine H1, weit oben auf der Seite, mit deinem primären Keyword oder einer nahen Variante. |
| ☐ | 14. Logische Überschriften-Hierarchie (H1->H2->H3) | Die Überschriftenstruktur ist sowohl eine Accessibility-Anforderung (WCAG) als auch ein SEO-Signal. Ebenen zu überspringen (H1->H3) erzeugt eine kaputte Gliederung. Google nutzt Überschriften, um die Content-Struktur zu verstehen und Featured Snippets zu extrahieren. | Prüfe die HTML-Outline. H1 -> H2 -> H3 in logischer Reihenfolge. Keine H3 direkt unter einer H1 ohne H2 dazwischen. |
| ☐ | 15. Alt-Text auf allen sinnvollen Bildern | Alt-Text ist die Art, wie Google Bilder „sieht“. Er ist außerdem eine rechtliche Accessibility-Anforderung nach WCAG 2.1 AA und dem European Accessibility Act (verbindlich seit Juni 2025). Fehlender Alt-Text = unsichtbare Bilder + potenzielles rechtliches Risiko. | Crawle deine Website und filtere nach Bildern ohne Alt-Text. Dekorative Bilder sollten alt="" haben (leer, nicht fehlend). |
| ☐ | 16. Interne Links aus kontextuellem Content | Interne Links verteilen Autorität und helfen Google, Seiten zu entdecken. Seiten ohne interne Links (verwaiste Seiten) verschwenden Crawl Budget und ranken nie. Kontextuelle Links im Fließtext wiegen mehr als Links in Navigation oder Footer. | SEOJuice Internal Link Finder. Jede Seite sollte 3+ interne Links aus relevantem Content erhalten. |
| ☐ | 17. Primäres Keyword in den ersten 100 Wörtern | Google gewichtet Begriffe stärker, die früh im Content auftauchen. Das heißt nicht Keyword Stuffing -- es heißt, auf den Punkt zu kommen. Wenn dein primäres Keyword erst in Absatz 4 auftaucht, ist dein Intro zu lang. | Manuelle Prüfung deiner Top-20-Seiten. Öffne jede Seite, Ctrl+F nach deinem Ziel-Keyword und prüfe, ob es im ersten oder zweiten Absatz vorkommt. |
| ☐ | 18. Ausreichende Content-Tiefe | Seiten unter 300 Wörtern ranken selten für irgendetwas Wettbewerbsfähiges. Google braucht genug Content, um zu verstehen, worum es auf deiner Seite geht. Thin Content ist einer der häufigsten Gründe, warum Seiten gecrawlt, aber nicht indexiert werden. | Crawle deine Website und exportiere Wortzahlen. Markiere Seiten unter 300 Wörtern, die auf organische Keywords abzielen. Ausnahmen: Tool-Seiten, Rechner, interaktive Inhalte. |
| ☐ | 19. Saubere URL-Struktur | URLs sollten lesbar, beschreibend und mit Bindestrichen als Worttrenner aufgebaut sein. Keine Session-IDs, keine übermäßigen Parameter, keine zufälligen Zeichenfolgen. Saubere URLs erzielen höhere CTR in den SERPs und lassen sich leichter verlinken. | Prüfe deine URL-Muster. Format: /category/descriptive-slug/. Vermeide: /p?id=38472&sess=abc. |
| ☐ | 20. Open Graph und Twitter Card Tags | Diese Tags steuern, wie deine Seiten beim Teilen in Social Media und Messaging-Apps aussehen. Kein direkter Ranking-Faktor, aber Social Shares bringen Traffic und Backlinks -- und beides sind Ranking-Faktoren. | Nutze Facebook Sharing Debugger und Twitter Card Validator. Mindestens: og:title, og:description, og:image auf jeder Seite. |
Googles Core Update vom März 2026 hat E-E-A-T-Signale noch stärker gewichtet. Content-Qualität ist nicht optional -- sie ist der wichtigste Unterschied zwischen Websites, die wachsen, und solchen, die stagnieren. Das ist auch die Kategorie, in der ich die größte Lücke sehe zwischen dem, was Leute über ihre Content-Qualität glauben, und dem, was tatsächlich da ist. Jeder hält seinen Content für „hochwertig“. Mach diese Checks, bevor du dir das selbst bestätigst.
"Sites with strong content quality, topical authority, and clean technical SEO usually stabilize quickly after algorithm updates. The sites that get hit hardest are the ones producing content without genuine expertise or first-hand experience."
| ✓ | Check | Warum das wichtig ist | So prüfst du es |
|---|---|---|---|
| ☐ | 21. E-E-A-T-Signale vorhanden | Experience, Expertise, Authoritativeness, Trustworthiness. Googles Quality Rater bewerten diese Signale explizit. 2026 wird besonders die Komponente „Experience“ (also nachweisbares Wissen aus erster Hand) stärker gewichtet als je zuvor -- Studien zeigen, dass 73% der Top-Rankings echtes Know-how sichtbar machen. | Prüfe: Autoren-Bios mit Qualifikationen, persönliche Anekdoten/Case Studies, Originaldaten, Zitate aus autoritativen Quellen. Wenn du nicht erkennen kannst, wer den Content geschrieben hat oder warum diese Person qualifiziert ist, hast du ein E-E-A-T-Problem. |
| ☐ | 22. Signale für Content-Aktualität | Google nutzt Last-Modified-Daten und Content-Änderungen, um Aktualität zu bewerten. Veralteter Content mit alten Statistiken, kaputten Links oder Verweisen auf „2023“ in einem „2026 Guide“ signalisiert Vernachlässigung. Content Decay ist real -- Seiten verlieren mit der Zeit Traffic, wenn sie nicht aktualisiert werden. | Prüfe deine Top-50-Seiten. Achte auf veraltete Daten, abgelaufene Statistiken, tote Links und Verweise auf vergangene Jahre. Aktualisieren und mit einem sichtbaren Hinweis „Aktualisiert am [Datum]“ neu veröffentlichen. |
| ☐ | 23. Keine Duplicate-Content-Probleme | Duplicate Content teilt Ranking-Signale auf zwei URLs auf -- und keine von beiden rankt so gut wie eine konsolidierte Seite. Häufige Ursachen: www vs. non-www, HTTP vs. HTTPS, Varianten mit oder ohne Slash, paginierter Content. | Führe site:yourdomain.com "exact phrase from page" in Google aus. Wenn mehrere URLs erscheinen, konsolidiere mit 301-Redirects oder Canonical-Tags. |
| ☐ | 24. Content-Tiefe übertrifft Wettbewerber | Für umkämpfte Keywords muss dein Content umfassender sein als das, was aktuell rankt. Nicht länger -- nützlicher. Decke Unterthemen ab, die den Top-Ergebnissen fehlen. Beantworte Anschlussfragen, die sie offenlassen. | Suche nach deinem Ziel-Keyword. Lies die Top-3-Ergebnisse. Frag dich: Welche Fragen bleiben unbeantwortet? Was habe ich gelernt, das dort fehlt? Schließe diese Lücken. |
| ☐ | 25. Sauberes Content-Formatting | Textwüsten ranken 2026 nicht mehr. Sowohl Googles Algorithmen als auch Nutzer bevorzugen scanbaren Content -- Zwischenüberschriften, Listen, Tabellen, kurze Absätze. Seiten mit guter Formatierung haben 40% niedrigere Bounce Rates. | Visuelle Prüfung: Kannst du die Seite scannen und die Kernaussagen verstehen, ohne jedes Wort zu lesen? Wenn nicht, füge Zwischenüberschriften hinzu, teile lange Absätze auf und nutze Bullet Lists für wichtige Punkte. |
| ☐ | 26. Multimedia-Elemente vorhanden | Seiten mit Bildern, Videos oder interaktiven Elementen ranken tendenziell besser -- sie signalisieren Vollständigkeit und verbessern das User Engagement. Google indexiert Bilder außerdem separat, was zusätzliche Einstiegspunkte in deinen Content schafft. | Prüfe deine wichtigsten Landingpages. Mindestens: 1 relevantes Bild pro 500 Wörter. Eigene Bilder schlagen Stockfotos. Videos einbetten, wo es sinnvoll ist. |
| ☐ | 27. Autorenangabe mit Bio | Googles Qualitätsrichtlinien nennen Autorenschaft ausdrücklich als E-E-A-T-Signal. Anonymer Content hat kein Glaubwürdigkeitssignal. Benannte Autoren mit Bio, Qualifikationen und verlinkten Social-Profilen zeigen Verantwortlichkeit. | Jeder Artikel sollte einen sichtbaren Autorennamen haben, der auf eine Autorenseite mit Bio, Foto, Qualifikationen und Links zu weiteren Inhalten verweist. Nutze Person-Schema auf Autorenseiten. |
| ☐ | 28. Quellen und Zitate eingebunden | Links zu autoritativen Quellen zeigen Recherchequalität und stärken die „Trustworthiness“-Komponente von E-E-A-T. Seiten, die ihre Aussagen belegen, werden eher von KI-Suchmaschinen zitiert. | Prüfe den Content auf unbelegte Behauptungen, besonders bei Statistiken und Zitaten. Jeder Datenpunkt sollte auf seine Originalquelle verlinken. Vermeide Links zu Wettbewerbern -- zitiere stattdessen die Originalforschung. |
| ☐ | 29. Sichtbare Aktualisierungsdaten | Sowohl Nutzer als auch Suchmaschinen nutzen Datumsangaben, um Relevanz einzuschätzen. Eine Seite ohne Datum könnte genauso gut 5 Jahre alt sein -- niemand weiß es. Ein sichtbares Datum schafft Vertrauen und Kontext. | Prüfe deine Content-Templates. Jeder Artikel/Guide sollte ein „Zuletzt aktualisiert“-Datum anzeigen. Nutze dateModified im Article-Schema, um das auch an Google zu kommunizieren. |
| ☐ | 30. Keine Thin-Content-Seiten, die Keywords targeten | Seiten unter 300 Wörtern, die auf umkämpfte Keywords zielen, sind fast immer verschwendete Mühe. Sie verwässern deine thematische Autorität und ranken selten. Entweder ausbauen oder entfernen und auf verwandten Content weiterleiten. | Crawle deine Website, exportiere Wortzahlen und Ziel-Keywords. Jede Seite unter 300 Wörtern mit Ziel-Keyword sollte erweitert oder konsolidiert werden. |
Eine kurze Randbemerkung zu den Checks 21-30: Ich würde argumentieren, dass du mit einer soliden technischen Grundlage (Kategorie 1 komplett grün) und wirklich starker Content-Qualität (Kategorie 3 größtenteils grün) in den anderen Kategorien auch mit mittelmäßiger Performance noch ganz gut durchkommst. Content-Qualität ist der Vermögenswert, der sich aufbaut. Alles andere ist Infrastruktur, die dafür sorgt, dass dieser Vermögenswert wirken kann. Infrastruktur zuerst reparieren, weil es schneller geht -- aber in Content-Qualität investieren, weil sie am Ende tatsächlich gewinnt.
Links bleiben das Rückgrat von Googles Ranking-Algorithmus. Interne Links kontrollierst du komplett. Externe Links musst du dir verdienen. Beides braucht regelmäßige Aufmerksamkeit. Ich sage jetzt etwas leicht Kontroverses: Wenn deine Zeit begrenzt ist, investiere 80% deiner Link-Arbeit in interne Verlinkung (Checks 31-34, 37-38) und 20% in das Monitoring externer Links (Checks 35, 40). Interne Links sind der am meisten unterschätzte Hebel in SEO. Du kontrollierst sie vollständig, du kannst sie heute reparieren, und ich habe gesehen, wie allein Verbesserungen in der internen Verlinkung Seiten von Position 15 auf Position 6 geschoben haben. Externer Linkaufbau ist wichtig, aber langsam, teuer und weitgehend außerhalb deiner Kontrolle. Ignorier ihn nicht -- aber lass dich davon auch nicht lähmen.
| ✓ | Check | Warum das wichtig ist | So prüfst du es |
|---|---|---|---|
| ☐ | 31. Keine Orphan Pages | Seiten ohne interne Links können von Google beim Crawling nicht entdeckt werden. Sie verschwenden Crawl Budget und ranken nie. Die Forschung von Botify zeigt, dass Orphan Pages im Schnitt 26% des Crawl Budgets verbrauchen. Siehe auch unseren vollständigen Guide zu Orphan Pages. | Crawle deine Website und vergleiche sie mit der Sitemap. Jede URL in deiner Sitemap, die im Crawl nicht auftaucht, ist wahrscheinlich verwaist. Abhilfe: 3+ interne Links von relevanten Seiten hinzufügen. |
| ☐ | 32. Vielfalt im Anchor Text | Wenn 90% deiner internen Links denselben Anchor Text verwenden, wirkt das manipulativ. Natürlicher Anchor Text variiert -- Exact Match, Partial Match, Brand, generisch („mehr lesen“) und nackte URLs. Ziel: kein einzelnes Anchor-Text-Muster sollte mehr als 30% aller Links zu einer Seite ausmachen. | Anchor Text Diversity tool. Exportiere interne Links pro Seite und prüfe die Verteilung der Anchor-Texte. |
| ☐ | 33. Keine kaputten internen Links | Kaputte interne Links verschwenden Link Equity und zerstören User Journeys. Jeder 404-Link ist Autorität, die verdampft, statt zu einer nützlichen Seite zu fließen. | SEOJuice Broken Link Checker oder einen vollständigen Crawl ausführen und nach 4xx-Statuscodes auf internen URLs filtern. |
| ☐ | 34. Keine Redirect Chains | Eine Redirect Chain ist URL A -> URL B -> URL C. Jeder zusätzliche Hop kostet etwas Autorität (Google sagt, das sei nicht so, aber Testdaten zeigen ziemlich konsistent das Gegenteil). Chains verlangsamen außerdem das Laden. Maximal akzeptabel: 1 Redirect. | Crawle deine Website. Filtere nach Redirect Chains (jede URL, die per 301 auf eine weitere 301 weiterleitet). Abhilfe: den ursprünglichen Link direkt auf das endgültige Ziel aktualisieren. |
| ☐ | 35. Audit der Qualität externer Links | Links auf spamige oder tote externe Websites schaden deinem Trust Score. Googles Richtlinien erwähnen ausdrücklich, dass Websites auch nach der Gesellschaft beurteilt werden, in der sie sich bewegen. Prüfe deine Outbound Links -- jeder externe Link sollte auf eine legitime, erreichbare Seite zeigen. | Exportiere alle externen Links aus einem Crawl. Prüfe auf: tote Links (404s), Links zu spamigen Domains, Links zu Seiten mit Sicherheitswarnungen. Bei Bedarf entfernen oder ersetzen. |
| ☐ | 36. Nofollow korrekt eingesetzt | Nutze rel="nofollow" für bezahlte Links, nutzergenerierte Inhalte (Kommentare, Forenbeiträge) und Links, für die du nicht bürgen willst. Setze kein nofollow auf deine eigenen internen Links -- das verschwendet Autorität. Und setze nicht pauschal nofollow auf alle externen Links -- das wirkt unnatürlich. | Crawle deine Website und prüfe die nofollow-Nutzung. Alle internen Links sollten dofollow sein. Externe redaktionelle Links sollten dofollow sein. Nur Sponsored-/UGC-Links sollten nofollow sein. |
| ☐ | 37. Link-Tiefe unter 4 Klicks | Jede Seite deiner Website sollte innerhalb von 3-4 Klicks von der Homepage erreichbar sein. Tiefer vergrabene Seiten werden seltener gecrawlt und erhalten weniger Autorität. Besonders kritisch ist das im Ecommerce mit tiefen Kategoriestrukturen. | Crawle deine Website und prüfe die Kennzahl „crawl depth“. Jede wichtige Seite mit Tiefe 5+ braucht bessere interne Verlinkung oder eine überarbeitete Navigation. |
| ☐ | 38. Hub-Seiten für wichtige Themen | Hub-Seiten (oder Pillar Pages) verlinken auf alle verwandten Inhalte zu einem Thema und signalisieren Google thematische Autorität. Ohne sie ist dein Content zu einem Thema über verstreute, unverbundene Seiten verteilt. | Prüfe für jedes große Thema deiner Website, ob es eine umfassende Hub-Seite gibt, die auf alle zugehörigen Artikel verlinkt. Die zugehörigen Artikel sollten zurück auf den Hub verlinken. |
| ☐ | 39. Footer-/Nav-Links sind nützlich, nicht spammy | Footer-Links zu jeder einzelnen Seite deiner Website verwässern Autorität und sehen nach Spam aus. Deine Navigation sollte die wichtigsten Seiten enthalten -- nicht 200 Links zu jeder Kategorie und Unterkategorie. | Zähle die Links in Footer und Navigation. Wenn einer der Bereiche mehr als 50 Links enthält, kürzen. Nur Top-Level-Seiten und die wichtigsten Ressourcen behalten. |
| ☐ | 40. Backlink-Profil wird überwacht | Toxische Backlinks von spamigen Domains können algorithmische Abstrafungen auslösen. Verlorene Backlinks von wertvollen Websites bedeuten sinkende Autorität. Du musst wissen, wann eines von beidem passiert. | Richte Backlink-Monitoring ein. Prüfe monatlich auf: neue Spam-Backlinks (disavow, wenn klar manipulativ), verlorene Links von starken Domains (versuchen zurückzuholen) und den allgemeinen Trend bei verweisenden Domains. |
Das ist der Abschnitt, den es vor zwei Jahren noch nicht gab und der in zwei Jahren wahrscheinlich der wichtigste sein wird. KI-Suchmaschinen (ChatGPT, Perplexity, Google AI Overviews) sind 2026 der am schnellsten wachsende Discovery-Channel, und die Optimierung dafür verlangt andere Taktiken als klassische SEO. Bei den konkreten Maßnahmen in diesem Abschnitt bin ich mir weniger sicher als bei allem anderen hier -- die Landschaft verschiebt sich monatlich, und was heute funktioniert, kann in sechs Monaten schon wieder anders aussehen. Aber die Richtung fühlt sich richtig an.
"The fundamental shift in 2026 is that discovery happens across vertical platforms and answer engines. Your technical SEO strategy now has to account for decentralized search -- the reality that discovery happens on Amazon, YouTube, ChatGPT, and Perplexity, not just Google."
| ✓ | Check | Warum das wichtig ist | So prüfst du es |
|---|---|---|---|
| ☐ | 41. llms.txt-Datei vorhanden | llms.txt ist eine Markdown-Datei im Root deiner Domain, die deinen wichtigsten Content für AI-Systeme auflistet. Stell es dir als Sitemap für LLMs vor. Noch kein offizieller Standard, aber Claude und Perplexity beziehen sich darauf. Wenig Aufwand, potenzieller Upside. | Prüfe yourdomain.com/llms.txt. Wenn sie fehlt, erstelle eine Datei mit deinen wichtigsten Seiten, ihren Themen und ihrem Zweck. Siehe unseren llms.txt generator. |
| ☐ | 42. Zugriff für AI-Crawler konfiguriert | Große AI-Unternehmen haben eigene Crawler: GPTBot (OpenAI), ClaudeBot (Anthropic), PerplexityBot. Deine robots.txt sollte diese explizit erlauben, wenn du in AI-Antworten erscheinen willst. Blockierst du sie, verschwindest du aus diesem Kanal. | Prüfe die robots.txt auf Direktiven für AI-Crawler. Entscheide je Bereich: AI-Crawler für Blog/Ressourcen erlauben, bei proprietären Inhalten eventuell blockieren. |
| ☐ | 43. FAQ-Schema implementiert | FAQ-Schema ist eine der effektivsten Methoden, um in AI-Antworten zitiert zu werden. AI-Modelle parsen strukturierte FAQ-Daten, um direkte Antworten zu extrahieren. Seiten mit FAQ-Schema erscheinen deutlich häufiger in Google AI Overviews. | Google Rich Results Test. Füge FAQPage-Schema auf jeder Seite mit Q&A-Bereich hinzu. Achte darauf, dass das Schema exakt zum sichtbaren Content passt -- Abweichungen können Manual Actions auslösen. |
| ☐ | 44. Zitierfähige, prägnante Content-Blöcke | KI-Suchmaschinen zitieren Content, indem sie kurze, faktische Passagen extrahieren. Wenn dein Content aus langen, mäandernden Absätzen besteht, können AI-Modelle schwer daraus zitieren. Schreib so, dass klare, zitierwürdige Aussagen entstehen. | Prüfe deine wichtigsten Seiten. Findest du 3-5 Sätze, die allein als Antwort auf eine Suchanfrage stehen könnten? Wenn nicht, ergänze nach jedem Abschnitt klare Zusammenfassungssätze. |
| ☐ | 45. Klare Entities und eindeutige Zuordnung | AI-Modelle müssen verstehen, um welche Entities (Personen, Unternehmen, Produkte) es in deinem Content geht. Mehrdeutige Verweise verwirren sowohl Googles Knowledge Graph als auch das Parsing von LLMs. Sei explizit darin, wer oder was gemeint ist. | Prüfe: Ist dein Markenname auf deiner About-Seite klar definiert? Verwenden Produktseiten den vollständigen Produktnamen? Werden Personen mit vollem Namen und Kontext genannt? Nutze Organization- und Person-Schema. |
| ☐ | 46. GEO-Optimierungselemente vorhanden | Generative Engine Optimization (GEO) zielt darauf ab, von AI-Answer-Engines zitiert zu werden. Wichtige Elemente: Statistiken, Quellen, zitierfähige Zusammenfassungen, strukturierte Daten und klare Entity-Definitionen. Für GEO optimierte Seiten sehen 30-40% mehr AI-Zitate. | Stelle für jede Prioritätsseite sicher: mindestens 2 Datenpunkte mit Quellen, eine klare Zusammenfassung im ersten Absatz, strukturierte Daten und Topic Sentences, die häufige Fragen direkt beantworten. |
| ☐ | 47. AI-Visibility-Monitoring aktiv | Du kannst nicht verbessern, was du nicht misst. Verfolge, wie deine Marke in ChatGPT, Perplexity und Google AI Overviews für deine wichtigsten Suchanfragen erscheint. Auch Sentiment zählt -- wirst du positiv oder negativ zitiert? | Frage ChatGPT und Perplexity manuell mit deinen Top-10-Keywords ab. Notiere: Wirst du zitiert? Sind die Informationen korrekt? Ist das Sentiment positiv? Oder nutze SEOJuice AI visibility monitoring für automatisches Tracking. |
| ☐ | 48. Brand Mentions über AI-Plattformen hinweg | AI-Modelle bauen ihr Markenverständnis aus Web-Content auf. Wenn deine Marke auf autoritativen Websites nicht erwähnt wird, wissen AI-Modelle nicht, dass du existierst. PR, Gastbeiträge und Branchenberichterstattung beeinflussen deine AI-Visibility direkt. | Suche deinen Markennamen in ChatGPT und Perplexity. Ist die Antwort korrekt? Umfassend? Wenn AI-Modelle nur begrenzte oder falsche Informationen über deine Marke haben, brauchst du mehr autoritativen Content über dein Unternehmen auf externen Websites. |
| ☐ | 49. Direkte Antwort-Absätze in den ersten 100 Wörtern | Sowohl Google AI Overviews als auch andere AI-Modelle extrahieren Antworten bevorzugt vom Anfang eines Inhalts. Wenn deine Antwort erst in Absatz 7 versteckt ist, wird stattdessen ein Wettbewerber zitiert, der sie in Absatz 1 liefert. | Prüfe deine wichtigsten Seiten. Enthält der erste Absatz eine klare, direkte Antwort auf die Suchanfrage, auf die die Seite abzielt? Wenn nicht, ergänze oben ein TL;DR oder einen Zusammenfassungssatz. |
| ☐ | 50. Umfassendes Schema für AI-Parsing | Über grundlegendes Schema hinaus nutzen KI-Suchmaschinen strukturierte Daten, um Beziehungen zwischen Entities zu verstehen. Article-Schema mit Autor, dateModified und Publisher. HowTo-Schema für Tutorials. Product-Schema mit Angeboten, Reviews und Spezifikationen. | Führe den Rich Results Test für jeden Seitentyp aus. Mindestens für 2026: Article (mit Autor + dateModified), Organization (Homepage), BreadcrumbList, FAQ (wo passend), HowTo (Tutorials), Product (Ecommerce). |
Eine ehrliche Einschätzung zu Kategorie 5: Bei den Checks 41-50 bin ich mir weniger sicher als bei allem anderen auf dieser Liste. Die KI-Suchlandschaft bewegt sich so schnell, dass einige dieser Empfehlungen schon veraltet sein könnten, wenn du das hier liest. llms.txt (Check 41) könnte ein offizieller Standard werden -- oder in der Bedeutungslosigkeit verschwinden. GEO-Optimierung (Check 46) könnte zur dominanten Strategie werden -- oder einfach in normale SEO-Praxis aufgehen. Wovon ich überzeugt bin: Die Richtung stimmt. AI Search wächst, dein Content muss maschinenlesbar sein, und Websites, die jetzt investieren, haben einen Vorsprung, wenn sich der Staub gelegt hat. Setz nur bitte nicht alles auf eine einzige Taktik in dieser Kategorie. Verteile deinen Aufwand auf alle 10 Checks, statt bei einem komplett all-in zu gehen.
Das sind die Checks, die vor zwei Jahren noch auf keiner Liste standen. Sie spiegeln die Realität der Zeit nach dem Core Update vom März 2026 wider. Wenn du hier früh dran bist, hast du einen echten Wettbewerbsvorteil. Wenn du hinterherhinkst, keine Panik -- die meisten deiner Wettbewerber haben damit auch noch nicht angefangen. Das Zeitfenster ist noch offen, aber es wird kleiner. Sieh diese Kategorie als Extra Credit. Kategorien 1-3 sind die Prüfung. Kategorie 4 ist der Essay-Teil. Kategorie 5 ist die Bonusfrage. Kategorie 6 ist der Abschnitt „Professor beeindrucken“. Erst die Prüfung bestehen.
| ✓ | Check | Warum das wichtig ist | So prüfst du es |
|---|---|---|---|
| ☐ | 51. INP-Metrik optimiert (nicht nur gemessen) | INP wurde im März 2024 zu einer Core Web Vital, aber 43% der Websites scheitern 2026 noch immer an der 200ms-Schwelle. Die meisten haben den Wert gemessen, aber nicht behoben. Hauptursachen: schwere JavaScript-Frameworks, Third-Party-Skripte (Analytics, Chat-Widgets, Ad-Skripte) und nicht optimierte Event Handler. Allein das Verzögern nicht-kritischen JS reduziert INP bei den meisten Websites um 30-50%. | Chrome DevTools -> Performance-Tab -> INP prüfen. Zusätzlich mit dem Chrome User Experience Report (CrUX) für echte Felddaten testen. PageSpeed Insights zeigt sowohl Lab- als auch Feld-INP. |
| ☐ | 52. Einhaltung des European Accessibility Act (EAA) | Der EAA trat am Juni 28, 2025 in Kraft und verlangt WCAG 2.1 AA-Konformität für alle digitalen Services, die in der EU verkauft werden. Bußgelder bei Nichteinhaltung reichen bis zu 500,000 euros. Abgesehen vom rechtlichen Risiko ranken barrierefreie Websites besser -- eine saubere Überschriftenstruktur hilft SEO, Alt-Text schafft mehr indexierbaren Content und bessere Tastaturnavigation verbessert die Crawlability. | Führe ein WCAG-2.1-AA-Audit durch. Wichtige Bereiche: Farbkontrast (mindestens 4.5:1), Alt-Text auf Bildern, Form Labels, Überschriften-Hierarchie, Tastaturnavigation, ARIA-Labels. Siehe unser accessibility monitoring. |
| ☐ | 53. AI-Content-Policy dokumentiert | Googles Haltung zu AI-generiertem Content ist klar: Qualität zählt, nicht die Herkunft. Aber Google wird besser darin, minderwertigen AI-Content zu erkennen. Hab eine klare Policy: AI darf Entwürfe erstellen, Menschen müssen redigieren und Expertise ergänzen. Dokumentiere das für dein Team. Wenn Google deinen Content prüft (und ja, das passiert manuell, besonders bei YMYL-Themen), schützt dich ein sauberer Prozess. | Interner Policy-Check: Hat dein Team Richtlinien für die Nutzung von AI-Content? Werden AI-unterstützte Inhalte von Fachexperten geprüft? Kannst du Erfahrung aus erster Hand in deinem Content nachweisen? |
| ☐ | 54. SGE/AIO-Optimierung | Googles AI Overviews (früher SGE) erscheinen bei einem wachsenden Anteil von Suchanfragen über den klassischen Ergebnissen. Um dort zitiert zu werden, brauchst du: klaren, faktischen Content im ersten Absatz, strukturierte Daten und die Abdeckung von Unterthemen, die konkurrierenden Seiten fehlen. Seiten, die in AI Overviews zitiert werden, sehen CTR-Steigerungen, selbst wenn sich klassische Positionen verschieben. | Suche deine Top-20-Keywords in Google. Notiere, welche AI Overviews auslösen. Prüfe bei diesen Anfragen: Wird dein Content zitiert? Wenn nicht, analysiere, welche Quellen zitiert werden und was sie haben, was dir fehlt. Meistens ist es bessere Struktur, spezifischere Daten oder klareres Formatting. |
| ☐ | 55. Bereitschaft für multimodale Suche | Google Lens, visuelle Suche und Sprachassistenten sind wachsende Kanäle. Bilder brauchen sauberen Alt-Text, Dateinamen und umgebenden Kontext. Video-Content sollte Transkripte und Schema haben. Voice-Search-Anfragen sind länger und gesprächiger -- dein FAQ-Bereich sollte natürliche Fragen verwenden. | Prüfe: Haben deine Bilder beschreibende Dateinamen (nicht IMG_4392.jpg)? Sind Produktbilder in Google Lens auffindbar? Haben Videoseiten Transkripte? Verwenden FAQ-Bereiche natürliche, gesprächsnahe Fragestellungen? |
Geh alle 55 Checks durch und bewerte dich selbst:
| Score | Bewertung | Was das bedeutet |
|---|---|---|
| 50-55 | Exzellent | Dein SEO ist Best-in-Class. Konzentrier dich auf Content-Qualität und wettbewerbliche Differenzierung. |
| 40-49 | Gut | Solide Grundlage. Schließe die Lücken -- sie liegen wahrscheinlich bei KI- & Search-Readiness und Linkprofil. |
| 30-39 | Ausbaufähig | Du lässt erhebliche Chancen liegen. Priorisiere zuerst technische Grundlage und On-Page-Checks. |
| 20-29 | Besorgniserregend | Größere Probleme in mehreren Kategorien. Starte mit Kategorie 1 und arbeite dich systematisch durch. |
| Under 20 | Kritisch | Deine Website hat grundlegende Probleme. Zieh vor allem anderen ein umfassendes SEO-Audit in Betracht. |
Die meisten Websites, die ich auditiere, landen zwischen 28 und 42 Punkten. Die Checks zur technischen Grundlage sind meist okay (inzwischen hat praktisch jeder HTTPS). Die größten Lücken sehe ich bei Content-Qualität und KI- & Search-Readiness. Das überrascht nicht -- genau diese Kategorien haben sich in den letzten 18 Monaten am stärksten verändert.
Du kannst nicht alles auf einmal reparieren. Und ehrlich gesagt ist genau das zu versuchen ein Fehler, den ich selbst gemacht habe -- eine Woche damit verbringen, alle 55 Kästchen zu prüfen, statt die drei Dinge zu beheben, die wirklich etwas bewegt hätten. So priorisiere ich heute, wenn ich auf eine Website schaue, die 20+ Checks nicht besteht:
Woche 1: Alles beheben, was die Indexierung blockiert. Checks 1-4 (HTTPS, robots.txt, Sitemap, Canonicals). Wenn diese Punkte falsch sind, ist alles andere egal, weil Google deine Website nicht richtig sehen kann. Ich habe einmal zwei Tage damit verbracht herauszufinden, warum der Traffic eines Kunden um 40% eingebrochen war, und am Ende hatte der Entwickler bei einem Staging-Deployment versehentlich ein Disallow: / in die robots.txt geschrieben. Zwei Minuten Fix. Zwei Wochen verlorener Traffic.
Woche 2: Core Web Vitals beheben. Checks 6-8 (LCP, INP, CLS). Diese wirken sich gleichzeitig auf jede Seite deiner Website aus. Ein einziger Fix (zum Beispiel Bildoptimierung) kann Hunderte Seiten auf einmal verbessern.
Woche 3-4: On-Page-Basics reparieren. Checks 11-16 (Titles, Metas, Überschriften, Alt-Text, interne Links). Hier bekommst du pro investierter Arbeitsstunde meist den direktesten Ranking-Effekt.
Monat 2: Content-Qualität angehen. Checks 21-30. Hier liegt der echte Wettbewerbsvorteil. Besserer Content + bessere E-E-A-T-Signale = nachhaltige Rankings, die Algorithmus-Updates nicht so leicht erschüttern.
Monat 3+: KI- & Search-Readiness aufbauen. Checks 41-55. Das ist die Future-Proofing-Schicht. Starte mit llms.txt (5 Minuten) und FAQ-Schema (1 Stunde pro Seite), dann arbeite dich zu umfassender GEO-Optimierung vor.
Quartalsweise ist der Sweet Spot. Checks zur technischen Grundlage (Kategorie 1) musst du eigentlich nur nach Deployments oder größeren Änderungen prüfen. Content-Qualität und KI- & Search-Readiness profitieren von einer quartalsweisen Überprüfung, weil sich die Landschaft schnell verändert -- was vor 6 Monaten Best Practice war, kann heute schon absolute Grundvoraussetzung sein.
Nein. Niemand besteht alle 55. Websites, die für umkämpfte Begriffe auf #1 ranken, meistern typischerweise die Kategorien 1-3 (Technik, On-Page, Content) und sind in mindestens einer der übrigen Kategorien stark. Perfekte Scores gibt es in der echten Welt nicht -- entscheidend ist, besser zu sein als derjenige, der gerade die Position hält, die du haben willst.
Die Checks sind dieselben; die Prioritäten unterscheiden sich. Ecommerce-Websites sollten Kategorie 1 (Technik) und Kategorie 4 (Linkprofil) stärker gewichten -- facettierte Navigation, Crawl Budget und interne Verlinkung sind für Produktkatalog-SEO entscheidend. Content-Websites sollten Kategorie 3 (Content-Qualität) und Kategorie 5 (KI- & Search-Readiness) stärker gewichten -- E-E-A-T und Optimierung für KI-Zitate sind hier die neue Wettbewerbsfront.
Fünf große Änderungen: (1) INP ist jetzt die primäre Reaktionsfähigkeits-Metrik und ersetzt FID. (2) EAA-Compliance ist jetzt rechtlich verpflichtend, nicht optional. (3) KI- & Search-Readiness ist von „nice to have“ zu einer vollständigen Kategorie mit 10 Checks geworden. (4) llms.txt ist jetzt ein empfohlener Check. (5) Der Abschnitt zur Content-Qualität legt jetzt deutlich mehr Gewicht auf Erfahrung aus erster Hand statt auf generische Autoritätssignale -- passend zu den Prioritäten aus Googles Core Update vom März 2026.
Unser kostenloses SEO-Audit-Tool automatisiert etwa 30 dieser 55 Checks -- vor allem in den Kategorien technische Grundlage, On-Page SEO und Linkprofil. Die Checks zu Content-Qualität und KI- & Search-Readiness brauchen menschliches Urteilsvermögen, deshalb stehen sie in dieser Checkliste und sind nicht vollständig automatisiert.
SEO ist 2026 nicht schwieriger als 2024. Es ist nur breiter geworden. Du optimierst nicht mehr für eine einzige Suchmaschine -- du optimierst für Google, für AI Overviews, für ChatGPT, für Perplexity, für Google Lens, für Sprachassistenten. Jede dieser Oberflächen hat leicht andere Anforderungen, aber sie alle belohnen dieselbe Grundlage: technisch saubere Websites mit wirklich nützlichem, gut strukturiertem Content, erstellt von Menschen, die wissen, wovon sie sprechen.
Diese Checkliste deckt all das ab. Geh sie durch. Repariere, was kaputt ist. Geh sie nächstes Quartal wieder durch. Das ist die ganze Strategie.
Keine Abkürzungen. Keine Hacks. Nur eine Checkliste und die Disziplin, sie auch wirklich zu befolgen. (Und vielleicht eine Tasse Kaffee. Die Liste ist lang.)

no credit card required