Dieses "generative" Suchmodell komprimiert die Recherche in eine kleine Konversation – und verschiebt die Machtbalance im Netz. Wie relevant sind eigene Websites in dieser neuen Welt? Wie wählt KI ihre Quellen, und welche Strategien helfen, weiterhin sichtbar zu bleiben? Der folgende Artikel ordnet aktuelle Studienergebnisse ein und gibt praxisnahe Hinweise.
Einleitung
Künstliche Intelligenz verändert gerade die Internet‑Recherche: Statt einer Link‑Liste liefern Chatbots wie ChatGPT oder Googles AI‑Overviews zunehmend direkte Antworten. Dieses "generative" Suchmodell komprimiert die Recherche in eine kleine Konversation – und verschiebt die Machtbalance im Netz. Wie relevant sind eigene Websites in dieser neuen Welt? Wie wählt KI ihre Quellen, und welche Strategien helfen, weiterhin sichtbar zu bleiben? Der folgende Artikel ordnet aktuelle Studienergebnisse ein und gibt praxisnahe Hinweise.
Wie sich die Suche verändert
Die Nutzung von KI‑Suchsystemen ist seit 2024 rasant gestiegen. Prognosen des Marketing‑Dienstleisters Semrush zufolge könnten KI‑basierte Suchanfragen klassische Suchmaschinen bis 2028 überholen[1]. OpenAIs ChatGPT erreicht im April 2025 bereits 800 Millionen wöchentliche Nutzer[2]. Googles „AI Overviews“ erscheinen laut Analysen des SEO‑Unternehmens GSEO bei etwa 16 Prozent der Desktop‑Suchanfragen[3].
Dieses Format verändert das Nutzerverhalten: Wer eine generative Antwort erhält, klickt seltener auf externe Links. Eine Studie von Sparktoro ergab, dass nur 8 Prozent der Nutzer auf Links klicken, wenn eine AI‑Übersicht angezeigt wird; ohne dieses Feature klicken 15 Prozent[4]. Der Traffic auf klassischen Webseiten sinkt in solchen Szenarien um 15–25 Prozent[4]. Paradoxerweise sind die wenigen Besucher, die über KI‑Suche kommen, oft hochwertiger: Sie haben laut Semrush eine 4,4‑fach höhere Conversion‑Wahrscheinlichkeit als Suchende, die über traditionelle Ergebnisse kommen, weil sie gezielt nach Bestätigungen suchen[5].
Welche Quellen KI bevorzugt
Die Auswahl der Informationsquellen unterscheidet sich je nach Plattform. Die Analyseplattform Profound untersuchte 1,75 Millionen Zitate in AI‑Antworten und fand deutliche Muster:
ChatGPT zitiert Wikipedia am häufigsten (7,8 Prozent aller Quellen)[6]. Insgesamt stammen 80 Prozent der ChatGPT‑Quellen von .com‑Domains, 11 Prozent von .org[7]. Business‑ und Service‑Webseiten machen etwa die Hälfte der verlinkten Seiten aus[8].
Google AI Overviews greifen am stärksten auf Reddit zurück (2,2 Prozent aller Zitate), gefolgt von Wikipedia und Quora[9].
Perplexity.ai ist stark communitygetrieben: 6,6 Prozent seiner Zitate stammen von Reddit[10].
Überraschend: Viele genannte Quellen tauchen in der klassischen Google‑Top‑20 nicht auf. Semrush fand, dass ChatGPT häufig Seiten zitiert, die in den Google‑Suchergebnissen unter den ersten 20 Platzierungen liegen[11]. In einigen Fällen werden sogar Seiten auf den Plätzen 30–90 herangezogen[12]. Qualität und E‑E‑A‑T (Experience, Expertise, Authoritativeness, Trust) scheinen für KI wichtiger zu sein als der reine Google‑Rang.
Die Front der Verweigerer
Nicht alle Website‑Betreiber wollen, dass ihre Inhalte für KI zugänglich sind. Laut Reuters Institute blockieren 48 Prozent der großen Nachrichtenportale den Crawler von OpenAI und 24 Prozent den von Google AI[13]. Besonders in den USA liegt die Blockquote für OpenAI bei 79 Prozent, während in Mexiko und Polen nur 20 Prozent der Verlage blocken[13]. Daten von Arc XP bestätigen diesen Trend: Fast die Hälfte der Nachrichtenanbieter blockiert GPTBot, und die Klickrate aus KI‑Chatbots beträgt lächerliche 0,33 Prozent[14] – verglichen mit 8,6 Prozent in normalen Google‑Ergebnissen[14]. Hier zeigt sich der Spagat: Wer blockiert, schützt sich vor unbefugter Nutzung, verliert aber auch mögliche Sichtbarkeit.
Was das für Websites bedeutet
Positive Perspektive: Qualifizierter Traffic
Obwohl der generative Suchverkehr kleiner ist, ist sein Wert hoch: Die Nutzer sind informiert, haben oft ein klares Interesse und sind bereit zur Handlung[5]. Für Website‑Betreiber kann es deshalb lohnend sein, strategisch in AI‑Sichtbarkeit zu investieren.
Negative Perspektive: Weniger Klicks, unsichere Attribution
Die abnehmenden Klickzahlen verringern die direkten Besucherzahlen[4]. Zudem ist unklar, wie die Nutzer mit generativen Antworten interagieren: Manche lesen nur die Zusammenfassung, andere klicken, einige wechseln in den Chat. Das erschwert die Analyse und Attribution.
Quellenmix und E‑E‑A‑T schlagen Rankings
Die KI‑Modelle heben nicht nur Top‑Rankings hervor, sondern bedienen sich breiter. Websites mit hoher Glaubwürdigkeit und strukturierter Information werden bevorzugt, selbst wenn ihr SEO‑Rang mäßig ist[11]. Das Ergebnis: Auch kleine Expertenseiten haben Chancen, wenn sie den Suchintent präzise bedienen.
Wie man für die KI‑Suche optimiert
Die Branche spricht mittlerweile von AEO (Answer Engine Optimisation), Generative Engine Optimisation (GEO) oder LLM SEO. Hinter diesen Schlagworten steckt der Versuch, Inhalte so aufzubereiten, dass KI‑Modelle sie als relevante Quellen heranziehen. Wichtige Empfehlungen aus dem Bericht:
Konkrete Fragen beantworten: Inhalte sollten als Frage‑Antwort‑Paar aufbereitet werden (z. B. "Wie trainiere ich Achtsamkeit?"), damit generative Modelle sie leicht extrahieren können. Tabellen und Listen eignen sich ebenso.
Strukturierte Daten nutzen: Schema.org‑Markups und klare Überschriften helfen Crawlern, Informationen zu verstehen.
Primärquellen & Zitate einbinden: KI‑Modelle bevorzugen verlässliche Quellen mit klarer Quellenangabe; Fußnoten und Zitate erhöhen die Glaubwürdigkeit.
Inhalt regelmäßig aktualisieren: Aktuelle Daten und News erhöhen die Wahrscheinlichkeit, als Quelle ausgewählt zu werden, da viele Modelle einen Aktualitätsfilter nutzen.
E‑E‑A‑T stärken: Expertenprofile, Referenzen, transparente Autoreninformationen und seriöse Quellenhinweise schaffen Vertrauen.
Technische Accessibility gewährleisten: Inhalte sollten serverseitig gerendert, per HTML zugänglich und mobil optimiert sein; PDF‑Sperren oder komplizierte JavaScript‑Lösungen sind hinderlich.
Community‑Kanäle nutzen: Beiträge in Foren wie Quora und Reddit und Fachbeiträge in LinkedIn oder Fachmedien erhöhen die Wahrscheinlichkeit, dass das eigene Wissen indirekt von KI zitiert wird[15].
Vielfalt bleibt Trumpf
Die KI‑Suche revolutioniert das Informationsökosystem, doch Websites bleiben zentrale Anlaufstellen. Ihr Einfluss verschiebt sich zwar: Statt massenhaft Klicks bringen sie weniger, dafür aber qualitativere Besucher[5]. Gleichzeitig weitet die KI ihren Quellenmix aus und zitiert selbst Nischenangebote[11]. Für Seitenbetreiber heißt das: Inhaltliche Qualität, klare Struktur und Authentizität sind wichtiger denn je. Wer barrierefreie, gut recherchierte Inhalte bietet und sich auch außerhalb der eigenen Seite – auf Foren und Fachportalen – engagiert, hat die besten Chancen, in der KI‑Recherche sichtbar zu bleiben.
[1] [2] [5] [8] [11] [12] We Studied the Impact of AI Search on SEO Traffic | Our Findings
https://www.semrush.com/blog/ai-search-seo-traffic-study/
[3] Answer Engine Optimization (AEO): Your Complete Guide to AI Search Visibility | Amsive
[4] Is SEO Dead in 2025? How AIO, AEO & GEO Are Rewriting the Playbook
[6] [7] [9] [10] [15] AI Platform Citation Patterns: How ChatGPT, Google AI Overviews, and Perplexity Source Information
https://www.tryprofound.com/blog/ai-platform-citation-patterns
[13] How many news websites block AI crawlers? | Reuters Institute for the Study of Journalism
https://reutersinstitute.politics.ox.ac.uk/how-many-news-websites-block-ai-crawlers
[14] How AI Bots Crawl News Content: A Look at AI Trends and the Media Industry’s Response | Arc XP
Let’s keep in touch.
Discover more about high-performance web design. Follow us on Twitter and Instagram.

