Ziel war stets ein möglichst hoher Rangplatz bei Google – dem Goldstandard für Aufmerksamkeit im Web.
Mit ChatGPT hat sich dieser Wettlauf grundlegend verändert. Eine der größten Stärken textbasierter KI liegt darin, enorme Informationsmengen sinnvoll zu ordnen und zu strukturieren. Aus Nutzungsdaten wissen wir inzwischen, dass viele Menschen Inhalte nicht mehr über Google suchen, sondern direkt mit KI. Egal ob Kochrezepte, Öffnungszeiten einer Kita oder Formulare der Künstlersozialkasse – KI hat sich als paralleles Recherchesystem etabliert.
Das bedroht Googles Geschäftsmodell, das jahrzehntelang darauf beruhte, die obersten Rangplätze als Werbeflächen zu verkaufen. Google hat verstanden, dass KI ein eigenes Informations-Universum geschaffen hat, und bietet deshalb einen KI-Modus an, der ohne „gesponserte Ergebnisse“ – wie Google seine Anzeigen gern nennt – auskommt.
Der klassische Google-Rank verliert damit an Bedeutung. Die Faktoren, aus denen er sich zusammensetzt, bleiben aber relevant. Dazu gehören:
- Aktualität
- Domain-Autorität – vor allem durch Backlinks
- Expertise (Experience – Expertise – Authoritativeness – Trustworthiness)
- klar strukturierte Inhalte – logische interne Baumstruktur
- Linkmuster – das Netzwerk einer Domain, inklusive sinnvoller interner Verknüpfungen
- Nutzersignale – Absprungrate, Verweildauer, CTR
- offizielle Quellen – eine echte Chance für Behörden, verlässliche Informationen gegen Fake News zu setzen
- technische Qualitätsfaktoren – Ladezeit, mobile Optimierung, Barrierefreiheit
Der zentrale Unterschied liegt in der Präsentation der Ergebnisse. Google listet Seiten auf, die seinen rund hundert Qualitätskriterien entsprechen. KI hingegen extrahiert Inhalte aus mehreren Quellen zum Thema und mischt sie zu einer Antwort.
Damit haben auch qualitativ gute, aber kleine Informationsanbieter heute deutlich bessere Chancen, von KI-Systemen wahrgenommen zu werden – statt wie früher im hinteren Bereich der Google-Suchergebnisse zu verschwinden.
Ist das das Ende von SEO? Im Gegenteil. Es bedeutet, dass endlich auch kleinere Anbieter mit inhaltlich und technisch sauber aufbereiteten Informationen echte Sichtbarkeit erreichen können. Für Behörden – insbesondere auf kommunaler Ebene – heißt das: Sie müssen Informationsmehrwert bieten. Also Inhalte aktuell halten, Ansprechpartner nennen, Themenfelder sauber trennen und die typischen Fallen vermeiden: PDF-Wüsten, 404-Fehler, Dubletten.
Wäre es angesichts der Fähigkeiten moderner KI nicht verlockend, einfach Tausende von Dokumenten auf einem Server abzulegen und die KI sortieren zu lassen? Also automatisch zu strukturieren, Zusammenhänge zu erkennen und Abstracts zu erzeugen?
Diese Frage ist letztlich nur rhetorisch, denn ein solcher Ansatz würde unweigerlich zum Informationschaos führen: veraltete Formulare, mehrere Versionen von Richtlinien, unklare Zuständigkeiten. Behörden sind zudem nach der BITV 2.0 verpflichtet, ihre Informationen barrierefrei, verständlich, strukturiert und maschinenlesbar bereitzustellen.
Alles Beschriebene ist eine Momentaufnahme. KI wird in absehbarer Zeit in der Lage sein, Informationen für unterschiedliche Zielgruppen rechtskonform aufzubereiten. Um hier das Heft in der Hand zu behalten und nicht der Interpretation durch KI ausgeliefert zu sein, sollten gerade öffentliche Einrichtungen weiterhin konsequent nach den Grundlagen der BITV 2.0 und einer klaren Nutzerführung arbeiten.