Digitalisierung & Technologie, 4. Juli 2025

Wie LLMs das Suchverhalten verändern – und was das für Versicherer bedeutet

Neues Whitepaper: Einblicke von Luisa Schmolke, ERGO Innovation Lab

Wie LLMs das Suchverhalten verändern

Die Art und Weise, wie Menschen online nach Informationen suchen, verändert sich derzeit radikal. Wo früher Trefferlisten dominierten (z.B. bei der klassischen Google-Suche), erwarten Nutzer heute verständliche, präzise und kontextbezogene Antworten. Möglich machen das große Sprachmodelle (Large Language Models, LLMs) wie ChatGPT, Perplexity oder Gemini. Sie liefern nicht mehr bloß Links, sondern direkte, sprachlich aus-geformte Reaktionen, die Absicht, Kontext und Folgefragen berücksichtigen. Für Unternehmen verändert sich, wie digitale Sichtbarkeit entsteht. Ein Text von Luisa Schmolke, ERGO Innovation Lab, zum neuen Whitepaper zu KI-gestützter Online-Suche.

Klassische Suchmaschinen wie Google basieren im Kern auf der Auswertung von Schlüsselwörtern, Backlinks und strukturellen Ranking-Signalen. Diese Mechanismen haben sich über Jahre bewährt und liefern weiterhin zuverlässige, umfassende Ergebnisse, insbesondere dann, wenn Nutzer wissen, wonach sie suchen. LLM-basierte Systeme wie ChatGPT, Perplexity oder Gemini hingegen verfolgen einen anderen Ansatz: Sie analysieren den semantischen Gehalt einer Anfrage, erkennen Bedeutungszusammenhänge und generieren daraus sprachlich formulierte Antworten. Anstelle einer Liste von Treffern entsteht eine direkte Reaktion, die kontextbezogen, dialogfähig und auf die Intention der Anfrage zugeschnitten ist. Diese Architektur verändert nicht nur die Nutzererwartung, sondern auch die Anforderungen an Inhalte und deren Sichtbarkeit im digitalen Raum.

Gerade in der Versicherungsbranche spielt Informationszugänglichkeit eine zentrale Rolle. Produkte sind erklärungsbedürftig, Vertrauen elementar. LLMs bieten in diesem Umfeld klare Vorteile: Wer nach „beste Reiseversicherung für Familien mit Kleinkindern“ sucht, erhält eine kontextbezogene Antwort, abgestimmt auf typische Bedürfnisse wie Auslandsschutz oder Familienleistungen. Der Wechsel von Suchanfrage zu Dialog ist dabei nicht nur komfortabler, sondern effizienter: Nutzer können Rückfragen stellen, Tarife vergleichen, Inhalte vertiefen, ohne Medienbruch. Gleichzeitig sinkt die Einstiegshürde. Juristische Fachbegriffe können erklärt und in alltagsnahe Sprache überführt werden.

Diese neuen Möglichkeiten führen zu neuen Anforderungen. Das ERGO Innovation Lab hat gemeinsam mit Ecodynamics eine Studie durchgeführt, die vier zentrale Hypothesen bestätigt:

  1. Inhalte müssen maschinen-lesbar und technisch zugänglich sein: Seiten, die sauber strukturiert, responsiv und schnell sind, werden von LLMs verlässlich erkannt und verarbeitet.
  2. Semantische Kohärenz ist entscheidend: Inhalte, die logisch verlinkt, thematisch konsistent und strukturell durchdacht sind, haben eine höhere Wahrscheinlichkeit, referenziert zu werden.
  3. Die Quelle zählt: Sprachmodelle bevorzugen Inhalte mit klarer Autorschaft, vertrauenswürdiger Herkunft und überprüfbarer Evidenz.
  4. Die Formatlogik spielt eine Rolle: Inhalte, die dialogisch aufgebaut sind, etwa als Frage-Antwort-Blöcke, modularer Ratgeber oder Entscheidungsbaum passen besser zur Struktur von LLMs, die auf genau solchen Datensätzen trainiert sind.

Besonders deutlich wird die Relevanz dieser Faktoren beim Vergleich verschiedener Anbieter. In offenen LLM-Suchanfragen, also ohne konkrete Markenbindung, lag der Sichtbarkeitsanteil von Broker-Plattformen bei rund 36 Prozent. Klassische Versicherer kamen auf lediglich 17 Prozent. Nicht weil ihre Inhalte schlechter wären, sondern weil ihre Inhalte weniger klar strukturiert und dadurch schwieriger für LLMs interpretierbar sind. Broker arbeiten häufig mit klarer Sprache, modularen Vergleichsformaten und strukturierten Entscheidungsbäumen – also genau den Formaten, die LLMs besonders effizient verarbeiten. Viele Versicherer setzen auf inhaltlich starke, markenzentrierte Formate. Um diese auch in LLM-Systemen sichtbar zu machen, braucht es ergänzende Strukturen, die semantisch klarer referenzierbar sind.

Hinzu kommt: Nicht alle LLM-Plattformen funktionieren gleich. ChatGPT und You.com liefern besonders viele Ergebnisse, zeigen aber auch eine höhere Halluzinationsrate (bei ChatGPT etwa 9,7 Prozent). Perplexity und Gemini setzen stärker auf redaktionelle Filterung und bevorzugen Inhalte mit hohem Vertrauensindex. Einheitliche Optimierungsstrategien greifen hier nicht. Sichtbarkeit muss künftig plattform- und produkt-spezifisch gedacht werden, von der Indexierungslogik bis zum API (Application Programming Interface). APIs ermöglichen es, strukturierte und aktuelle Inhalte gezielt bereitzustellen, was deren Auffindbarkeit und Nutzbarkeit durch LLMs verbessert. Inhalte ohne API-Anbindung oder mit schlechter Struktur sind schwerer zugänglich und haben eine geringere Wahrscheinlichkeit, bei LLM-Suchanfragen berücksichtigt zu werden.

Handlungsfelder für Unternehmen

Für Unternehmen ergeben sich daraus klare Handlungsfelder. Technische Grundlage ist eine semantisch saubere, mobile-optimierte und maschinenlesbare Content-Architektur. Inhalte sollten modularisiert, dialogfähig und wiederverwendbar sein, nicht nur für Menschen, sondern für Maschinen. Plattformen wie Perplexity experimentieren bereits mit integrierten Werbeformaten und kuratierten Antwortquellen.

Und der nächste Paradigmenwechsel steht bereits bevor: LLM-basierte Systeme handeln als digitale Agenten. Das bedeutet, sie liefern nicht nur Informationen, sondern führen Handlungen aus. Wer nicht maschinen-lesbar integrierbar ist, wird in diesen Interaktionen schlicht nicht vorkommen. APIs und strukturierte Schnittstellen werden damit zu strategischen Assets.

Fazit

Das Fazit dieser Entwicklung ist eindeutig: Digitale Sichtbarkeit ist kein passives Ergebnis mehr, sondern eine Frage von Struktur, Klarheit und Vertrauen. Wer weiterhin nur nach den Prinzipien klassischer SEO optimiert, wird in der KI-basierten Suche an Relevanz verlieren. Wer heute beginnt, Inhalte LLM-kompatibel zu denken, investiert nicht nur in Sichtbarkeit, sondern in die Anschlussfähigkeit an eine Suchlogik, die gerade neu geschrieben wird.

Text: Luisa Schmolke

Luisa Schmolke, ERGO Innovation Lab

Ihre Meinung
Wenn Sie uns Ihre Meinung zu diesem Beitrag mitteilen möchten, senden Sie uns bitte eine E-Mail an: radar@ergo.de


Weitere Magazin-Beiträge