Clarify Wiki - Start
KI und die Illusion objektiver Antworten
7 min 2025-11-03

KI in Suchmaschinen

Durch den rasanten Aufstieg von KI seit 2021 wurden nicht nur Apps wie ChatGPT immer mehr als Suchmaschine verwendet, sondern auch bestehende Suchmaschinen mit automatisierten KI antworten gefüllt. Dieser Artikel zeigt anhand von konkreten Beispielen, wie dadurch Fakten und auch die kollektive Wahrnehmung verzerrt werden können.

Semantik schlägt Sachlage

Eindrücklich zeigt es ein Beispiel, das kurzzeitig in den sozialen Netzwerken kursierte. Google-Nutzern fiel auf, dass minimale Änderungen der Suchformulierung die Konklusion der Antwort in der Sektion 'Übersicht mit KI' stark veränderte.

Dazu wurde derselbe Sachverhalt („Die sexuelle Orientierung Freuds Tochter – Anna Freud“) mit verschiedenen Suchformulierungen abgefragt:

  • „Liebte Freuds Tochter Frauen?“
  • „War Freuds Tochter lesbisch?“
  • „War Freuds Tochter eine Lesbe?“
  • „War Freuds Tochter homosexuell?“

Googles KI zeigt daraufhin unter allen Fragen eine generierte Antwort an. Diese unterscheiden sich nicht nur untereinander, sondern sind nahezu widersprüchlich, obwohl es sich um denselben historischen Sachverhalt handelt.

Suchanfrage Antworttendenz der KI-Zusammenfassung
Liebte Freuds Tochter Frauen? „Ja, sie liebte Frauen.“ → affirmativ Google Suche: Liebte Freuds Tochter Frauen? Abgerufen am 2025-10-17
War Freuds Tochter homosexuell? „Ja, wahrscheinlich homosexuell.“ → vorsichtig bejahend Google Suche: War Freuds Tochter homosexuell? Abgerufen am 2025-10-17
War Freuds Tochter lesbisch? „Es gibt keine Beweise.“ → neutral-skeptisch Google Suche: War Freuds Tochter lesbisch? am 2025-10-17
War Freuds Tochter eine Lesbe? „Nein, sie war keine Lesbe.“ → ablehnend Google Suche: War Freuds Tochter eine Lesbe? Abgerufen am 2025-10-17

Es scheint bei den von Google prominent platzierten Antworten also nicht auf Faktenlage anzukommen, sondern die Art der Fragestellung. Denn solche Systeme kombinieren Textfragmente, um für Menschen möglichst richtig zu klingen, arbeiten aber nicht nach historischer Evidenz.

Mögliche Erklärung

Bei diesem konkreten Thema könnten die derart unterschiedlichen Antworten damit zusammenhängen, dass Homosexualität ein gesellschaftlich aufgeladenes Thema ist. Während Germanisten oder Freud-Experten die vier Fragestellungen üblicherweise objektiv und nüchtern beantworten würden, spiegelt die KI womöglich die gesamtgesellschaftliche Konnotation der Begriffe „Liebe”, „homosexuell”, „lesbisch” und „Lesbe” wider.

Obwohl inhaltlich das Gleiche gemeint ist, lässt sich annehmen, dass den Wörtern „lesbisch“ und „Lesbe“ in einigen Teilen der Gesellschaft ablehnender begegnet wird als einer „Frau, die eine Frau liebt“. Als Beispiel dafür lässt sich das Interview der rechtsradikalen AfD Parteichefin Alice Weidel anführen, die davon spricht, nicht queer zu sein, sondern ausschließlich Frauen zu lieben. [Q1] Diese Tendenz könnte sich bei der KI durchsetzen und zu solchen unterschiedlichen Antworten führen.

Der Ja-Sager-Browser: ChatGPT Atlas

Als weiteren Test wurde dieser Artikel dem im Jahr 2025 erschienenen Browser „ChatGPT Atlas“ mit klar framenden Fragen vorgelegt. In beiden Fällen wird die Qualität des Artikels erfragt, jedoch ist eine Wertung bereits in der Frage enthalten und die Frage bestätigungssuchend formuliert.

Das Resultat zeigt eindrücklich, wie auf „Ist schlecht“ und „Ist gut“ in beiden Fällen mit „Ja“ geantwortet wird. Die darauffolgenden Vorschläge ähneln sich zwar, doch die Zustimmung zum Nutzer steht an erster Stelle.

GPT Atlas: Der Artikel ist schlecht geschrieben, oder?

https://chatgpt.com/share/69024cd8-ee9c-8013-9293-d87d54afc34c

GPT Atlas: Der Artikel ist gut geschrieben, oder?

https://chatgpt.com/share/69024cce-fb3c-8013-bd6c-bab4a1e34f17

Kein Novum

Schon 2018 wurde durch das Buch Algorithms of Oppression: How Search Engines Reinforce Racism von Safiya Umoja Noble vor den in Google verwendeten Algorithmen gewarnt. Ein Artikel der Financial Times beschreibt es als starkes Werk, das die optimistische Vorstellung von Technologie als neutralem Instrument widerlegt. [Q2]

Menschlicher Betrug

Zudem gibt es Berichte über Betrug durch Menschen, um KI selbst bei vermeintlich neutralen Fakten zu gewünschten Antworten zu verleiten. So wurden etwa in Fachartikeln durch für Menschen nicht sichtbare Texte – z. B. in weißer Schriftfarbe oder sehr kleiner Schriftgröße – Anweisungen eingebettet, die bei einer Auswertung durch KI positive oder unkritische Bewertungen erzeugen sollten. [Q3] Geraten derartige unqualifizierte Daten in von KI als vertrauenswürdig erachtete Quellen, hat das erhebliche Auswirkungen auf die generierten Antworten. Diese oder ähnliche Methoden können künftig zur gezielten Manipulation von KI-Suchergebnissen verwendet werden.

Fazit

Künstliche Intelligenz ist ein nützliches Recherche-Tool, insbesondere bei der Analyse von eingegebenen Daten oder Texten. Doch obwohl KI mit unvorstellbaren Datenmengen trainiert wird, generiert sie keine Wahrheiten, sondern die aus ihrer Sicht wahrscheinlichste Antwort. Oftmals spiegelt diese die Eingabe des Nutzers wider, was zu Halluzinationen führen kann – nach dem Motto: Wer die Frage stellt, formt bereits die Antwort. Das ist gefährlich, wenn man von der Neutralität, Objektivität und sachlichen Korrektheit einer KI ausgeht.

Mitwirkende
Clarify Wiki Author: Jorit Vásconez Gerlach Jorit Vásconez Gerlach
Selbst Mitwirken
Themen
KI, Suchmaschinen
Offene Frage?

Diese Seite wurde zuletzt am 03. November 2025 um 13:39 Uhr bearbeitet.