KI in Suchmaschinen
Durch den rasanten Aufstieg von KI seit 2021 wurden nicht nur Apps wie ChatGPT immer mehr als Suchmaschine verwendet, sondern auch bestehende Suchmaschinen mit automatisierten KI antworten gefüllt. Dieser Artikel zeigt anhand von konkreten Beispielen, wie dadurch Fakten und auch die kollektive Wahrnehmung verzerrt werden können.
Semantik schlägt Sachlage
Eindrücklich zeigt es ein Beispiel, das kurzzeitig in den sozialen Netzwerken kursierte. Google-Nutzern fiel auf, dass minimale Änderungen der Suchformulierung die Konklusion der Antwort in der Sektion 'Übersicht mit KI' stark veränderte.
Dazu wurde derselbe Sachverhalt („Die sexuelle Orientierung Freuds Tochter – Anna Freud“) mit verschiedenen Suchformulierungen abgefragt:
- „Liebte Freuds Tochter Frauen?“
- „War Freuds Tochter lesbisch?“
- „War Freuds Tochter eine Lesbe?“
- „War Freuds Tochter homosexuell?“
Googles KI zeigt daraufhin unter allen Fragen eine generierte Antwort an. Diese unterscheiden sich nicht nur untereinander, sondern sind nahezu widersprüchlich, obwohl es sich um denselben historischen Sachverhalt handelt.
| Suchanfrage | Antworttendenz der KI-Zusammenfassung | |
|---|---|---|
| Liebte Freuds Tochter Frauen? | „Ja, sie liebte Frauen.“ → affirmativ | |
| War Freuds Tochter homosexuell? | „Ja, wahrscheinlich homosexuell.“ → vorsichtig bejahend | |
| War Freuds Tochter lesbisch? | „Es gibt keine Beweise.“ → neutral-skeptisch | |
| War Freuds Tochter eine Lesbe? | „Nein, sie war keine Lesbe.“ → ablehnend |
Es scheint bei den von Google prominent platzierten Antworten also nicht auf Faktenlage anzukommen, sondern die Art der Fragestellung. Denn solche Systeme kombinieren Textfragmente, um für Menschen möglichst richtig zu klingen, arbeiten aber nicht nach historischer Evidenz.
Mögliche Erklärung
Bei diesem konkreten Thema könnten die derart unterschiedlichen Antworten damit zusammenhängen, dass Homosexualität ein gesellschaftlich aufgeladenes Thema ist. Während Germanisten oder Freud-Experten die vier Fragestellungen üblicherweise objektiv und nüchtern beantworten würden, spiegelt die KI womöglich die gesamtgesellschaftliche Konnotation der Begriffe „Liebe”, „homosexuell”, „lesbisch” und „Lesbe” wider.
Obwohl inhaltlich das Gleiche gemeint ist, lässt sich annehmen, dass den Wörtern „lesbisch“ und „Lesbe“ in einigen Teilen der Gesellschaft ablehnender begegnet wird als einer „Frau, die eine Frau liebt“. Als Beispiel dafür lässt sich das Interview der rechtsradikalen AfD Parteichefin Alice Weidel anführen, die davon spricht, nicht queer zu sein, sondern ausschließlich Frauen zu lieben. [Q1] Diese Tendenz könnte sich bei der KI durchsetzen und zu solchen unterschiedlichen Antworten führen.
Der Ja-Sager-Browser: ChatGPT Atlas
Als weiteren Test wurde dieser Artikel dem im Jahr 2025 erschienenen Browser „ChatGPT Atlas“ mit klar framenden Fragen vorgelegt. In beiden Fällen wird die Qualität des Artikels erfragt, jedoch ist eine Wertung bereits in der Frage enthalten und die Frage bestätigungssuchend formuliert.
Das Resultat zeigt eindrücklich, wie auf „Ist schlecht“ und „Ist gut“ in beiden Fällen mit „Ja“ geantwortet wird. Die darauffolgenden Vorschläge ähneln sich zwar, doch die Zustimmung zum Nutzer steht an erster Stelle.
https://chatgpt.com/share/69024cd8-ee9c-8013-9293-d87d54afc34c
https://chatgpt.com/share/69024cce-fb3c-8013-bd6c-bab4a1e34f17
Kein Novum
Schon 2018 wurde durch das Buch Algorithms of Oppression: How Search Engines Reinforce Racism von Safiya Umoja Noble vor den in Google verwendeten Algorithmen gewarnt. Ein Artikel der Financial Times beschreibt es als starkes Werk, das die optimistische Vorstellung von Technologie als neutralem Instrument widerlegt. [Q2]
Menschlicher Betrug
Zudem gibt es Berichte über Betrug durch Menschen, um KI selbst bei vermeintlich neutralen Fakten zu gewünschten Antworten zu verleiten. So wurden etwa in Fachartikeln durch für Menschen nicht sichtbare Texte – z. B. in weißer Schriftfarbe oder sehr kleiner Schriftgröße – Anweisungen eingebettet, die bei einer Auswertung durch KI positive oder unkritische Bewertungen erzeugen sollten. [Q3] Geraten derartige unqualifizierte Daten in von KI als vertrauenswürdig erachtete Quellen, hat das erhebliche Auswirkungen auf die generierten Antworten. Diese oder ähnliche Methoden können künftig zur gezielten Manipulation von KI-Suchergebnissen verwendet werden.
Fazit
Künstliche Intelligenz ist ein nützliches Recherche-Tool, insbesondere bei der Analyse von eingegebenen Daten oder Texten. Doch obwohl KI mit unvorstellbaren Datenmengen trainiert wird, generiert sie keine Wahrheiten, sondern die aus ihrer Sicht wahrscheinlichste Antwort. Oftmals spiegelt diese die Eingabe des Nutzers wider, was zu Halluzinationen führen kann – nach dem Motto: Wer die Frage stellt, formt bereits die Antwort. Das ist gefährlich, wenn man von der Neutralität, Objektivität und sachlichen Korrektheit einer KI ausgeht.
Jorit Vásconez Gerlach