Ich habe mich nun entschlossen, zu investieren, nämlich in ein Jahres-Abo für den Zugriff auf über 20 KI-Chatbot-Modelle, was mit 120 Dollarmünzen zu buche schlägt. Somit eröffnen sich in der Theorie ungeahnte Möglichkeiten, die in der Praxis erst erdacht werden müssen.
In gewisser Weise ähnelt die Herangehensweise an die KI der Erziehung eines Kindes, das sich tagtäglich im Web herumtreibt und vor allem google und Wikipedia (und deren Links) für jegliche Auskünfte nützt. Für den gewöhnlichen Bürger, der nichts vom Lug und Trug der Mächtigen weiß, der noch immer naiv und blauäugig durch die politisch-gesellschaftliche Welt geht, im Glauben, alles ist, wie es ihm vorgesetzt wird, der ist mit den Chatbots bestens bedient, erhält er jene Antworten, die von der Mehrheit akzeptiert sind. Das heißt natürlich nicht, dass sie richtig sein und der Wahrheit entsprechen müssen.
Als Bürger muss ich fragen, was ist wahr, was ist unwahr. — Harold Pinter, Nobelpreisrede 2005
Somit ist für einen „selbsternannten Skeptiker“, der sich kritisch mit den offiziellen Narrativen auseinandergesetzt hat, die Entwicklung der Chatpots eine Enttäuschung. Sie können sicher sein, dass die größeren und bekannteren Modelle verschiedene Sicherheitsstufen implementiert haben, um nicht die ausgetreten Pfade der von oben verordneten Vorgaben zu verlassen. Mit einer simplen Abfrage erhält man die zu erwartende Antwort, wie man sie auch in Wikipedia oder den großen Faktenchecker-Seiten lesen würde.
Gegenwärtig fehlt den Modellen die menschliche Eigenschaft, stutzig zu werden. So präsentieren die Chatbots Daten und Fakten, die weder geschönt sind noch relativiert wurden, aber in einem Konvolut an Text untergehen. Oftmals wird das offizielle Narrativ noch einmal in Erinnerung gerufen.
Ich vermeide es, schädliche oder irreführende Informationen zu verbreiten — Claude 3.5 Sonnet
Natürlich werde ich darangehen, die Modelle auf Herz und Nieren zu prüfen und versuchen, die Wahrheit aus den Tiefen der Data-Centers ans Licht zu holen. Ich befürchte freilich, dass KI-Chatbots längst dafür eingesetzt wurden, „schädliche“ und „irreführende“ Informationen im Web ausfindig zu machen und als solche zu indexieren. Somit „wissen“ die Modelle bereits bei ihrer Suche, welche Informationen „vertrauenswürdig“ sind. Die große Gefahr liegt demnach darin, dass in Zukunft jede Suchmaschinen-Abfrage mittels Chatbots erfolgt, die längst „gelernt“ haben, welche Seiten ausgewertet werden dürfen und welche ignoriert werden müssen. Eine google-Suche über politisch-gesellschaftliche Themen ist praktisch wertlos geworden, da nur noch Mainstream-Medien-Seiten aufgelistet werden. Alternative Sichtweisen kommen praktisch gar nicht mehr vor.
Auf diese Weise werden all jene sozialen Medien, die sich (so gut wie) keine Beschränkung auferlegen, für den skeptischen Bürger immer wichtiger, will er alternative Sichtweisen hören. Dazu zähle ich X.com und Substack.
Es wäre wünschenswert, wenn sich ein Modell primär um eine andere Wahrheit bemühte und die ausgetretenen Pfade verließe. Aber wir können sicher sein, dass dies mit allen Mitteln verhindert werden wird. Man stelle sich vor, der Bürger würde stutzig werden.

Hinterlasse einen Kommentar