KIs sind keine aufgepeppten Suchmaschinen, die vorhandene Ergebnisse finden und liefern. KIs generieren Antworten aus angelernten und zur Verfügung gestellten Informationen.
Anekdotische Beispiele unsinniger oder falscher KI-Antworten sind zwar interessant und amüsant, aber m.E. nicht der entscheidende Aspekt.
Halluzinationen sind bei generativen Sprachmodellen unvermeidlich, weil sie aus deren mathematischer Funktionsweise resultieren.
Sprachmodelle erzeugen ihre Antworten nicht durch den Abruf von Fakten, sondern durch Wahrscheinlichkeitsvorhersagen für die nächste Zeichen- oder Wortfolge. Selbst bei fehlerfreiem Trainingsmaterial entstehen dadurch zwangsläufig plausible, aber falsche Aussagen – ein systemimmanentes Phänomen, das sich nicht vollständig beseitigen lässt, sondern nur durch Quellenprüfung, Cross-Checking und Unsicherheitsangaben handhabbar gemacht werden kann.
Entscheidend ist daher nicht, Halluzinationen völlig zu verhindern, sondern mit ihnen umzugehen – durch kritisches Nachfragen, Quellenprüfung und den parallelen Einsatz mehrerer Systeme.
Für gute Ergebnisse muss man präzise, mehrstufige Anweisungen geben (Prompts).
Ich nutze täglich ChatGPT, Gemini, Copilot und Perplexity – zum Recherchieren technischer, politischer und medizinischer Fragestellungen. Zum Beispiel: Extraktion der Entwicklung von Blutwerten aus Laborbefund-PDFs, die ich einfach ins KI-Fenster paste, Analyse von Nebenkostenabrechnungen, Verifizieren und besseres Formulieren von Texten, die ich schreibe.
Gerade suchte ich neue MTB-Reifen für die schlammigere Zeit. Einer KI hatte ich seit fast einem Jahr erlaubt, frühere Diskussionen zu erinnern. Auf meine Frage „Was hältst du für moderates Fahren auf Waldwegen von Reifen X und Y?“ kam: ~ „Für dein Systemgewicht von XXX mit deinem Cube Stereo Hybrid … wären dies die Vor- und Nachteile … Soll ich dir auch Empfehlungen zum Luftdruck geben?“
Mit den gekauften, sehr grobstolligen Reifen habe ich deutlich mehr Grip, habe aber das Gefühl, dass sie Spurrillen stärker nachlaufen. Auf meine Frage dazu meinte die KI: ~ „Das bildest du dir nicht ein“ ~ und beschrieb verblüffend genau das spezifische Stollenprofil des Reifenmodells und dessen Auswirkungen auf weichem und hartem Boden.
Bei KIs also nicht einfach nur nach weiterer Detaillierung fragen, sondern: Warum ist das so? Was spricht dagegen? Ist das vollständig? Woher hast du diese Info? Gib mir einen Web-Link dazu! Rechne mir das mal vor! Ich frage häufig mehrere KIs, manchmal lege ich einer KI die Antworten einer anderen vor und frage nach Bewertung – mehrmals hin und her. Immer nach Gegenpositionen fragen, nach Nachteilen, nach Alternativen, nach vergessenen Aspekten.
Das kann echt zäh sein. Häufig weichen die Dinger aus, weiten oder verengen ungewollt die Diskussion, sind zu freundlich, werden unkonkret, schwallen einen mit langen Aufzählungen und Wiederholungen an oder beharren auf falschen Aussagen – genau wie „richtige“ Menschen. Nachfragen, Wiederholungen untersagen, nach mehr Kürze oder Sachlichkeit oder stärkerer Kritik fragen.
Es ist hilfreich, wenn man sich im besprochenen Fachgebiet (bei mir IT) auskennt. Dann kommt man schneller zu guten Antworten. KIs waren mir von unglaublicher Hilfe beim Gestalten eines neuen WordPress-Blogs: vom groben Layout-Vorschlag auf Basis von ein paar Textteilen und Bildern bis zu spitzfindigen WordPress-Einstellungen und der Generierung von Site-Icons aus dem Inhalt meiner Website.
Mir ist noch kein Fall untergekommen, in dem jemand behauptete: „Das muss so stimmen, weil die KI das gesagt hat.“ Aber täglich begegne ich Leuten, die irgendeinen Blödsinn aus sozialen Medien glauben. Viele scheinen regelrecht nach Unsinn zum Glauben zu suchen. Und das wird von politisch und monetär interessierter Seite auch mit KI-generiertem Inhalt ausgenutzt.
Oft ist es mit dem wesentlichen Kern einer Information nicht so einfach.Gerade hörte man in den Medien zur Sommerzeit: Die EU könne sich nicht auf deren Abschaffung einigen, obwohl sie die intendierten Vorteile nicht bringe. Das eigentliche Problem ist jedoch nicht die Abschaffung selbst, sondern dass man sich auf keine einheitliche Zeit nach einer Abschaffung einigen kann – weil für Länder im Osten und Westen Europas jeweils andere Zeiten besser zum Tageslicht passen würden.
Und bei manch sicher Geglaubtem kann man sich irren: Kaum jemand in meiner Umgebung versteht, wie Danfoss-Heizkörperthermostate funktionieren. Viele glauben fälschlicherweise, dass man durch Drehen den Durchfluss direkt regelt. Tatsächlich stellt man damit die Zieltemperatur ein – das Thermostat übernimmt die Regelung des Durchflusses automatisch.
[Diesen Post habe ich nicht von einer KI schreiben lassen. Er ist vorsätzlich wenig strukturiert und mischt Ebenen. Denn: Zu viel eindimensionale Struktur bricht Erkenntnis, führt zu leerer Plastik-Info. Die Welt ist kein Theater, das uns objektive Wirklichkeit zeigt! Wir konstruieren sie in unserem Kopf aus Sinneseindrücken. Jedenfalls sehe ich das so, seit philosophischen Diskussionen mit 16. Aber mit KI auf Korrektheit geprüft, soweit man das mit Meinungen kann. Und Rechtschreibung und Verständlichkeit etwas verbessert.]