Ich würde es nicht 'lügen' nennen, wenn Antworten der KI auf Grund veralteter Informationen generiert werden.
Das ist richtig. Aber gleichzeitig auch zu simpel. Es wäre jetzt ohnehin nicht mein Ansatz, einen Chatbot nach dem aktuellen Kanzler zu fragen, das kann Wikipedia viel besser. Aber wie kann man herausfinden, auf welchem Stand ein Chatbot ist?
Mir ist noch kein Fall untergekommen, in dem jemand behauptete: „Das muss so stimmen, weil die KI das gesagt hat.“
Noch viel lernen du musst, junger Padawan. Man muss etwas nicht behaupten, man kann die Behauptung durch seine Handlungen zeigen.
Und Beispiele für die unreflektierte Nutzung von KI gibt es massenhaft. In die Nachrichten schaffen es nur wenige, zum Beispiel wenn man sich als Richter Präzedenzfälle vom Chatbot generierten lässt. Auch dürfte mittlerweile massenhaft von ChatGPT und co. generierter Code in den Produktionsumgebungen sein. Natürlich alles ganz streng kontrolliert...ja ne ist klar. Schnitzer beim Vibe-Coding füllen mittlerweile ganze Instagram-Kanäle...
So ein Chatbot ist super für Prototyping. Einfach mal schnell Dinge ausprobieren und den Teil runterschreiben lassen, den man selbst noch nicht beherrscht. Wobei ich da oft noch diverse Extrarunden drehen muss, damit es dann doch klappt. Die Realität ist eben oft komplexer. Und wie immer gilt halt, dass ein Prototyp nicht dazu geeignet ist, tatsächlich in der freien Welt genutzt zu werden