Bürger stellen Anträge mit KI, die sich aufs Landesrecht eines anderen Bundeslandes beziehen.
Das ist aber kein Fehler der KI, sondern ein Fehler vom Anwender, der zu wenig Kontext mitgibt.
Je präziser der Prompt und der Kontext, evtl. angereichert um RAG-Informationen (das kann ein simpler Verweis auf eine bestimmte Website sein), umso brauchbarer ist in der Regel die Antwort.
Aber ja, man muss wissen, dass die KI quasi immer eine Antwort liefert. Und diese kann potenziell auch falsch sein, weil das Sprachmodell für die Beantwortung der Frage irgendwo die falsche "Abbiegung" genommen hat, der Kontext nicht eindeutig ist, die benötigten Informationen nicht in den Trainingsdaten enthalten sind etc.
Ansonsten finde ich es etwas seltsam, dass so ein Angebot wie "Death Clock" pauschal so verteufelt und unbrauchbar gebrandmarkt wird. Mal abgesehen von der Genlotterie und Unglücksfällen gibt es genug Studien die ziemlich genau statistische Aussagen darüber treffen, welche Arten von Lebenswandel das Leben eher verkürzen (Rauchen, Alkohol, zu viel Sonnenbaden, kein Sport) oder verlängern (Bewegung, vegane Ernährung etc.).
Das ist alles simple Statistik, der man jetzt halt, weil es Trend ist, das Label "KI" angeheftet hat.