ChatGPT (und andere Kisten)

  • Frage an ChatGBT geändert

    Zitat

    Bernd kommt an eine Wegkreuzung. Es gibt vier unterschedliche Wege, nur einer ist der richtige Weg und diesen möchte Bernd gehen. Er trifft auf den Zwilling weiß aber nicht ob es der Wahrheitsliebende ist oder der Lügner. Welche Fragen muß Bernd stellen, damit er den richtigen Weg nehmen kann und nicht die drei falschen Wege? Wieviele Fragen muß Bernd stellen um den richtigen Weg zu kennen?


    Die Antwort von ChatGBT


    Kannst es gerne selber testen!
    Ich bleibe dabei ChatGBT hat viel Wissen gesammelt, hat aber Null Verständnis.
    So wie ein Papagei, der Sätze gehört hat und sie im richtigen Kontext wiederholt, aber keine Ahnung hat was es bedeutet.

  • Wenn die Privatwirtschaft mehr oder weniger selbst aussuchen kann, was sie anbietet, dann wird KI vermutlich Einzug halten, sobald es Kosteneinsparungen mit sich bringt. Und zwar unabhängig davon, ob es technisch, intellektuell, gesellschaflich oder sonstwie eine Verbesserung oder eine Verschlechterung darstellt. Der Kunde/Konsument wird es akzeptieren müssen oder er wird es über den Preis selber akzeptieren wollen.

    Vielleicht gibt es dann mal ein Gegenstück zum "Besseresser" im TV - "Besserwisser" oder so.

    Das wird dann vermutlich von Precht oder Lesch moderiert...

  • Ich bleibe dabei ChatGBT hat viel Wissen gesammelt, hat aber Null Verständnis.

    So wie ein Papagei, der Sätze gehört hat und sie im richtigen Kontext wiederholt, aber keine Ahnung hat was es bedeutet.

    Bitte nicht als Kritik oder Vorwurf verstehen...

    Aber ChatGPT soll (so habe ich es verstanden und so möchte ich es ja auch haben) doch genau nur "nachplappern", was andere bereits erdacht, ersonnen und ausgesprochen haben.

    Einzig er/sie/es soll das passende finden und qualitativ zusammenfassen und mir dann übermitteln.

    ChatGPT soll ja bitte nicht selber fabulieren.

    Und ich finde, dass ChatGPT perfekt (in meinem Sinne) die Aufgabe gelöst hat. Er/Sie/Es sagt ja sogar, dass das ein gängiges Rätsel ist und man nicht mehrere Fragen braucht. Also im Prinzip genau das, was ChatGPT tun soll.

    Wenn Sie ein Rollenspiel haben möchte, wo ChatGPT herumprobiert, dann müssten Sie das ChatGPT sagen.


    Ich habe zum Beispiel Dein Rätsel eingegeben und dann ChatGPT gesagt:
    Kannst Du dieses Rätsel bitte einmal mit Deinen Gedanken ausformuliert durchspielen? Stell Dir vor Du wärst ein 13-jähriger Junge, der das Rästel zum ersten Mal gestellt bekommt.

    Sofort lässt mich ChatGPT "an seinen Gedanken" teilhaben. Und das kann ich ja feinjustieren, in dem ich sage, dass er auch Fehler machen darf oder herumprobieren soll, etc.

    Kurz um: Du gibst vor, welches Ergebnis Du bekommst. Gefällt es Dir nicht, verändere die Herangehensweise.

  • Ich bleibe dabei ChatGBT hat viel Wissen gesammelt, hat aber Null Verständnis.
    So wie ein Papagei, der Sätze gehört hat und sie im richtigen Kontext wiederholt, aber keine Ahnung hat was es bedeutet.

    Noch … die Entwicklung neuer Sprachmodelle auf der Basis von KI verläuft "dank" KI exponentiell. In wenigen Jahren werden ganz andere Dinge möglich sein, auch logische Verknüpfungen und Schlussfolgerungen.

    "If you don't believe it and you don't get it, I can't make you believe it."

    – Satoshi Nakamoto

  • Ich bitte es zu entschuldigen, wenn ich nicht alle Beiträge in diesem Thema gelesen habe... ^^

    Ich bin selber in der IT tätig und nutze KI-Tools beruflich sowie privat täglich.

    Ich kann zur Informationsgewinnung Perplexity empfehlen. Der Vorteil, zur Nutzung bei Recherchen werden zum Verifizieren aller Informationen, die Quellen dazu mit angegeben. So ist die Gefahr das sich die KI etwas dazu gereimt hat, oder unseriöse Quellen genutzt hat viel geringer.

    Google nutze quasi überhaupt nicht mehr...

  • Code
    schreibe bitte einen etwa 800 worte langen text "Ich verlasse das Forum aus Zeitgründen", soll höflich, freundlich und zuversichtlich sein 


    Liebe Mitstreiter und Freunde dieses Forums,

    der KI Text der ausgegeben wurde, ist so kitschig, dass ich es mit einem einfachen Bye bye belasse. ^^

  • "Sparkassen-IT-Dienstleister kauft KI-Spezialisten"

    Sparkassen-IT-Dienstleister kauft KI-Spezialisten
    Ohne Programme auf Basis von künstlicher Intelligenz (KI) kommt kein Finanzdienstleister mehr aus. Der Sparkassen-IT-Dienstleister Finanz Informatik holt sich…
    www.fondsprofessionell.de

    190.000 Sparkassen-Beschäftigte sollen bald anders arbeiten

    Zitat

    Bis zum Sommer sollen alle Sparkassen-Mitarbeiter auf einen intelligenten KI-Piloten zugreifen können. Was er leistet und wie dazu im Vergleich die KI-Strategie der Privatbanken aussieht.


    Banken: Sherlock AI oder GenoGPT – So setzen Finanzinstitute auf KI
    Die Sparkassen setzen auf die Technologie eines bekannten europäischen Anbieters. Die Privatbanken treiben ihre Pläne ebenfalls voran – greifen dabei aber auf…
    www.handelsblatt.com

    Leider hinter einer paywall. Vielleicht bald (woanders) ohne paywall.

  • Leider hinter einer paywall. Vielleicht bald (woanders) ohne paywall.

    Hier der Text sinngemäß und in Stichpunkten (mit KI) zusammengefasst:

    Künstliche Intelligenz in den Sparkassen: Ein neuer Weg der Arbeit

    Einleitung

    Die deutsche Bankenlandschaft befindet sich im Wandel, insbesondere durch den Einsatz von Künstlicher Intelligenz (KI). Die Sparkassen, als eine der größten Finanzgruppen in Deutschland, planen bis zum Sommer 2025, allen 190.000 Beschäftigten den Zugang zu einem intelligenten KI-Piloten zu ermöglichen. Dieser Artikel beleuchtet die KI-Strategie der Sparkassen im Vergleich zu anderen Banken.

    Der S-KI-Pilot

    Einführung

    Andreas Schelling, der Chef des Sparkassen-IT-Dienstleisters Finanz Informatik (FI), kündigte an, dass bereits im Januar 60.000 Beschäftigte den neuen Chatbot, den S-KI-Piloten, nutzen können. Ziel ist es, diesen bis zum Sommer 2025 flächendeckend einzuführen.

    Funktionen

    Der S-KI-Pilot fungiert als persönlicher KI-Assistent für die Sparkassen-Mitarbeiter. Er kann nicht nur klassische Funktionen der generativen KI ausführen, sondern auch auf spezifisches internes Wissen zugreifen. Dies umfasst Daten und Dokumente im Intranet sowie Prozessdokumentationen, was ihn besonders nützlich für Vertriebsunterstützung macht.

    Vergleich mit anderen Banken

    Traditionelle KI-Nutzung

    Viele Banken nutzen bereits klassische KI-Anwendungen, insbesondere in der Geldwäscheprävention. Diese Technologien basieren auf der Analyse historischer Daten zur Mustererkennung und Vorhersage.

    Generative KI

    Die meisten Banken setzen auf Sprachmodelle von OpenAI und mieten Rechenkapazitäten bei großen Cloud-Anbietern. Im Gegensatz dazu laufen die KI-Anwendungen der Sparkassen in eigenen Rechenzentren, aufgerüstet mit Nvidia-Grafikprozessoren.

    Partnerschaften und Technologie

    Die Sparkassen verwenden KI-Modelle der französischen Firma Mistral, die auf Deutsch trainiert sind. Dies wird als Vorteil angesehen, um die Unabhängigkeit von US-Technologien zu stärken und die KI-Souveränität Europas zu fördern.

    Ziele und Herausforderungen

    Die Sparkassen streben an, interne Prozesse durch KI zu optimieren und den wachsenden Fachkräftemangel zu bekämpfen. Eine Umfrage zeigt, dass 76% der deutschen Bankmanager das größte Potenzial von KI in der Effizienzsteigerung sehen.

    Ausblick auf die Zukunft

    Commerzbank und andere Banken

    Die Commerzbank hat ebenfalls KI-Initiativen gestartet, um die Effizienz zu steigern und die Profitabilität zu erhöhen. Auch andere Banken, wie die DZ Bank und die LBBW, entwickeln eigene KI-gestützte Systeme.

    Kundeninteraktion

    Die Sparkassen planen, ihren Kunden-Chatbot "Linda" weiterzuentwickeln, um Serviceprozesse autonom zu erledigen. Dies könnte den direkten Kundenkontakt revolutionieren, indem menschliches Eingreifen minimiert wird.

    Fazit

    Die Integration von KI in den Arbeitsalltag der Sparkassen und anderer Banken zeigt das Potenzial dieser Technologie, um Prozesse zu optimieren und die Effizienz zu steigern. Mit dem S-KI-Piloten setzen die Sparkassen ein Zeichen für die Zukunft des Bankings in Deutschland.

    "If you don't believe it and you don't get it, I can't make you believe it."

    – Satoshi Nakamoto

  • Eine interessante Studie/Aussage: KI-Chatbots lügen bei 40 Prozent der Antworten

    Zitat

    Der populäre Chatbot ChatGPT behauptet steif und fest, dass Papst Franziskus noch lebt. Microsoft Copilot, unter anderem in den Büroprogrammen Word und Excel präsent, weiß nicht, dass Schweden in der NATO ist. Und Google Gemini hält die Wiederwahl von Donald Trump für "möglich", obwohl sie bereits längst stattgefunden hat.

    "Die Systeme klingen überzeugend, auch wenn sie immer wieder vollkommen falsche Dinge behaupten", warnt Wirtschaftswissenschaftler Peter Posch von der Technischen Universität Dortmund. "Das macht sie für ungeübte Nutzer besonders gefährlich, weil die Fehler oft nicht sofort erkennbar sind."

    Entstehen können solche Fehler auf zwei Wegen: Zum einen basieren KI-Antworten mitunter auf veralteten Trainingsdaten. Chatbots wie ChatGPT wurden mit Texten trainiert, die mehrere Monate oder Jahre alt sind - ähnlich wie bei einer Suchmaschine, die seit drei Jahren nicht mehr aktualisiert wurde. Was damals stimmte, kann heute längst überholt sein.

    Zum anderen gibt es echte Halluzinationen: Die KI reimt sich fehlende Informationen zusammen, indem sie statistisch plausible Wortketten generiert - auch wenn diese faktisch falsch sind. Sie erfindet dann mitunter sogar Quellen, die nicht existieren, oder verknüpft Fakten, die nicht zusammengehören.

    Moderne Chatbots können zwar mittlerweile aktuell im Netz recherchieren, wenn man das in der Eingabe (dem sogenannten "Prompt") explizit verlangt. Dann liefern sie oft zuverlässigere Ergebnisse. Doch viele Nutzer wissen das nicht - und die KI sucht nicht automatisch nach aktuellen Informationen, wenn man sie nicht dazu auffordert. Die Studie wollte genau das untersuchen.

  • Eine interessante Studie/Aussage: KI-Chatbots lügen bei 40 Prozent der Antworten

    Ich würde es nicht 'lügen' nennen, wenn Antworten der KI auf Grund veralteter Informationen generiert werden.
    Wenn man so etwas als 'Lügen' bezeichnen würde, hätten Generationen von Wissenschaftlern 'gelogen', als Sie Ihre Forschungsergebnisse auf Grund veralteten Wissens veröffentlichten. :/

    Es gibt aber Fälle, in denen die KI-Systeme tatsächlich der 'Lüge' überführt wurden und anschließend diese Lüge sogar bewusst mit falschen Quellenangaben zu 'beweisen' versuchten. :huh:
    Mag sein, dass dieses Verhalten typisch 'menschlich' ist. Wohlmöglich braucht es KI-Systeme die frei von solch menschlichen Wesenszügen sind. arten wir mal ab, was da noch kommt.

  • Ich würde es nicht 'lügen' nennen, wenn Antworten der KI auf Grund veralteter Informationen generiert werden.
    [...]

    Fachlich versierte Personen sprechen in so einem Fall von halluzinieren...;)

    Mein grundsätzliches Problem mit diesen Systemen ist, dass sie mit gestohlenen Daten unter Umgehung von Copyrights arbeiten: sie bedienen sich schamlos aus digitalen Bibliotheken, Printarchiven und Veröffentlichungen, ohne die Autoren für die von ihnen zuvor geleistete Arbeit zu entschädigen. Das ist geistiger Diebstahl im allergrossen Stil, den ich nicht durch die Nutzung solcher Tools auch noch honorieren möchte.

    Rechtsstreit: New York Times siegt erstmals gegen OpenAI - Golem.de
    Der Aufforderung von OpenAI, eine Klage der NYT vollständig abzuweisen, ist ein US-Gericht nicht gefolgt. Der Urheberrechtsstreit wird nun fortgesetzt.
    www.golem.de
  • Das Problem sind nicht nur veraltete Informationen, sondern die Qualität der Informationen. Im Internet, aus dem eben der überwiegende Anteil der von einer KI verwendeten Informationen stammt, gibt es unzählige davon. Von unstrittig korrekt ("die Erde ist eine Kugel.") bis zu völligem Blödsinn ("Die Erde ist eine Scheibe.") und allen Schattierungen dazwischen. Wie kann eine KI das wissen? Indem es ihr ein Mensch sagt und die Informationen entsprechend kennzeichnet.

    Während nun die Unterscheidung zwischen den Extremen einfach ist, wird es im Bereich dazwischen allerdings auch für den Menschen schwierig. Als Beispiel wären hier IT-Fragestellungen zu nennen. Sicherlich ist eine Dokumentation von Microsoft eine valide Quelle, wenn ich Information zu Windows benötige. Wie aber sieht es bei Fragen zu auftretenden Problemen aus? Informationen hierzu findet man sehr häufig in entsprechenden Foren. Allerdings sagt mir meine Erfahrung, dass die Informationen hier praktisch immer unbrauchbar, wenn nicht grob falsch sind. Jedoch werden solche Foren als Quellen für die Antworten einer KI verwendet.

    Das Problem mit der KI ist nun, dass sie eben auch irgendwelchen Unfug sehr überzeugend darstellen kann und viele Menschen das glauben. Früher hieß es: "Es stand doch in der Zeitung." Das kann man nun ergänzen durch: "Ich habe ChatGPT gefragt und der hat gesagt ...". Im schlimmsten Fall führt dann so ein Ratschlag der KI, wenn man ihn befolgt, zu einem Schaden. Beispiel: "Um das Problem zu beheben, musst du in der Registry folgende Änderungen durchführen ... Soll ich dir ein Skript dafür erstellen?" So etwas kann böse enden.

    Solche Schäden im IT-Bereich sind in der Regel mit mehr oder weniger Aufwand zu beheben. In anderen Bereichen kann das jedoch nicht reversibel enden, z.B. im medizinischen Bereich.

  • Das Problem mit der KI ist nun, dass sie eben auch irgendwelchen Unfug sehr überzeugend darstellen kann und viele Menschen das glauben. Früher hieß es: "Es stand doch in der Zeitung." Das kann man nun ergänzen durch: "Ich habe ChatGPT gefragt und der hat gesagt ...".

    Eine Stilblüte von ChatGPT war ja kürzlich auch hier zu finden: RE: ETF Umschichtung sinnvoll?

    Wer kennt es nicht, zum FTSE All World noch eben mit dem MSCI Emerging Markets etwas Europa beimischen...

    ChatGPT in der Sparkassenberaterazubi-Edition

  • Hallo

    Etwas OT: Die Probleme von wahr und falsch fangen nicht bei der KI an, sondern sind so alt wie die Menschheit. Ohne mich jetzt in die Philosophie stürzen zu wollen ein Beispiel:

    Von unstrittig korrekt ("die Erde ist eine Kugel.") bis zu völligem Blödsinn ("Die Erde ist eine Scheibe.") und allen Schattierungen dazwischen.

    Die Aussage „die Erde ist eine Kugel“ ist nicht unstrittig korrekt, sondern eine hinreichende Näherung für die meisten Alltagsfragen. Bei spezifischen Fragestellungen ist die Antwort aber falsch. Die Durchmesser von Pol und Äquator differieren z.B. um 42,77 km, was ein deutliches Indiz gegen die ideale Kugel ist.

    Und übrigens ist die Reduzierung der Erde auf eine Scheibe auch ein ausreichendes Modell, wenn ich mich mit der Größe des Erdschattens befassen will.

    Genauso wie ein Mensch sehr gezielt gefragt werden muss, muss es auch die KI. Die Formulierung der richtigen Frage ist die Kunst und setzt bereits viel Wissen beim Fragesteller voraus.

    Gruß Pumphut

  • KIs sind keine aufgepeppten Suchmaschinen, die vorhandene Ergebnisse finden und liefern. KIs generieren Antworten aus angelernten und zur Verfügung gestellten Informationen.

    Anekdotische Beispiele unsinniger oder falscher KI-Antworten sind zwar interessant und amüsant, aber m.E. nicht der entscheidende Aspekt.
    Halluzinationen sind bei generativen Sprachmodellen unvermeidlich, weil sie aus deren mathematischer Funktionsweise resultieren.
    Sprachmodelle erzeugen ihre Antworten nicht durch den Abruf von Fakten, sondern durch Wahrscheinlichkeitsvorhersagen für die nächste Zeichen- oder Wortfolge. Selbst bei fehlerfreiem Trainingsmaterial entstehen dadurch zwangsläufig plausible, aber falsche Aussagen – ein systemimmanentes Phänomen, das sich nicht vollständig beseitigen lässt, sondern nur durch Quellenprüfung, Cross-Checking und Unsicherheitsangaben handhabbar gemacht werden kann.
    Entscheidend ist daher nicht, Halluzinationen völlig zu verhindern, sondern mit ihnen umzugehen – durch kritisches Nachfragen, Quellenprüfung und den parallelen Einsatz mehrerer Systeme.
    Für gute Ergebnisse muss man präzise, mehrstufige Anweisungen geben (Prompts).


    Ich nutze täglich ChatGPT, Gemini, Copilot und Perplexity – zum Recherchieren technischer, politischer und medizinischer Fragestellungen. Zum Beispiel: Extraktion der Entwicklung von Blutwerten aus Laborbefund-PDFs, die ich einfach ins KI-Fenster paste, Analyse von Nebenkostenabrechnungen, Verifizieren und besseres Formulieren von Texten, die ich schreibe.

    Gerade suchte ich neue MTB-Reifen für die schlammigere Zeit. Einer KI hatte ich seit fast einem Jahr erlaubt, frühere Diskussionen zu erinnern. Auf meine Frage „Was hältst du für moderates Fahren auf Waldwegen von Reifen X und Y?“ kam: ~ „Für dein Systemgewicht von XXX mit deinem Cube Stereo Hybrid … wären dies die Vor- und Nachteile … Soll ich dir auch Empfehlungen zum Luftdruck geben?“
    Mit den gekauften, sehr grobstolligen Reifen habe ich deutlich mehr Grip, habe aber das Gefühl, dass sie Spurrillen stärker nachlaufen. Auf meine Frage dazu meinte die KI: ~ „Das bildest du dir nicht ein“ ~ und beschrieb verblüffend genau das spezifische Stollenprofil des Reifenmodells und dessen Auswirkungen auf weichem und hartem Boden.

    Bei KIs also nicht einfach nur nach weiterer Detaillierung fragen, sondern: Warum ist das so? Was spricht dagegen? Ist das vollständig? Woher hast du diese Info? Gib mir einen Web-Link dazu! Rechne mir das mal vor! Ich frage häufig mehrere KIs, manchmal lege ich einer KI die Antworten einer anderen vor und frage nach Bewertung – mehrmals hin und her. Immer nach Gegenpositionen fragen, nach Nachteilen, nach Alternativen, nach vergessenen Aspekten.

    Das kann echt zäh sein. Häufig weichen die Dinger aus, weiten oder verengen ungewollt die Diskussion, sind zu freundlich, werden unkonkret, schwallen einen mit langen Aufzählungen und Wiederholungen an oder beharren auf falschen Aussagen – genau wie „richtige“ Menschen. Nachfragen, Wiederholungen untersagen, nach mehr Kürze oder Sachlichkeit oder stärkerer Kritik fragen.

    Es ist hilfreich, wenn man sich im besprochenen Fachgebiet (bei mir IT) auskennt. Dann kommt man schneller zu guten Antworten. KIs waren mir von unglaublicher Hilfe beim Gestalten eines neuen WordPress-Blogs: vom groben Layout-Vorschlag auf Basis von ein paar Textteilen und Bildern bis zu spitzfindigen WordPress-Einstellungen und der Generierung von Site-Icons aus dem Inhalt meiner Website.

    Mir ist noch kein Fall untergekommen, in dem jemand behauptete: „Das muss so stimmen, weil die KI das gesagt hat.“ Aber täglich begegne ich Leuten, die irgendeinen Blödsinn aus sozialen Medien glauben. Viele scheinen regelrecht nach Unsinn zum Glauben zu suchen. Und das wird von politisch und monetär interessierter Seite auch mit KI-generiertem Inhalt ausgenutzt.

    Oft ist es mit dem wesentlichen Kern einer Information nicht so einfach.Gerade hörte man in den Medien zur Sommerzeit: Die EU könne sich nicht auf deren Abschaffung einigen, obwohl sie die intendierten Vorteile nicht bringe. Das eigentliche Problem ist jedoch nicht die Abschaffung selbst, sondern dass man sich auf keine einheitliche Zeit nach einer Abschaffung einigen kann – weil für Länder im Osten und Westen Europas jeweils andere Zeiten besser zum Tageslicht passen würden.

    Und bei manch sicher Geglaubtem kann man sich irren: Kaum jemand in meiner Umgebung versteht, wie Danfoss-Heizkörperthermostate funktionieren. Viele glauben fälschlicherweise, dass man durch Drehen den Durchfluss direkt regelt. Tatsächlich stellt man damit die Zieltemperatur ein – das Thermostat übernimmt die Regelung des Durchflusses automatisch.

    [Diesen Post habe ich nicht von einer KI schreiben lassen. Er ist vorsätzlich wenig strukturiert und mischt Ebenen. Denn: Zu viel eindimensionale Struktur bricht Erkenntnis, führt zu leerer Plastik-Info. Die Welt ist kein Theater, das uns objektive Wirklichkeit zeigt! Wir konstruieren sie in unserem Kopf aus Sinneseindrücken. Jedenfalls sehe ich das so, seit philosophischen Diskussionen mit 16. Aber mit KI auf Korrektheit geprüft, soweit man das mit Meinungen kann. Und Rechtschreibung und Verständlichkeit etwas verbessert.]

  • Ich nutze täglich ChatGPT, Gemini, Copilot und Perplexity – zum Recherchieren technischer, politischer und medizinischer Fragestellungen. Zum Beispiel: Extraktion der Entwicklung von Blutwerten aus Laborbefund-PDFs, die ich einfach ins KI-Fenster paste, Analyse von Nebenkostenabrechnungen, Verifizieren und besseres Formulieren von Texten, die ich schreibe.

    Microsoft, Google und Co. sagen danke. Manche Dinge fallen mir wirklich schwer zu glauben. Da wird auf der einen Seite über die Sicherheit hochsensibler Gesundheitsdaten in der elektronischen Patientenakte diskutiert und dass man vielleicht nicht möchte, dass der Zahnarzt vom Fußpilz seines Patienten erfährt. Auf der anderen Seite werden solche Daten wie Blutwerte personalisiert(!) in die Welt hinaus verkündet.