Teildepotübertrag zur FiFO-Umkehr vom Finanzamt unterbunden?

  • Verstehe ich auch nicht. Ordentliche Recherche kostet wahnsinnig viel Zeit und Systeme wie O3 oder Gemini 2.5 pro mit Research Funktion können das einfach um ein Vielfaches schneller als jeder Mensch.

    Ist halt ein klassischer Fehlschluss. Wenn die Antwort nicht korrekt sein muss, kann ich auch beliebig schnell ein Ergebnis liefern. Und da wir wissen, dass derartige System häufig dann Fehler machen, wenn es drauf ankommt, müsste ein verantwortungsvoller Nutzer die Ergebnisse überprüfen. Das dauert dann so lange, wie selbst aufs Ergebnis zu kommen.

    Und was Systeme anbelangt, die maschinelles Lernen mit Expertenwissen verheiraten...schon vor 15 Jahren in meinem Studium wurde davon geredet. Stattdessen sehen wir, dass einfach jeder verfügbare Datensatz gezogen wird und Experten quasi keine Rolle spielen. Ist ja auch kein Wunder...Trainingsdaten mit explizitem Domainwissen sind aufwändig zu beschaffen und aufzubereiten, dadurch in der Regel auf extrem kleine Nischen eingeschränkt. Und damit ist der Anwenderkreis so klein, dass sich der Aufwand kaum monetarisieren lässt. Zumal in diesen Nischen längst klassische Expertensysteme ohne KI den Markt abdecken, die man erstmal verdrängen müsste...

  • Meint ihr nicht, dass das nur eine Übergangsphase ist? Vor einiger Zeit konnte KI z.B. nicht rechnen. Glaube, das hat sich inzwischen gegeben. Auch das Halluzinieren soll sich gebessert haben.

    Ich, es setzt sich immer das durch, was einen Conveniance-Vorteil hat. Es ist halt einfacher Gemini zu fragen als zu googlen. Vorher war googlen das einfachste. Und für die meisten Dinge reicht es ja.

    Ich bin noch mit dem Btockhaus aufgewachsen, das Internet hat diesen Buchband gekillt.

    Und wie oben geschrieben, die Dinger werden besser.

  • Vor 5 Jahren war eine der Allgemeinheit zugängliche generative KI noch fast undenkbar. Inzwischen gibts monatlich Fortschritte mit sieben Meilen Stiefeln. In 5 Jahren sieht die Welt schon wieder anders aus. Da wird wohl noch einiges kommen.

    Wichtig aber ist kritisch zu bleiben. Sind die Antworten plausibel? Gibt es andere Quellen die das bestätigen? Oder könnte es (gutwillig) zusammenfantasiert oder (böswillig) manipulativ sein?


    Ich finde schon, dass man die Werkzeuge unserer Zeit benutzen kann, darf und ein Stück weit auch sollte. Nur muss der Umgang damit geeignet sein. Aktuell sind die System noch sehr fehlbar.

  • Wichtig aber ist kritisch zu bleiben. Sind die Antworten plausibel? Gibt es andere Quellen die das bestätigen? Oder könnte es (gutwillig) zusammenfantasiert oder (böswillig) manipulativ sein?

    ChatGPT hängt an die Antwort seit einiger Zeit Quellen. Das sollte Google auch mal tun. Das ist ein Schritt in die richtige Richtung. Meine, Google, also Gemini hat auch irgendwo auch nen Plausibilitäts-Check. Unfug kann man übrigens auch über die klassische Google-Suche erwischen. Bei KI ist man vielleicht noch zu blauäugig.

  • Systemseitig fehlen an vielen Stellen einfach auch Qualitätskontrollen, die wir sonst überall gewohnt sind. Bei ner Zeitung gibt ein Lektorat, Quellen (naja vielleicht wenns nicht sowas wie die bunte ist) werden geprüft. Das ist einfach bisher noch nicht in dem Umfang bei den Chat KIs so drin. Kommt bestimmt.

    Die KIs machen es aber auch prinzipiell leicht, selbst den abstrusesten Quark zu glauben. Die Formulierungen sind geschickt, schließlich werden eben solche Sätze gebildet, wie sie nach dem Wahrscheinlichkeitsgewicht des Modells besonders gefällig sind. Ob das wirklich stimmt, ist aktuell eher Glückssache, ließt sich aber vernünftig.

    Immerhin bist du bei einer Waschechten Technologierevolution live dabei, tschüss Pferdefuhrwerk, hallo Dampfmaschine des 21. Jahrhunderts.

  • ChatGPT hängt an die Antwort seit einiger Zeit Quellen. Das sollte Google auch mal tun. Das ist ein Schritt in die richtige Richtung. Meine, Google, also Gemini hat auch irgendwo auch nen Plausibilitäts-Check. Unfug kann man übrigens auch über die klassische Google-Suche erwischen. Bei KI ist man vielleicht noch zu blauäugig.

    Ich habe neulich einen Thread im Forum eröffnet, weil sich bei einer Google-Suche ungefragt die KI gemeldet und eine falsche Antwort gegeben hatte. Besonders erstaunlich fand ich, dass zwar a) dahinter eine Quelle verlinkt war, diese aber b) eine korrekte Antwort enthielt.

  • Bei ner Zeitung gibt ein Lektorat, Quellen (naja vielleicht wenns nicht sowas wie die bunte ist) werden geprüft. Das ist einfach bisher noch nicht in dem Umfang bei den Chat KIs so drin. Kommt bestimmt

    Das ist aber ein generelles Thema der digitalen Medien. Schau dir YouTube, Tiktok, oder instagram an. Überall darf jeder ungeprüft irgendetwas verbreiten. Daran bedient sich dann unreflektiert KI.

    Ich denke, das Problem wird sich weiter verschlimmern, denn wir haben seit Jahren das groß Zeitungssterben. Wer liest schon noch analoge Medien. Wie lukrativ die Online-Varianten sind, weiß ich nicht. Die Bezahlschranken treiben die Leute zu den kostenlosen Anbietern.

    mmerhin bist du bei einer Waschechten Technologierevolution live dabei, tschüss Pferdefuhrwerk, hallo Dampfmaschine des 21. Jahrhunderts.

    Ich denke das Thema hat eine ähnliche oder größere Tragweite als die Erfindung des Computers oder des Internets.

  • Ist halt ein klassischer Fehlschluss. Wenn die Antwort nicht korrekt sein muss, kann ich auch beliebig schnell ein Ergebnis liefern. Und da wir wissen, dass derartige System häufig dann Fehler machen, wenn es drauf ankommt, müsste ein verantwortungsvoller Nutzer die Ergebnisse überprüfen. Das dauert dann so lange, wie selbst aufs Ergebnis zu kommen.

    Kann ich so nicht bestätigen. Ich hab eine Frage - sagen wir eine medizinische, die sich nicht so einfach über eine Google Suche beantworten lässt.

    KI rödelt da 10-15 Minuten rum und gibt mir dann die Essenz der gefundenen Daten - Mit Quellenangaben. Da prüfen ich dann was für mich wirklich relevant ist (ist die Kernaussage die aus Studie in Quelle X abgeleitet wurde da so wirklich drin, wie zuverlässig ist die Quelle).

    Eventuell schick ich dann nochmal ne zweite Anfrage Hinterher um zu prüfen wie häufig das in unabhängigen anderen Quellen bestätigt oder vielleicht auch widerlegt wurde.

    Diesen Prozess so manuell durchzuführen, da würde ich Stunden für brauchen.

    Beim Programmieren ist es etwas einfacher. Da sind die Dinger schon mit ihrem Modell Datenbestand so zuverlässig, dass ich einfach KI 1 Code + Tests schreiben lassen und KI 2 prüfen lasse, ob die Tests die eigentliche Aufgabe sinnvoll abdecken.

    Das Ergebnis ist inzwischen in deutlich >90% der Fälle direkt beim ersten Anlauf sehr brauchbar.

    Klar gucke ich da nochmal drüber (und je nach Projekt sowieso ein menschlicher Developer da ohne Review nix durchgeht), aber die Effizienz ist schon viel viel höher als wenn man alles selber machen muss.

  • Vor einiger Zeit konnte KI z.B. nicht rechnen.

    LLM KI kann immer noch nicht besonders zuverlässig rechnen. Dafür sind LLMs nicht gebaut und es macht auch nicht viel Sinn sie darauf zu optimieren. es ist viel effizienter die Rechenaufgabe im Hintergrund an ein System abzugeben, das dafür gemacht ist und die Antwort dann in die Antwort des LLM einzubauen.

    Ein LLM rechnet in etwa so wie ein Mensch der großen Zahlen schnell im Kopf multiplizieren/addieren soll. Das ist mehr raten als rechnen und das bei hohem Aufwand. Macht einfach keinen Sinn. Jetzt kann man einen Menschen darauf trainieren genauer und schneller in Kopfrechnen zu sein... Geht. Oder man gibt ihm halt einfach einen Taschenrechner (das ist das was wir mit LLMs gerade machen).

  • Beim Programmieren ist es etwas einfacher.

    Es wird glaube ich auch nicht mehr dazu geraten, Programmierer werden zu wollen.

    Oder man gibt ihm halt einfach einen Taschenrechner (das ist das was wir mit LLMs gerade machen).

    Ach guck, das wusste ich nicht, macht aber Sinn. Bei ChatGPT ist es ja auch so, dass es spezielle Aufgaben an andere KIs delegiert. Z.B. das Erzeugen von Bildern. Sicher ohnehin ein Trend, dass sich KIs vernetzen und die Aufgaben teilen.

  • Gute Senior Developer braucht man nach wie vor... Aber als Anfänger hat man es im Moment echt schwer (oder zumindest viel schwerer als vor ein paar Jahren).

    Und wie ist die Einschätzung für die nächsten 3 Jahre? Gibt es eine Liste von gefährdeten Berufen?

    Hab z.B. irgendwo gelesen, dass mein Beruf des Grafikers zukünftig zu 80% von KI ersetzt werden kann. Ich mag es noch nicht wirklich glauben.