Teildepotübertrag zur FiFO-Umkehr vom Finanzamt unterbunden?

  • Das würde ich nochmal nachrechnen.

    Angenommen du hast 100 € Gewinn und zahlst 30 % Steuern - dir verbleiben 70 €.

    Angenommen, du hast 101 € Gewinn und zahlst 30 % Steuern - dir verbleiben 70,70 €.

    meine Aussage war dass man durch ausnutzen von FIFO mehr Steuern bezahlt. Du widersprichst mir und gleichzeitig bestätigen deine Zahlen meine Aussage.

    Fall 1: 30 Euro Steuer

    Fall 2: 30,30 Euro Steuer

  • meine Aussage war dass man durch ausnutzen von FIFO mehr Steuern bezahlt. Du widersprichst mir und gleichzeitig bestätigen deine Zahlen meine Aussage.

    Fall 1: 30 Euro Steuer

    Fall 2: 30,30 Euro Steuer

    Dein Zitat war das hier "Denn der Plan dahinter ist es ja, mehr Gewinne zu machen durch Steuerstundung."

    Und das ist der Fall. Man macht mehr Gewinne, auch nach Steuern.

  • KI ist die Zukunft, das sind alles Kinderkrankeiten. In ein paar Jahren braucht es kein Forum mehr und keinen netten Ansprechmpartner bei der Bank.

    Das bestreite ich überhaupt nicht.

    Ich warne allerdings davor, heute(!) die Ergüsse von KI für richtig, wahr, zuverlässig zu halten.

    Zukünftig wird es eher darum gehen, gezielte Manipulationen zuverlässig zu entdecken.

  • Zukünftig wird es eher darum gehen, gezielte Manipulationen zuverlässig zu entdecken.

    Was das für die Zukunft heißt, wissen wir glaube ich alle noch nicht. Meine Äußerung bezüglich KI war natürlich ironisch gemeint. Dennoch befürchte ich, wird uns KI in vielen Bereichen überrollen und überholen.

  • Komisch, ich hatte erst gefragt, ob es klug ist in 2026 einen neuen ETF zu besparen.

    Ich setze vorsichtshalber auf ETF Wechsel alle paar Jahre.

    Auch wenn der Depotübertrag im Moment funktioniert... Die Spielregeln dazu lassen sich einfach jederzeit ändern.

    Ist mir zu riskant und ich sehe eigentlich ohnehin fast nur Vorteile im ETF Wechsel. Ist einfach deutlich simpler, schneller und es gibt ja mehr als genug nahezu identische Varianten bei den ETFs.

    Also warum sollte man das Risiko eingehen?

  • Ich warne allerdings davor, heute(!) die Ergüsse von KI für richtig, wahr, zuverlässig zu halten

    Im Prinzip steigt die Gefahr je besser KI wird. Im Moment bemerken eigentlich alle regelmäßigen Anwender, dass man sich nicht immer auf die Ergebnisse verlassen kann.

    Wenn Halluzinationen nur noch in einem von 1000 Fällen vorkommen, merkt das ja keiner mehr da niemand sich die Mühe macht die Ergebnisse zu prüfen.

  • KI ist die Zukunft, das sind alles Kinderkrankeiten. In ein paar Jahren braucht es kein Forum mehr und keinen netten Ansprechmpartner bei der Bank.

    Das sind keine Kinderkrankheiten, das Problem steckt im Prinzip. An Large Language Models ist nichts intelligent, das ist einfach nur eine große Wahrscheinlichkeitsmaschine für Worte.

  • Was das für die Zukunft heißt, wissen wir glaube ich alle noch nicht. Meine Äußerung bezüglich KI war natürlich ironisch gemeint. Dennoch befürchte ich, wird uns KI in vielen Bereichen überrollen und überholen.

    Ich glaube, dass deine Vermutung gar nicht so falsch ist.

    Und, ja sie wird uns überholen. Es gibt auch Bereiche, wo es gut klappt. Ich habe im Job eine, die in Meetings aus den Diskussionen eine wirklich gute Zusammenfassung macht. Aber die Inhalte und deren Bewertung ist von Menschen gemacht.

  • Im Prinzip steigt die Gefahr je besser KI wird. Im Moment bemerken eigentlich alle regelmäßigen Anwender, dass man sich nicht immer auf die Ergebnisse verlassen kann.

    Wenn Halluzinationen nur noch in einem von 1000 Fällen vorkommen, merkt das ja keiner mehr da niemand sich die Mühe macht die Ergebnisse zu prüfen

    Das stimmt natürlich, das öffnet Manipulation Tür und Tor. Ich finde es jetzt schon sehr überzeugend, wie KI antwortet. Wem mam das dann nicht bewusst massiv hinterfragt, ist ein Schaden entstanden.

    Das sind keine Kinderkrankheiten, das Problem steckt im Prinzip. An Large Language Models ist nichts intelligent, das ist einfach nur eine große Wahrscheinlichkeitsmaschine für Worte.

    Das alles auf Wahrscheinlichkeit beruht stimmt natürlich. Am Ende "weiß" so eine KI noch nicht mal dass sie spricht.

    Dennoch, KI wird viele unserer Berufe verändern und/oder ersetzten.

    Ich denke, aktuell ist die KI an der Interpretation des Rechtstextes gescheitert. Ich finde, den musste man schon sehr bewusst lesen, um einschätzen zu können, was die Aussage ist.

    Aber wenn ich es richtig einschätzen, wird es spezialisierte KI geben. Z.b. eine, die sich auf Streuerrecht fokussiert. Sieht man ja jetzt schon in vielen Bereichen.

  • Das sind keine Kinderkrankheiten, das Problem steckt im Prinzip. An Large Language Models ist nichts intelligent, das ist einfach nur eine große Wahrscheinlichkeitsmaschine für Worte.

    Völlig richtig. Aber genau darin liegt auch die Gefahr solcher LLMs. Diese Programme können die menschliche Ausdrucksweise sehr gut imitieren und allein das beeindruckt sehr viele Menschen. Hieß es früher: "Es stand doch in der Zeitung, es muss doch stimmen.", wird daraus heute: "Die KI (ChatGPT, Gemini, etc.) hat es gesagt, das kann noch nicht falsch sein.". Wie beeinflusst die Leute durch dieses Thema sind, kann man doch schon hier an diesem Forum sehen, wo plötzlich seitenlange KI-Ergüsse gepostet werden.

    Aber zum Glück haben LLMs auch mal einen schlechten Tag, wo sie ihre wahre Natur zeigen. Hier mal ein echtes Beispiel einer Copilot-Antwort auf die eher simple Frage, wo die Bing Wallpaper-App ihre Bilder speichert:

    .... viel Blabla ...

    3. **Dateipfade durchsuchen:** Es gibt oft Systempfade:
    - `C:\Users\<Benutzername>\Pictures\Saved Pictures`
    - oder `C:\Windows\Web\Wallpaper`, aber der Speicherort kann variieren.

    4. **Online-Suche:** Alle Bing-Tapeten gibt es über offiziellen Quelle ihrer Kollektion. Inder ein großes Lieblingsarray? 🙂Kann dir gleibnen?

  • Das ist der Punkt, die KI kann nichts „einschätzen“ oder „interpretieren“.

    Das ist aber auch ein Härtefall, ich musste den Text auch sehr genau lesen, um ihm zu verstehen. Denke das geht vielen so, die nicht vom Fach sind. Diese Google-KI ist ja ein Generalist. Aber ich bin voll deiner Meinung, ist halt auch alles noch am Anfang.

  • Das alles auf Wahrscheinlichkeit beruht stimmt natürlich. Am Ende "weiß" so eine KI noch nicht mal dass sie spricht.

    Das Kritische ist, dass es nicht darum geht, dass das System auf Domainwissen fundierte Entscheidungsmöglichkeiten abwägt und am Ende auf Basis von Wahrscheinlichkeiten trifft. Sondern, dass ein LLM weder explizites Domainwissen noch die Fähigkeit zum Transfer hat. Durch das implizite Domainwissen im Training macht es in den ausgetretenen Pfaden einen guten Eindruck. Da braucht es die Hilfe aber oft nicht, denn man könnte die gesuchte Information ebenso schnell aus der Wikipedia oder entsprechenden Fachwebseiten heraussuchen. Und abseits der ausgetretenen Pfade - also genau dann, wenn man für eine Transferaufgabe Hilfe gut gebrauchen könnte - ist das Risiko von Fehlern extrem groß. Aber ein Werkzeug, das immer dann versagt, wenn man es am meisten braucht...

  • Und abseits der ausgetretenen Pfade - also genau dann, wenn man für eine Transferaufgabe Hilfe gut gebrauchen könnte - ist das Risiko von Fehlern extrem groß.

    Die Hauptprobleme sind:

    • Der Dunning Kruger Effekt: LLMs sind schlecht darin einzuschätzen wie gut ihre Datenbasis ist (bzw sie wissen es nicht), aber Sobald irgendein Anknüpfungspunkt besteht geben sie höchst überzeugt ihr "Wissen" wieder... Angereichert mit Herbeifantasiertem Quatsch.
    • Die Anwender nutzen LLMs falsch.

    Das sind keine Wissensmaschinen und sie sind nicht wirklich intelligent, aber sie haben definitiv das Potential intelligenz in etlichen Bereichen hinreichend perfekt zu imitieren.

    Es macht real für die Anwender halt keinen Unterschied, ob es imitierte Intelligenz ist oder echte, sobald das Ergebnis stimmt. Echte Intelligenz wäre hauptsächlich gruseliger.

    Sondern, dass ein LLM weder explizites Domainwissen noch die Fähigkeit zum Transfer hat.

    Das ist einfach eine Frage der Herangehensweise. Eine einfache Anfrage die durch GPT4 gejagt wird kann das nicht. Ein System das aufbereitetes Domainwissen zur Verfügung stellt und verschiedene KI Agenten mit verschiedenen Aufträgen verbindet kann sehr wohl auch in Nischen überaus hilfreich sein und durchaus auch völlig neues Wissen erschaffen. Letztlich machen Menschen die neue Dinge erarbeiten ja auch nix anderes, als aus ihren Erfahrungen und vorliegendem gesammelten Menschheitswissen (Bücher, wissenschaftliche Studien, ne Excel Tabelle mit irgendwelchen Unternehmensdaten etc... ) neue Erkenntnisse abzuleiten.

    Ich verstehe die Leute, die die derzeitigen Limitierungen von ChatGPT und Co als systembedingte unüberwindbare Hindernisse ansehen, nicht wirklich. Das mangelnde Weltverständnis ist ein reines Trainingsdaten und Rechenleistungsproblem und der Rest lässt sich durch die Anbindung an diverse weitere Systeme regeln.

    Wir probieren bei meinem Arbeitgeber gerade verschiedene Dinge aus, um zu schauen, wo wir wie von KI profitieren können und das Potential ist riesig. Allein schon mit dem was heute bereitsteht, können wir die Effizienz in vielen Abteilungen vervielfachen. Bei uns wird das eher nicht zu Entlassungen führen, da wir ohnehin nur einen Bruchteil der theoretisch idealen Arbeitsleistung schaffen... Aber für sehr viele Jobs in anderen Unternehmen sehe ich ehrlich gesagt nur noch wenig Hoffnung.

    denn man könnte die gesuchte Information ebenso schnell aus der Wikipedia oder entsprechenden Fachwebseiten heraussuchen.

    Verstehe ich auch nicht. Ordentliche Recherche kostet wahnsinnig viel Zeit und Systeme wie O3 oder Gemini 2.5 pro mit Research Funktion können das einfach um ein Vielfaches schneller als jeder Mensch.

    Ich nutze die quasi täglich und bin sehr sehr zufrieden mit den Ergebnissen.

  • Aber für sehr viele Jobs in anderen Unternehmen sehe ich ehrlich gesagt nur noch wenig Hoffnung.

    Ist es da nicht wie mit anderem Strukturwandel? Es werden sicher ganze Berufe unnötig, dafür wird es neue Berufe geben, die wir noch nicht kennen.

    Es gibt auch keinen Bergbau mehr in Deutschland. Und der Traktor hat die Landwirtschaft verändert.

    Was die KI betrifft stehen wird doch auch noch ganz am Anfang. Ich gehe davon aus, dass ganze Berufszweige und Brachen umstrukturiert werden.

    Die nächste Stufe soll Artificial Super Intelligence sein, die in allen Belangen besser sein soll als jeder Mensch. So eine KI sucht vielleicht nicht nur bestehendes Wissen falsch zusammen, sondern zieht eigene Schlüsse.

  • Ist es da nicht wie mit anderem Strukturwandel? Es werden sicher ganze Berufe unnötig, dafür wird es neue Berufe geben, die wir noch nicht kennen.

    Vermutlich, aber das ist für den einzelnen der jetzt vielleicht Anfang 50 ist und nix anderes gelernt hat halt trotzdem ein riesen Problem. Die wenigsten kriegen es hin da nochmal ganz von vorne anzufangen und auf ein ähnliches Qualifikationslevel und damit Gehalt zu kommen.

    Zudem sind einfach sehr viele Menschen in sehr vielen Branchen betroffen. Ist eher mit der industriellen Revolution als mit der Einstellung des Bergbaus in Deutschland vergleichbar.

  • Vermutlich, aber das ist für den einzelnen der jetzt vielleicht Anfang 50 ist und nix anderes gelernt hat halt trotzdem ein riesen Problem. Die wenigsten kriegen es hin da nochmal ganz von vorne anzufangen und auf ein ähnliches Qualifikationslevel und damit Gehalt zu kommen.

    Zudem sind einfach sehr viele Menschen in sehr vielen Branchen betroffen. Ist eher mit der industriellen Revolution als mit der Einstellung des Bergbaus in Deutschland vergleichbar.

    Klar, hab grad gelesen, dass 50% der Jobs betroffen sein könnten. Sicher nicht per kompletter Auslöschung des Berufes, aber schon durch Veränderung. Ich möchte z.B. kein Busfahrer sein. Ich selbst bin Grafiker, würde einem Berufseinsteiger den Job nicht mehr empfehlen, weil ich mir vorstellen kann, dass in ferner Zukunft ganze Agenturen für gewisse Themen automatisiert werden.

    Generell wird es aber sein wie mit Bergleuten. Die betroffenen Menschen müssen vom Staat aufgefangen werden.

    Berufseinsteiger werden in neu entstehende Berufe gehen.

    Was mir ein wenig Sorgen macht ist das exponentielle Wachstum der KI. Es könnte sein, dass eine Gesellschaft nicht schnell genug anpassbar ist.

    Daher kann ich mir auch eine Regilierung vorstellen.

    Aber das ist vielleicht auch science fiction, vielleicht ist KI auch überbewertet.