Welche Anwendungen mit künstlicher Intelligenz haben für dich einen tatsächlichen Mehrwert gebracht?

  • Warum willst du das eigentlich wissen? Wieso interessiert dich das Thema?
    Wo hilft dir KI?

    Ich würde mir wünschen, daß mir KI hilft, doch alles, was es gibt, ist gerade nicht gut genug, um über das Uncanny Valley hinauszugehen. Ich verstehe nicht, warum Menschen für ChatGPT+ Geld ausgeben, wo es doch deutlich an der Wahrheit vorbeidriftet. Oder StableDiffusion und kommerzielle Konsorten. Ich finde es auch schade, daß es keinen Ort im Internet zu geben scheint, an dem man sich im Detail austauschen kann, so als werkelt jeder für sich selbst an ein bißchen Pythoncode und stündlich erfindet daher jemand das Rad neu. Und dann werden noch und nöcher Sprachmodelle veröffentlicht und alle scheinen sie zu feiern, nur weil sie quelloffen sind. Daß sie wirres Zeug produzieren ist egal, weil "quelloffen".

    Ich würde unheimlich gerne mit PDF-Dokumenten chatten, doch die ständigen Fehler, die KI dabei macht, machen es einfach nicht zufriedenstellend.

    Aber "das nächste Modell" wird alle Probleme lösen, ja ne, is klar.

  • Schon, doch die Absicht, damit KI als Gesamtes infrage zu stellen, ist klar erkennbar. KI hat massive Probleme, doch das Genannte als Problem zu bezeichnen, wäre unfair. Z.B. kann ein Modell, das gelernt hat, daß Paris in England sei, das nicht umlernen und Paris Frankreich zuordnen. Man muß das Modell von Grund auf neu trainieren. DAS ist ein reales Problem, das man nur kennen kann, wenn man sich damit auseinandergesetzt hat.

  • Oft ist das Ergebnis von KI nicht gut genug. Bilder sehen unwirklich aus, generierte Zusammenfassungen geben den Inhalt nicht gut wieder, erfinden Details und so weiter.

    In fast allen Bereichen von KI habe ich mich wieder von dieser abgewandt, weil sie deutlich mehr verspricht als hält.

    Daher interessiert mich, welche Anwendungen basierend auf künstlicher Intelligenz für dich einen tatsächlichen Mehrwert gebracht haben. Das heißt solche, die du täglich nutzt.

    Antworte nicht mit "ChatGPT" oder ähnlich, sondern präziser, wie etwa "Ich lasse mit ChatGPT Finanzberichte zusammenfassen".

    Also, um mal die "Diskussion" hier ein wenig Richtung Realität driften zu lassen:

    Ich habe einen recht quantitativen Background (nicht "KI", aber ich weiß zumindest was es ist), ich war Projektleiter für IT-Teams im Bereich Generativer KI, ich habe den Aufstieg von Computer Vision damals miterlebt (autonomes Fahren) und auch die ganze Zeit davor, als es noch "Statistik und Mathematik" hieß.

    Nutze ich Modelle wie ChatGPT? Ja, tatsächlich täglich und es bringt mir einen Mehrwert beim erstellen von Konzepten für Kunden. Ich sehe, dass es unseren Teams in der Softwareentwicklung, Testsystemen, Dokumentation, usw. immens hilft und die Leute dadurch effizienter und schneller werden.

    Im operativen Geschäft bringt es ebenfalls Vorteile. Der Klassiker sind Kundenhotlines, wo es darum geht, das Problem des Kunden im Vorfeld möglichst präzise zu verstehen, um dann eine effiziente Adressierung hinzubekommen. Oder um einfach Berechnungen in Kundenkonten durchzuführen. Oder aber um Verträge und anderen regulatorischen Dokumente abzugleichen. Es geht dabei nie um hundertprozentige Sicherheit, sondern wieviel Zeit man effektiv tatsächlich einsparen kann.

    Aber, wie gesagt: das sind alles Dinge, wo es nicht auf den ultimativen Wahrheitsgehalt ankommt, sondern eher, dass sie den Arbeitsalltag unterstützen. Ich werde letztenendes LLMs immer so triggern können, dass sie falsch antworten.

  • Ich würde mir wünschen, daß mir KI hilft, doch alles, was es gibt, ist gerade nicht gut genug, um über das Uncanny Valley hinauszugehen.

    Für mich steckt KI noch sehr in den Kinderschuhen. Aber irgendwo muss man ja mit einer Technologie anfangen. Was allein in den letzten 20 Jahren alles passiert ist... Plötzlich gibt es Smartphones, mit denen man einen Computer in der Tasche trägt, auch das Internet war vor 20 Jahren noch ganz anders. Allein aufgrund der sehr eingeschränkten Datenrate bzw. sehr teuren Breitband-Angebote waren bereits Dinge wie Fotogalerien fast unnutzbar - heute streamen wir Filme in HD! Ruckler, also "warten müssen, dass etwas weiterlädt" kennt man im Grunde nicht mehr. Vor 20 Jahren dauerte das Laden eines einzigen Fotos manchmal 15min ;)

    Entwickeln passiert auch mit und bei Usern, die Feedback geben, Nutzungserlebnisse schildern, etc. Diese Entwicklungsphase ist immer da und muss "überwunden" werden.
    Wenn dir KI (noch) nicht zusagt, nutz es nicht und warte etwas. Wer zwingt dich :)

    Zitat von Dahinjagen

    Ich verstehe nicht, warum Menschen für ChatGPT+ Geld ausgeben,

    Da sind - und ich spreche aus Erfahrung - auch viele Nerds und Neugierige dabei, die einfach sehen möchten, wozu Technik imstande ist. Die "testen" ChatGPT ohne produktiven Hintergrund, einfach weil sie es spannend finden und das ihr Hobby ist. Oder sie in dem Bereich arbeiten und es zu ihrem Job gehört, es zu testen ;)

    Zitat von Dahinjagen

    wo es doch deutlich an der Wahrheit vorbeidriftet.

    Nuja. ChatGPT ist zum Einen auf einem älteren Datenstand. Zum Anderen hat es Biases. Wir Menschen aber auch! Oder hast du vor einer Diskussion immer die aktuellsten News gelesen, bist absolut vorurteilsfrei und ebenso völlig ungeleitet von Gefühlen? ;)

    Dazu kommt, dass wir Menschen die Wahrheit verzerren, z.B. durch Erinnerungslücken oder nachträgliches Glorifizieren ("Weißte noch, die Schulzeit?! Parties und Freunde!" Ja, oder Mobbing und Klausurendruck...).
    Die "pure echte Wahrheit" gibt's also weder in Mensch noch in Maschine ;)

    Wie Flip schon sagte, eignet sich ChatGPT sehr gut dazu, z.B. Texte zu formulieren.
    Es kann sogar Informationen zu Autoren bestehender Texte geben, indem du einige Texte einer Person eingibst. Die Ergebnisse sind überraschend.
    Also momentan ist es meiner Meinung nach sehr gut darin, Bewerbungsanschreiben, Marketing-Texte, etc. zu korrigieren, lektorieren oder zu entwerfen.

    Meine Haupt-Nutzungsgebiete bei ChatGPT sind aktuell eher klein:

    - Datum und Uhrzeit verschiedener Zeitzonen "übersetzen" lassen (Google wirft bei sehr konkreter "Was ist 3am 2024-04-04 in Münchner Uhrzeit" kein Datum/Uhrzeit aus).

    - Mir Themen, für die ich in Google verschiedene Quellen aufsuchen müsste und dabei redundante Informationen erhalte, einfach zusammenfassen lassen (Und auch hier: Wenn ich die Quellen selbst lese, weiß ich auch nicht immer, ob das eine seriöse/vertrauenswürdige Quelle ist, oder nicht.)

    - Inspiration für Textideen holen.
    Dabei habe ich im Auge, dass es veraltete Angaben sein können, dass es Biases gibt, dass es ggf. auf unseriöse Quellen zugegriffen hat, etc. Aber zum Einen liest du die Ergebnisse ja und kannst sie überdenken und zum anderen gibt es allgemeingültige Dinge, die sich nicht so einfach ändern.
    Und ja, der Vorteil bei "durchforste langwierig mehrere Quellen" ist, dass wenn mehrere Quellen dasselbe sagen, die Wahrscheinlichkeit höher liegt, dass die Information korrekt ist - theoretisch. Praktisch schreiben Zeitungen z.B. gern voneinander ab und bei Wikipedia wird sich auch immer auf die vielen Autoren und das Schwarmwissen berufen. Praktisch wissen nicht alle Menschen alles und können daher auch nicht alles gegenprüfen. Kann also auch "grenzwertig" sein, wird heutzutage aber selten kritisch hinterfragt.

    Zitat von Dahinjagen

    Ich finde es auch schade, daß es keinen Ort im Internet zu geben scheint, an dem man sich im Detail austauschen kann, so als werkelt jeder für sich selbst an ein bißchen Pythoncode und stündlich erfindet daher jemand das Rad neu. Und dann werden noch und nöcher Sprachmodelle veröffentlicht und alle scheinen sie zu feiern, nur weil sie quelloffen sind. Daß sie wirres Zeug produzieren ist egal, weil "quelloffen".

    Nuja, das liegt etwas an Kapitalismus und Wirtschaft, würd ich sagen: Jeder versucht, mit "dem neuen heißen Schei*" Geld zu machen. Jetzt haben wir den KI-Hype und alle nennen alles "KI", damit sie mitmischen können - obwohl das meiste eben nicht mal KI ist. Um die Jahrtausendwende hießen alle Produkte "*2000" oder "Millenium", danach kam mal eine Phase mit "360 Grad", etc. Jetzt ist das Label "KI". Was wirklich was taugt und was nicht, müssen Verbraucher leider mühselig herausfinden.

    Und natürlich tun die sich nicht zusammen, denn jeder hofft, der Erste und Beste im Geschäft zu sein und damit den großen Reibach zu machen. Sich zusammenzutun würde ja bedeuten, ggf. im Wohle der Menschheit zu arbeiten - und sein Geld teilen zu müssen ;)

    Zitat von Flip

    Ich werde letztenendes LLMs immer so triggern können, dass sie falsch antworten.

    Sowas geht bei Menschen immer auch. Und damit sind KIs zumindest nicht schlechter, als Menschen ;)

  • Für mich steckt KI noch sehr in den Kinderschuhen. Aber irgendwo muss man ja mit einer Technologie anfangen.

    Wobei die Frage ist, ob Large Language Models hier die richtige Richtung sind. Letztendlich sind die nur eine große Wahrscheinlichkeitsmaschine für Wörter, die Nutzung von Weltwissen oder gar ein Verständnis des Problems gibt es in LLM nicht. Das hat gewisse Implikationen für die Nutzung solcher Modelle. Da das Modell absolut keine Ahnung hat, kann man dem Output nicht trauen und muss den nochmal kritisch überprüfen. Also das Problem selbst vollständig verstehen. Bei trivialen Problemen (z.B. Code zur Berechnung von Fibonaccizahlen) kann man die Arbeit dann auch gleich selbst machen, bei nicht trivialen Problemen ist es fast unmöglich den Output vernünftig zu prüfen. Und wer jetzt denkt, das dann nur für Laberfächer zu nutzen...ich habe mal interessehalber nach einer Interpretation von Schillers Glocke gefragt. Das Ergebnis liest sich super, hat aber mit dem Gedicht absolut nichts zu tun.

    KI ist übrigens absolut nichts neues. Alle paar Jahre kommt wieder ein Hype-Zyklus für KI und flaut dann recht schnell wieder ab. Ja, einiges ist sehr beeindruckend und wirkt gut. Aber sobald man genau hinschaut, stellt sich für mich die Frage, welches Problem KI wirklich besser lösen kann und so zuverlässig, dass man nicht die gesparte Zeit in die Prüfung stecken muss. Ich bleibe jetzt ein bisschen im Code-Bereich, weil ich mich da am besten auskenne. Triviale Fingerübungen ala Fibonacci, größter gemeinsamer Teiler, etc. programmiert man höchstens selbst zur Übung. Für derartige Probleme gibt es genügend Bibliotheken, die man direkt einbinden kann. Und für die wirklich komplexen Probleme mit Weltwissen ist eine Wahrscheinlichkeitsmaschine denkbar ungeeignet, weil es eben auf die seltenen Sonderfälle ankommt. Selbst wenn man die richtige Lösung kennt, ist es oft schwierig bis unmöglich ein LLM in die richtige Richtung zu stupsen. Kenne ich die Lösung nicht, übernehme ich einen Fehler ohne es zu wissen

  • Können generative Sprachmodelle grundsätzlich brauchbare Ergebnisse liefern?

    Letztlich ist ein LLM der Durchschnitt aller Trainingsdaten. Wir Menschen handeln auch nicht anders beim Sprechen und Schreiben, unser Gehirn liefert uns den häufigsten nächsten Begriff, den wir sonst auch verwenden. Deshalb funktioniert die Illusion.

    Ich könnte auch "Durst ißt Menge Fehler Katakombe" schreiben, doch das ist deutlich schwerer. Auch für ein LLM, weil das keine üblichen Wortfolgen sind.

    Also denke ich, daß generative Sprachmodelle grundsätzlich brauchbare Ergebnisse liefern können, aber eben noch nicht jetzt.

    PS: Auch Sprachlernsysteme arbeiten nach diesem Prinzip, indem sie die wahrscheinlichsten Wörter und Phrasen zuerst beibringen, damit man schneller in die Sprache praktisch einsteigen kann.

  • auch das Internet war vor 20 Jahren noch ganz anders.

    Ob das wirklich so ist, da traue ich mir (noch dazu als nicht besonders technik-affiner und älterer Mensch) kein valides Urteil zu. Hinzu kommt: Für meinen Teil bevorzuge ich immer noch Gedrucktes (bei Studien, Gutachten, Expertisen), Bücher, Printausgaben der Tageszeitungen, Bibliotheken für Recherchen etc. pp. Vom TV bis zum Internet, das sind für mich diesbezüglich (Informationen, Recherchen usw.) eher ergänzende Elemente, die ich aber nichtsdestotrotz teilweise nutze. Wie bei allem Gedrucktem auch: Mit der immer gebotenen kritischen Distanz und Skepsis natürlich und unter Einbezug der diversen relevanten Blickwinkel.

    Das gilt inzwischen insbesondere gegenüber (weiten) Teile der öffentlich-rechtlichen Medien (habe beispielsweise mehrfach erlebt (erleben müssen), wie bedeutsame Positionen in Rundfunk- und Sendeanstalten besetzt wurden: Kompetenz war eines der unwesentlichsten Auswahlkriterien - das "richtige" Parteibuch und die "richtige" politische Einstellung häufig das allein entscheidende Kriterium; so sahen und sehen die Sendungen samt der Berichterstattung dann auch aus).

    Es hat sich gewandelt von einem Informations- und Kommunikationsmedium zu einem Unterhaltungsmedium (man könnte auch sagen "Werbeplattform").

    Das Hauptproblem ist, dass die meisten Menschen es immernoch für ein Informationsmedium halten.

    Das tatsächliche "Hauptproblem" ist, daß auch jedes (vermeintliche) "Informationsmedium" (sowie auch "Kommunikationsmedium") die Wirklichkeit sprich Realität kongruent abbilden kann. Oder aber die Denkweise und (fehlende) Kompetenz ihrer Erstellers bzw. Benutzer ...

    In genau dem Kontext: Der sog. "Programmauftrag" der Öffentlich-Rechtlichen-Medien ist mir zufällig präsent. Dieser ist im Staatsvertrag für Rundfunk und Telemedien (RStV) festgeschrieben. Um diesbezüglich die Bundeszentrale für politische Bildung zu zitieren:

    "Es gelten die Grundsätze der Objektivität und Unparteilichkeit der Berichterstattung, der Meinungsvielfalt sowie die Ausgewogenheit ihrer Angebote zu berücksichtigen"

    Schon dran müssen einem als aufmerksamer Bürger ernste Zweifel aufkommen.

    Ganz davon abgesehen, daß die (via Zwangsgebühren finanzierten) ÖR-Programme in sehr weiten Teilen (apropos "Unterhaltungsmedium" und "Werbeplattform" ...) längst aus "Angeboten" wie Daily-Soaps, Quiz-Sendungen, Krimis, Unterhaltungs-Shows, Werbung, Sportübertragungen usw. bestehen (ist mir als gezwungenermaßen TV-Konsument aufgrund einer Sportverletzung aufgefallen: Das war im Jahr 2016 ... besser dürfte es kaum geworden sein. Eher könnte das Gegenteil zutreffen).


    Nur meine bescheidene persönliche Meinung.

  • In fast allen Bereichen von KI habe ich mich wieder von dieser abgewandt, weil sie deutlich mehr verspricht als hält.

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Ganz aktuell, aus dieser Woche..! 😉

  • Können generative Sprachmodelle grundsätzlich brauchbare Ergebnisse liefern?

    Definiere den Anwendungsfall und definiere "brauchbar"

    Wenn dein Ziel darin besteht, einen Text zu schreiben, der gut wirkt, aber kein korrektes Weltwissen enthalten muss...dann sicherlich. Ist die Textgenerierung aber nur ein Nebenaspekt (und das betrifft die allermeisten Probleme), sind brauchbare Ergebnisse reine Zufallstreffer. Das ist durch den Algorithmus so bedingt

  • Kürzlich gefunden:

    KI-Ampel regelt Straßenverkehr: Bayernweit erster Einsatz
    Erstmals wird auf den Straßen Bayerns Künstliche Intelligenz eingesetzt. Eine Ampel, die mehr kann als nur Rot, Gelb oder Grün: Die "Ampel der Zukunft" soll ab…
    www.br.de

    Mir erschließt sich allerdings beim besten Willen nicht, was so eine Anwendung mit KI zu tun haben soll? Es ist und bleibt halt eine 'verkehrsabhängige Ampelsteuerung'. :/

    KI wäre es m.E. erst, wenn ich eine nackte Steuereinheit mit Sensoren, Ampel, usw. verschalte und anschließend dann der Steuereinheit vorgebe: "Führe eine verkehrsabhängige Ampelschaltung durch."

    Die Steuereinheit müsste sich also vollständig selbst programmieren und optimieren. Dann wäre es m.E. eine 'KI-Ampel'.

    M.E. wird aktuell sehr viel mit dem Label KI versehen um damit irgendwie 'Hipp' zu sein.

  • Ehrlich gesagt, nutze ich Chat..zur 'Besichtigung' persönlicher Probleme, einfach aus Neugierde, was eine Maschine zu bestimmten Gefühlen und Problemen zu sagen hat. Da ergeben sich zum Teil gute Perspektiven, die ich selber bisher noch nicht in Betracht gezogen hatte.

    Natürlich kommt immer das 'raus, was der Mensch vorher 'hereingesteckt' hat und wiederholt der Rat, man solle doch gefälligst einen Arzt oder Therapeuten aufsuchen! :)

    Ich nutze ihn auch, um eine Übersetzung in besseres Englisch oder Französisch zu korrigieren und dann danach mit meinen eigenen Sprachkenntnissen abzugleichen.

  • Ich komme aus dem Content Marketing Bereich und sehe das ähnlich, dass KI oft mehr verspricht, als sie halten kann, aber es gibt dennoch Bereiche, in denen sie mir echten Mehrwert bietet und ich sie täglich nutze.

    Für Blogartikel lasse ich mir von einer KI oft Rohentwürfe erstellen, die ich dann redaktionell überarbeite. So bleibt die Kreativität erhalten, aber der Prozess wird deutlich beschleunigt. Auch im Bereich Bildbearbeitung nutze ich KI regelmäßig, etwa Adobe Sensei, um störende Objekte zu entfernen oder Farbkorrekturen schnell und präzise umzusetzen. Natürlich sehe ich KI nicht als magische Lösung für alles, sondern als nützliches Werkzeug, das gezielt eingesetzt enorme Vorteile bringen kann. Wichtig ist, den Fokus auf konkrete Anwendungsfälle zu legen, wie auch der Artikel hier [Link von der Moderation entfernt] schön zeigt. KI ist für mich eher ein Kollaborateur, der meine Arbeit effizienter macht, aber immer noch menschliches Denken und Kreativität erfordert.