Kommt wohl immer auf die Themen an. Ich hab es bzgl. der Softwareentwicklung hier und da mal getestet. In der Regel habe ich da 45 Minuten lang auf das Ding eingeredet um eine Lösung zu bekommen, die ich mir in 3 Minuten selbst erarbeitet habe.
Da drunter waren dann etliche Lösungen, die frei empfunden waren. Genauso die Antworten, nachdem ich gesagt habe, dass es nicht klappt. Da kommt dann sorry, dass ist für die Version X, in Version Y muss es so heißen. Keine der Funktionen gab es, sie stammen aus einer externen Bibliothek einer komplett anderen Sprache, die da einfach zwischengepostet wurde.
Das musste ich aber erst recherchieren und dem lieben Chatbot sagen und ihm dann quasi die Lösung diktieren, bis ich die nach 45 Minuten rausgekriegt habe.
Ansonsten gibt es ja noch etliche andere Probleme. Die meisten Chatbots haben z.B. bei der Softwareentwicklung keine Integration in den gängigen IDEs, die anderen eben nicht in den nicht so gängigen. Dann der Onlinezwang bei allen, was effektiv wäre, dass man den Kram ordentlich mit Kontext füttern muss, was im Arbeitsumfeld häufig nicht möglich ist bzw. der Arbeitgeber bzw. Kunde sicher nicht gerne sieht etc.
Am Ende liefert ChatGPT Antworten, die sich logisch anhören vom Sprachfluss. Das ist auch die Aufgabe eines LLMs. Wir wollen es aber für Probleme nutzen, die Fakten benötigen. Ich glaube bis wir soweit sind, dass der Kram vernünftige Sachen ausspuckt und das so zuverlässig, dass er uns was abnimmt und der vorm Monitor die Lösung nicht selbst kennt, vergeht noch viel, viel, viel Zeit. Und selbst dann wird es schwer, wenn es dann weiter geht zu Haftungsfragen usw.
Für Bilder, Audio usw. ist das alles gut und schön. Das sind kreative Prozesse, wo es nicht ein Richtig und Falsch gibt. Für die Überweisung von Geld, die Software von Geräten im Krankenhaus, einer Rakete, einem Flugzeug oder einem Auto ist das eine ganz, ganz andere Geschichte.