Mich beschäftigt gerade, ob wir mit Sprachmodellen nicht eine ganz neue Form der Zusammenarbeit entdecken könnten – so ein bisschen wie Co-Autoren, nur eben mit einer künstlichen Komponente. Ich hab neulich mal mit Llama-2 (7B) rumprobiert und gemerkt, wie sehr der Output von den kleinen Nuancen des Prompts abhängt. Manchmal reicht ein anderes Wort, und das Ergebnis kippt komplett. Da frage ich mich: Wie sehr sind wir beim „automatischen Generieren“ eigentlich selbst Teil des Textes, weil wir ja durch die Eingaben alles beeinflussen…? Vielleicht ist der Begriff „automatisch“ schon fast irreführend. 🤨
Was ich bisher selten lese: Warum setzen wir Sprachmodelle nicht stärker für Dinge ein, bei denen menschliche Autoren oft zu kurz kommen? Also etwa bei der Generierung von Textsorten, die mega-unbeliebt oder zeitaufwändig sind – ich denke da an technische Handbücher, juristische Standardbriefe oder so Data-to-Text-Reports für Sensoren aus der Industrie. Gibt’s da schon Cases, wo Unternehmen tatsächlich 90% oder mehr automatisch generieren lassen? Bin mir da nicht sicher, aber meine Vermutung wär, dass da noch viel manuell läuft, einfach weil keiner die Modelle im Alltag blind vertraut... Würde mich interessieren, ob ihr schon von Praxisbeispielen wisst.
Noch ein Gedanke aus Richtung Sprachvielfalt: Könnte es langfristig sein, dass durch automatische Generierung viele kleine Dialekte und Schreibstile verloren gehen? Ich hab z.B. probiert, Gedichtformen in westfälischem Platt ausgeben zu lassen (mit GPT-3.5, Berlin-Server), und es kam nur so halb-authentisch raus. Vielleicht machen die Modelle auf Dauer alles glatt und stromlinienförmig. Oder können sie das Gegenteil: Also Schrulliges oder regionale Färbungen bewahren, wenn man’s ihnen nur richtig beibringt?
Wie seht ihr das: Wird die Zukunft der Textgenerierung eher eintönig oder bunter, wenn Sprachmodelle immer mehr übernehmen?