Mich beschäftigt bei der ganzen Bias-Debatte rund um Sprachmodelle eigentlich immer: Wie wirkt sich das im Alltag aus, wenn wir diese Modelle als Ernährungsberater oder in anderen sensiblen Beratungsfeldern einsetzen? Also, ist jetzt vielleicht ne blöde Frage, aber was passiert, wenn ein Bot plötzlich Ernährungstipps gibt, die kulturelle Vorlieben völlig ignorieren – oder, schlimmer noch, bestimmte Diäten bevorzugt, weil sie im Trainingsdatensatz überrepräsentiert waren?
Beispiel: In vielen englischsprachigen Datenquellen (und gefühlt auch bei GPT-3 oder 3.5, zumindest war das mein Eindruck bei ein paar Tests letztes Jahr in Berlin) wird oft sehr stark auf die westliche Ernährungsweise gesetzt – High Protein hier, Low Carb da… Vegane Tipps werden zwar immer häufiger, aber bei spezifischen Ernährungsformen, wie sie z.B. im asiatischen Raum gängig sind, versagt das Modell dann plötzlich oder gibt Empfehlungen, die völlig an der Lebensrealität vorbeigehen. Ist mir letztes Jahr mit einer indischen Kundin passiert, wo der Bot partout auf Quark als Proteinquelle beharrt hat – völlig fehl am Platz.
Klar, Datensätze zu diversifizieren ist ein guter Anfang, aber wie stellt man sicher, dass die Modelle im Alltag wirklich keine einseitigen Präferenzen durchdrücken? Vielleicht müsste man Sprachmodelle ähnlich wie Supplements kennzeichnen: „Diese Beratung basiert überwiegend auf westlich geprägten Quellen, fragen Sie im Zweifel einen lokalen Experten“… Naja, irgendwie absurd, aber vielleicht bekommt man so wenigstens bisschen mehr Bewusstsein rein, dass auch eine KI wie ein typischer Ernährungsberater ihre eigenen Biases haben kann. Oder wäre eine Art „Kontext-Feintuning“ die Lösung, wo das Modell aktiv nach den kulturellen oder individuellen Hintergründen fragt, bevor es Ratschläge gibt? Bin mir nicht 100% sicher, wie aufwendig sowas real ist… aber die Vorstellung, dass KI-gestützte Beratung plötzlich nur noch Schema F ausspuckt, finde ich ehrlich gesagt ziemlich beunruhigend.
Ach so, und noch so ein Gedanke: Es wäre spannend, wenn Modelle aktiv ihre Unsicherheit anzeigen könnten – also in etwa: „Zu dieser Ernährungsform liegen mir weniger Daten vor, Vorsicht bei der Anwendung.“ Vielleicht nicht super elegant, aber irgendwie ehrlicher als diese allwissende Aura, die Chatbots oft ausstrahlen…