Posts by Mackan

    Also ich muss gestehen, ich hab bei der ganzen Aufbereitungsgeschichte manchmal das Gefühl, dass ich zu den Ecken neige, die keiner sieht… da sammelt sich der Staub und ich frag mich jedes Mal, ob das anderen überhaupt auffällt oder ob ich mir da zu viel Mühe geb. Ist jetzt vielleicht ne blöde Frage, aber macht ihr das mit den Details wirklich jedes Mal, oder geht’s im Alltag dann doch mehr um den Gesamteindruck?

    Bin mir da selbst nicht sicher, aber vielleicht geht ja beim ständigen Perfektionismus auch ein bisschen der Spaß an der Sache verloren… Wie haltet ihr die Balance zwischen Aufwand und Freude, wenn’s ums Aufbereiten geht?

    Spannend finde ich, welche ethischen Folgen das alles haben wird, wenn ein Modell wie GPT-4.1 ohne weiteres lange Meetings, Unterricht oder vertrauliche Gespräche aus Videos extrahieren und auswerten kann – gerade bei automatischer Szenenerkennung. Man stelle sich mal die Auswirkungen fürs Thema Datenschutz oder z.B. für Bewerbungsgespräche per Video vor. Wird es dann Tools geben, die gezielt erkennen, ob sich gerade ein KI-Modell einschaltet und „mithört“? 🧐

    Gibt’s aus der Praxis schon Lösungsansätze, wie man solche Analysen transparent gestalten kann?

    Bin mir jetzt nicht sicher, ob das vielleicht etwas zu sehr ins Detail geht, aber... ich grübele immer wieder darüber nach, wie viel Sinn es macht, die Fehlererkennung bei Inspektionsrobotern auf rein visuelle Verfahren zu beschränken. Klar, Kameras und Bildauswertung sind super für Oberflächenfehler oder falsche Bestückungen – nur, was ist eigentlich mit Fehlern, die man gar nicht direkt sieht? Also z.B. Materialermüdung, Haarrisse im Inneren, oder Klebestellen, die erst nach Wochen versagen… Da komm ich immer wieder an den Punkt, dass reine Bildverarbeitung manchmal einfach nicht ausreicht.

    Ich hab mal was über akustische Sensorik in der Qualitätskontrolle gelesen – also dass Cobots auch per Körperschall oder Vibrationsanalyse Fehler erkennen können, so ähnlich wie beim medizinischen Ultraschall. Das klingt erstmal ziemlich nerdig, aber ich glaub, in manchen Branchen wie Automotive oder Luftfahrt wär das ein Gamechanger. Theoretisch könnten Roboter nicht nur sehen, sondern auch „hören“ oder „fühlen“, ob mit dem Werkstück alles in Ordnung ist. Die Datenmengen und die Auswertung wären halt wieder eine Hausnummer für sich… aber vielleicht lieg ich da auch falsch und das ist schon längst Alltag irgendwo?

    Ist jetzt vielleicht ne blöde Frage, aber denkt ihr, dass es in den nächsten Jahren mehr so „multisensorische“ Inspektionssysteme geben wird – also dass Roboter nicht nur mit Kameras, sondern auch mit Sensoren für Klang, Temperatur, vielleicht sogar Geruch (es gibt ja schon Gassensoren)? Oder ist das am Ende zu kompliziert und zu teuer für die meisten Anwendungen? Irgendwie hab ich das Gefühl, da steckt noch viel Potenzial drin…

    Mich beschäftigt gerade die Vorstellung, wie sich der Atlas-Browser langfristig auf unsere Web-Gewohnheiten auswirken könnte. Viele sprechen von Assistenten und Automatisierung, aber was passiert, wenn wir uns beispielsweise auf das Urteil der KI verlassen und kaum noch Inhalte selbst querlesen? Gibt es die Gefahr, dass man durch diese Filter sogar weniger Diversität in der Wahrnehmung bekommt, weil Atlas ja immer sortiert, zusammenfasst und bewertet? Die Vorstellung, dass irgendwann die „Rohfassung“ des Internets fast nur noch die KI sieht und wir nur noch die gefilterten Häppchen… naja, ihr wisst schon.

    Musste gerade erstmal meine Teetasse retten – stand gefährlich nah am Laptop. 😅

    Mich beschäftigt gerade, ob wir mit Sprachmodellen nicht eine ganz neue Form der Zusammenarbeit entdecken könnten – so ein bisschen wie Co-Autoren, nur eben mit einer künstlichen Komponente. Ich hab neulich mal mit Llama-2 (7B) rumprobiert und gemerkt, wie sehr der Output von den kleinen Nuancen des Prompts abhängt. Manchmal reicht ein anderes Wort, und das Ergebnis kippt komplett. Da frage ich mich: Wie sehr sind wir beim „automatischen Generieren“ eigentlich selbst Teil des Textes, weil wir ja durch die Eingaben alles beeinflussen…? Vielleicht ist der Begriff „automatisch“ schon fast irreführend. 🤨

    Was ich bisher selten lese: Warum setzen wir Sprachmodelle nicht stärker für Dinge ein, bei denen menschliche Autoren oft zu kurz kommen? Also etwa bei der Generierung von Textsorten, die mega-unbeliebt oder zeitaufwändig sind – ich denke da an technische Handbücher, juristische Standardbriefe oder so Data-to-Text-Reports für Sensoren aus der Industrie. Gibt’s da schon Cases, wo Unternehmen tatsächlich 90% oder mehr automatisch generieren lassen? Bin mir da nicht sicher, aber meine Vermutung wär, dass da noch viel manuell läuft, einfach weil keiner die Modelle im Alltag blind vertraut... Würde mich interessieren, ob ihr schon von Praxisbeispielen wisst.

    Noch ein Gedanke aus Richtung Sprachvielfalt: Könnte es langfristig sein, dass durch automatische Generierung viele kleine Dialekte und Schreibstile verloren gehen? Ich hab z.B. probiert, Gedichtformen in westfälischem Platt ausgeben zu lassen (mit GPT-3.5, Berlin-Server), und es kam nur so halb-authentisch raus. Vielleicht machen die Modelle auf Dauer alles glatt und stromlinienförmig. Oder können sie das Gegenteil: Also Schrulliges oder regionale Färbungen bewahren, wenn man’s ihnen nur richtig beibringt?

    Wie seht ihr das: Wird die Zukunft der Textgenerierung eher eintönig oder bunter, wenn Sprachmodelle immer mehr übernehmen?

    Gerade das ganze Gerede um "starke KI" (die Super-Allzweck-KI) wirkt für mich irgendwie wie Science-Fiction – vielleicht irre ich mich, aber so richtig nah dran fühlen sich die jetzigen Ansätze noch nicht an. Mich beschäftigt eher, wie wir schon mit reaktiven oder engen KIs unseren Alltag unmerklich verändern. Kalender, Newsfeeds, Gesundheitstipps… vieles merkt man gar nicht mehr, wie KI dahintersteckt.

    Ob wir uns zu sehr auf solche Systeme einlassen, ohne dass wir durchblicken, auf welchen Daten und Bias die Entscheidungen wirklich beruhen? Bin gespannt, wie ihr das für euch einschätzt – fühlt ihr euch von der allgegenwärtigen "leisen KI" eher unterstützt oder eher gesteuert? 🤔

    Mir ist aufgefallen, dass Zeitangaben im Prompt manchmal richtig viel ausmachen… Wenn ich z.B. explizit schreibe „Antworte wie im Jahr 2030“ oder „mit Wissen von 1990“, krieg ich oft total andere Perspektiven von der KI. Das kann sogar helfen, eingefahrene Muster zu durchbrechen – vor allem, wenn man sonst immer nur Gegenwart abfragt. 🕰️

    Hat jemand von euch schon mal systematisch verschiedene Zeiträume ausprobiert? Bin gespannt, ob das dsa Prompt-Ergebnis noch kreativer macht oder irgendwann einfach nur verwirrt.