![]() |
Sozialgespräch PodcastLanguage: de Genres: Education, Society & Culture Contact email: Get it Feed URL: Get it iTunes ID: Get it |
Listen Now...
Diverstiätssensibler Umgang mit Künstlicher Intelligenz - ein Orientierungsleitfaden
Episode 209
Friday, 15 May, 2026
Was haben Diversität und Gender mit generativer Künstlicher Intelligenz zu tun? Eine ganze Menge, wie meine beiden Gesprächspartnerinnen heute zeigen. Denn Large Language Models (LLM) sind biased, also nicht neutral. Abhängig von Trainingsdaten und Gewichtung der verschiedenen Aspekte haben KI‑Modelle und die auf ihnen basierenden Systeme blinde Flecken und Datenlücken. Diese Konstruktion verstärkt oft Vorurteile und Stereotype und kann damit, vor allem im Kontext der Sozialen Arbeit, ein echtes Problem sein. Sabine Klinger und Susann Sackl-Sharif forschen zu diesen Biases und legen den Fokus auf die mangelnde Diversität und die Gender Data Gap. Der Gender Data Gap beschreibt eine traurige Tatsache: Die meisten Daten, sei es medizinisch, soziologisch oder in anderen Kontexten, werden zu Männern erfasst. Frauen wurden und werden deutlich weniger erfasst. Das führt dazu, dass wir bei Standardnutzern leider meist wirklich von der männlichen Form sprechen. Bei KI-Systemen bedeutet das: Die Trainingsdaten haben viele blinde Flecken und Lücken in Bezug auf Frauen und ihre Rolle in der Gesellschaft und sie reproduzieren Stereotype und Klischees. Im Podcast machen Sabine und Susanne deutlich, dass wir als Fachkräfte der Sozialen Arbeit durch unsere Prompts, also die Eingaben in KI-Systeme, zumindest eingeschränkt beeinflussen können, ob solche Klischees verstärkt werden. Hier gilt: Weniger ist mehr.








