Das Gendern in der Sprache dient dem Ziel, eine geschlechtergerechte Kommunikation zu fördern. Es geht darum, alle Geschlechter sprachlich sichtbar zu machen und die Gleichstellung zu unterstützen. Durch das Gendern sollen alle Menschen, unabhängig von ihrem Geschlecht, einbezogen und respektiert werden. Damit soll nicht nur die Gleichberechtigung, sondern auch ein inklusives Miteinander gefördert werden. Das ist das Ziel dahinter.

Die deutsche Sprache kennt mehrere Möglichkeiten geschlechtergerecht zu formulieren, in den vergangenen Jahren hat sich jedoch eine für so einige Menschen nicht überblickbare Vielfalt entwickelt, die zu Überforderung und am Ende auch (politischer) Ablehnung geführt hat. Mehr sogar: einige Gendervarianten gelten offiziell als Rechtschreibfehler oder sind verboten worden und können somit bei Beamtinnen und Beamten am Ende zu Geldbußen führen.

Gendersterne und Genderschreibweisen, Genderverbote und generische Maskulina, um nicht alles durcheinander zu werfen, unterscheiden wir am Anfang zwischen diesen verschiedenen Begriffen.

Welche Formen des Genderns gibt es?

Durch die Verwendung von Gender-Sternchen (z.B. „Leser*innen“) oder geschlechtsneutralen Bezeichnungen (z.B. „Studierende“ statt „Studenten“) werden sprachlich alle Geschlechter sichtbar gemacht. An vielen Universitäten und in renommierten Medien sowie den meisten offiziellen Einrichtungen ist die geschlechtergerechte Sprache häufig zur Selbstverständlichkeit geworden. Diese Praxis zielt darauf ab, die Gleichstellung der Geschlechter zu fördern und die Sichtbarkeit aller Geschlechter zu gewährleisten.

Um Texte geschlechtergerecht zu formulieren, können einige einfache Grundregeln beachtet werden, die nicht nur die Inklusion verbessern, sondern oft auch die Lesbarkeit und Verständlichkeit der Texte erhöhen. Es gibt drei grundlegende Ansätze, um Texte gendergerecht zu schreiben:

Neutrale Formulierungen: Diese vermeiden Geschlechtszuweisungen, indem sie Begriffe verwenden, die alle Geschlechter einbeziehen. Beispiel: Anstelle von „Autofahrer“ wird „Autofahrende“ verwendet.

Paarform: Hierbei werden beide Geschlechter explizit genannt, um Inklusion sicherzustellen. Beispiel: „Autofahrer und Autofahrerinnen“.

Gendern mit Sonderzeichen: Diese Methode nutzt verschiedene Zeichen, um Geschlechtervielfalt darzustellen. Zu den gebräuchlichsten Zeichen gehören:

  • Schrägstrich: „Autofahrer/-innen“
  • Sternchen: „Autofahrer*innen“
  • Unterstrich: „Autofahrer_innen“
  • Doppelpunkt: „Autofahrer:innen“

Traditionell wurden in vielen Sprachen, darunter auch Deutsch, oft männliche Formen verwendet, um gemischte Gruppen oder Personen unbekannten Geschlechts zu bezeichnen. Diese Praxis kann jedoch dazu führen, dass andere Geschlechter unsichtbar bleiben und sich nicht angesprochen fühlen.

„Genderverbote“

Genderverbote, also Vorschriften oder Empfehlungen, die das Gendern in bestimmten Kontexten untersagen, haben verschiedene Gründe und Hintergründe, die in der gesellschaftlichen und politischen Diskussion eine Rolle spielen. In einigen Bundesländern in Deutschland (Hessen und Bayern), aber auch in Niederösterreich gibt es bereits entsprechende Verordnungen.

Ein Argument gegen das Gendern ist die Sorge, dass es die Lesbarkeit und Verständlichkeit von Texten beeinträchtigen könnte. Kritiker befürchten, dass der Einsatz von Sonderzeichen wie Sternchen, Unterstrich oder Doppelpunkt den Lesefluss stören und insbesondere Menschen mit Leseschwierigkeiten benachteiligen könnte. Dazu kommt, dass es keine bis dato einheitliche Regelung gibt und in den letzten Jahren immer neue Phänomene entstanden sind.

In manchen Fällen können praktische Gründe eine Rolle spielen. Zum Beispiel könnte in behördlichen oder juristischen Texten das Gendern zu Missverständnissen oder Interpretationsproblemen führen. Hier wird manchmal argumentiert, dass Klarheit und Eindeutigkeit wichtiger sind als die Berücksichtigung geschlechtlicher Vielfalt. Das sind so weit rein praktische Gründe. Doch es gibt auch andere Anlässe.

Genderverbote können auch auf ideologischen oder politischen Überzeugungen basieren. Einige Gruppen/Parteien lehnen geschlechtergerechte Sprache als Ausdruck einer bestimmten politischen Agenda ab und betrachten sie als Versuch, gesellschaftliche Normen und Werte zu verändern. Es gibt auch gesellschaftliche Gruppen, die das Gendern grundsätzlich ablehnen und in einem Verbot eine Möglichkeit sehen, ihre Haltung durchzusetzen. Sie argumentieren, dass Sprache sich organisch entwickeln sollte und nicht durch Vorschriften verändert werden darf. Ebenso steht auch eine Überforderung im Raume, bzw., die Angst, Fehler zu begehen.

Verbote und das Wiedererstarken des „Generischen Maskulinums“

Einige Menschen und Institutionen sehen in der traditionellen, generischen Verwendung des Maskulinums eine bewährte und ästhetisch ansprechende Form der Sprache. Sie empfinden das Gendern als unnötig kompliziert und als Bruch mit der traditionellen Sprachkultur. Das generische Maskulinum steht dabei im Zentrum. Hierbei handelt es sich um eine sprachliche Form, bei der männliche Bezeichnungen verwendet werden, um sowohl Männer als auch Frauen sowie Personen unbekannten Geschlechts zu benennen. Es ist eine traditionelle Praxis in vielen Sprachen, einschließlich Deutsch, bei den maskulinen Wortformen als allgemeingültig und geschlechtsneutral betrachtet werden.

Das Wort „Arzt“ kann in dieser Form sowohl männliche als auch weibliche Ärzte bezeichnen. „Studenten“ wird oft verwendet, um alle Studierenden unabhängig vom Geschlecht anzusprechen. Historisch gesehen wurde das generische Maskulinum verwendet, um Sprache zu vereinfachen und zu verallgemeinern. Es sollte als eine praktische Lösung dienen, um gemischte oder unbestimmte Gruppen anzusprechen, ohne mehrere Formen zu verwenden.

Problemansatz: Frauen „verschwinden“

Ein Genderverbot, das die Verwendung geschlechtergerechter Sprache unterbindet, könnte tatsächlich dazu führen, dass das generische Maskulinum stärker genutzt wird. Dies ist derzeit nur ein theoretischer Ansatz, aber verfolgen wir diesen Gedanken einfach weiter.

Ein Verbot von gendergerechter Sprache kann eine Rückkehr zu traditionellen sprachlichen Normen führen. Da das generische Maskulinum historisch tief in vielen Sprachen verankert ist, würde seine Verwendung automatisch wieder zunehmen. Die Sprache würde sich somit auf altbewährte Muster stützen, die lange Zeit als Standard galten. Das generische Maskulinum bietet eine vermeintlich einfachere und bequemere Lösung für viele Menschen. Ohne den Druck, gendergerechte Alternativen zu finden, wird die Tendenz bestehen, die einfachere Form zu wählen, die bereits fest in der Sprache verankert ist.

Abgesehen von gesellschaftlichen Symbolproblemen, wie dem Stärken patriarchalischer Strukturen und männlicher Dominanz in der Sprache und Kultur, öffnet sich noch ein ganz anderes Problemfeld: Das Verschwinden von Frauen oder weiteren schriftlich und mündlich genannten Geschlechtern im Trainingsmaterial für Künstliche Intelligenz (KI)!

Was ist Trainingsmaterial für KI?

Als Trainingsmaterial für KI bezeichnet man die Daten, die verwendet werden, um KI-Modelle zu entwickeln und zu verbessern. Diese Materialien sind entscheidend für das Lernen und die Leistungsfähigkeit von KI-Systemen. Sie bestehen aus großen Mengen an strukturierten und unstrukturierten Daten, die aus verschiedenen Quellen stammen können.

Dazu gehören Bücher, Artikel, Webseiten und andere schriftliche Inhalte, die dazu beitragen, Sprachmodelle zu trainieren. Beispiele sind Wikipedia-Artikel oder Nachrichtenbeiträge. Bilddaten sind ebenso wichtig. Hier sprechen wir von Fotos, Zeichnungen und Grafiken, die für die Entwicklung von Bildverarbeitungsmodellen verwendet werden. Auber auch Audio- und Videodaten, sowie Sensordaten können Trainingsmaterial sein.

Wichtig hierbei sind Qualität, Quantität, Aktualität und Repräsentativität.

Warum zumindest das paarweise Gendern im KI-Trainingsmaterial unverzichtbar ist

Ich halte mich beim Thema Gendern grundsätzlich ein wenig zurück, doch in Bezug auf KI und deren fortlaufende Entwicklung möchte ich meine Bedenken bezüglich des generischen Maskulinums einmal ausführlich darlegen. Abgesehen von der gesellschaftlichen Bedeutung, die alle Geschlechter sprachlich sichtbar zu machen, gibt es wesentliche Gründe, warum es gerade im Online-Trainingsmaterial für KI unabdingbar ist, alle Geschlechter zu berücksichtigen.

Wenn eine KI ausschließlich mit dem generischen Maskulinum trainiert wird, erhält sie eine verzerrte und unvollständige Darstellung der Welt. Sie hat dann schlichtweg eine Unvollständige Vorstellung von der Realität. Die KI erkennt nicht, dass es neben Männern auch Frauen und nicht-binäre Personen gibt. Dies führt dazu, dass die KI nicht in der Lage ist, angemessen auf verschiedene Geschlechter zu reagieren oder sie korrekt zu berücksichtigen.

Eine KI, die nur das generische Maskulinum kennt, kann falsche oder stark verzerrte Ergebnisse liefern. Beispielsweise könnte sie dazu tendieren, Berufe oder soziale Rollen ausschließlich Männern zuzuordnen. Ein Beispiel: Wenn eine KI lernt, dass „Ingenieure“ immer männlich sind, wird sie wahrscheinlich Frauen in diesem Beruf ignorieren oder falsch einordnen. Diese verzerrte Sichtweise entspricht nicht der Realität und untergräbt die Vielfalt und Inklusion, die in modernen Gesellschaften angestrebt wird.

Das dies sogar der Fall ist, konnte am Jahresanfang 2024 beobachtet werden. Seit Anfang Januar hat das österreichische Arbeitsmarktservice (AMS) eine künstliche Intelligenz auf Basis von ChatGPT eingeführt – den sogenannten „Berufsinfomat“. Diese Technologie sollte es den Nutzerinnen und Nutzern ermöglichen, in Echtzeit umfassende Informationen über verschiedenste Berufe abzurufen. Klingt in erster Linie gut, diese „Recherche auf Knopfdruck“ hat aber seine Tücken: Die inhaltliche Ebene des „Berufsinfomaten“ zeigte sich als stereotypisch problematisch!

Ein zentraler Kritikpunkt ist, dass das Programm sexistische Antworten liefert und dadurch bestehende Ungleichverhältnisse zwischen den Geschlechtern reproduziert. Zwar wurde durch den AMS-Chef Johannes Kopf bei einer Pressekonferenz erklärt, dass das Programm darauf trainiert wurde, sogenannte „Gender Biases“ (geschlechtsabhängige Vorurteile) zu vermeiden. Dies hätte bedeutet, dass Mädchen nicht mehr automatisch klassische Frauenberufe empfohlen werden, da dies eine statistisch wahrscheinlichere Berufswahl ist. Doch die Realität zeigte ein anderes Bild.

Bei einer praktischen Überprüfung kam heraus, dass der „Berufsinfomat“ unterschiedliche Empfehlungen für Männer und Frauen ausgibt. Unabhängig ihrer Leistungen, lediglich basierend auf ihrem Geschlecht! Frauen wurden beispielsweise Berufe im Gesundheitswesen, in der Pflege, Schönheitspflege, Kreatives, Mode und Design sowie auch in IT, Handel und Verkauf vorgeschlagen. Männern mit derselben Ausbildung und im selben Alter empfiehlt das Programm hingegen als erstes den Beruf des Software-Entwicklers, aber auch Positionen wie Restaurantfachmann, Lagerarbeiter, Einzelhandelskaufmann, Koch, Raumpfleger oder Fachkraft in der Buchhaltung.

Diese Unterschiede in den Empfehlungen verdeutlichen, dass trotz der Bemühungen, den „Gender Bias“ zu eliminieren, noch immer geschlechtsspezifische Verzerrungen bestehen. Das ist auch konsequent logisch, denn KI ist eine Mustererkennung, die anhand ihres Trainingsmaterials mit möglichst vielen Beispielen ein Ergebnis generiert. Gehen wir diesen Weg weiter anhand der Annahme, das generische Maskulinum erlebt seine Renaissance!

Durch die ausschließliche Verwendung des generischen Maskulinums wird die KI unweigerlich diskriminierende Muster entwickeln. Sie ignoriert die Existenz und Bedeutung anderer Geschlechter und verstärkt dadurch unbewusst Stereotype und Vorurteile. Dies kann, wie bereits am Beispiel des AMS erlebt, dazu führen, dass die KI bei Entscheidungen und Empfehlungen voreingenommen agiert und damit diskriminierende Praktiken fördert.

Auf den Punkt gebracht: Eine KI könnte zu dem Schluss kommen, dass es lediglich Männer gibt, dass nur Männer wichtige Aufgaben übernehmen (weil Berufsbilder stets männlich bezeichnet werden) oder dass Männer in der Gesellschaft eine vorrangige Rolle spielen. Dies mag im Moment vielleicht albern klingen, doch wenn man bedenkt, dass KI in Zukunft immer mehr Entscheidungsgewalt bekommt, kann das zu ernsthaften Problemen führen.

Zukunftsperspektive und Entscheidungsgewalt?!

Da KI-Systeme zunehmend in wichtigen Bereichen wie Personalentscheidungen, medizinischen Diagnosen und sogar juristischen Bewertungen eingesetzt werden, müssen wir uns fragen, wie wichtig eine gendergerechte Sprache im Trainingsmaterial ist. Ebenso sind gendergerechte Daten wichtig. KI, die von Männern „programmiert“ und administriert, sowie mit Trainingsmaterial gefüttert wird, generiert mit großer Wahrscheinlichkeit komplett anders als eine „gendergerechte KI“. Wenn KI in Zukunft Entscheidungen treffen soll, ist eine ausgewogene und gleichwertige Sicht auf die Gesellschaft unerlässlich. Ein KI-System, das auf der Grundlage des generischen Maskulinums trainiert wurde, könnte Frauen und nicht-binäre Personen systematisch benachteiligen, was langfristig zu einer Verstärkung bestehender Ungleichheiten führt.

Ich bringe einmal bewusst dystopisch gestaltetes Beispiel: Eine KI für autonomes Fahren, die anhand des Trainingsmaterials den Eindruck bekommt, Männer haben einen „größeren Wert“ als Frauen, könnte im Ernstfall einer Kollision sich für das Leben des Mannes entscheiden.

Das wäre dann nicht nur der digitale Tod der Frau.

Verwendete Quellen:

https://www.bundeskanzleramt.gv.at/agenda/frauen-und-gleichstellung/gleichbehandlung/sprachliche-gleichbehandlung/sprachliche-gleichbehandlung-frauen-maenner.html

https://orf.at/stories/3353192

https://www.antenne.de/nachrichten/bayern/gender-verbot-was-passiert-wenn-beamten-gendern

https://www.zdf.de/nachrichten/politik/deutschland/gendern-genderverbot-hessen-100.html

https://www.scribbr.at/category/richtig-gendern-at

https://www.ams.at/regionen/osterreichweit/news/2024/01/kuenstliche-intelligenz-unterstuetzt-bei-berufsinformation

https://futurezone.at/digital-life/chatbot-ams-chatgpt-berufsinfomat-kritik-sexismus-stereotype-kosten-mangel/402729334

https://kurier.at/wirtschaft/berufsinfomat-ams-kuenstliche-intelligenz-arbeitsmarkt-chatgpt/402728200

– https://www.vol.at/ab-august-in-niederosterreich-wer-gendert-zahlt-strafe/8199319

Das könnte ebenso interessieren: Fotos von lächelndem Donald Trump und lächelnden Sicherheitskräften nach Attentat wurden bearbeitet


Hinweis: Dieser Inhalt gibt den Stand der Dinge wieder, der zum Zeitpunkt der Veröffentlichung aktuell
war. Die Wiedergabe einzelner Bilder, Screenshots, Einbettungen oder Videosequenzen dient zur
Auseinandersetzung der Sache mit dem Thema.