Sabine Köszegi im Interview: Wird automatisch alles gut?

Inhalt

  1. Seite 1 - „Frauen werden stärker von der Automatisierung betroffen sein.”
  2. Seite 2 - „Junge, weiße Männer programmieren sich Spielzeuge.”
  3. Seite 3 - „Wir müssen als Gesellschaft eine Wertefrage lösen.”
  4. Auf einer Seite lesen >
Der Einsatz künstlicher Intelligenz verändert die Arbeitswelt. Betroffen sind davon viele Jobs, die derzeit von Frauen ausgeübt werden, sagt Sabine Köszegi, Vorsitzende des Robotikrats, im Interview. Sie fordert, Arbeitnehmer:innen in den Prozess der Automatisierung einzubinden.

Porträt Sabine Köszegi
Robotisierung und Automatisierung werden den Gender-Pay-Gap nicht lösen. Im Gegenteil. | © Markus Zahradnik

Welche Fallen gilt es dabei zu vermeiden?

Es sollten keine Jobs entstehen, in denen wir nur mehr überwachen. Das funktioniert nicht, wie wir zum Beispiel von der Automatisierung beim Fahren mit Spurassistent, Bremsassistent und automatisiertem Abstandhalten wissen. Wenn für uns quasi nichts mehr zu tun ist, außer in Ausnahmesituationen einzuspringen, dann können wir das nicht gut. Wir sind nicht achtsam und verlernen, in kritischen Situationen richtig zu reagieren. Solche Jobs tun also weder dem Menschen gut, noch erhöht das die Sicherheit, weil so Fehler passieren. Von einer arbeitswissenschaftlichen Perspektive aus betrachtet macht es daher Sinn, sich zu überlegen: Wenn ich KI-Systeme implementiere, was macht das mit den Menschen, die diese Systeme bedienen?

Das andere Thema ist Qualifizierung. Diese Tools kann man nicht einfach anwenden, man braucht dafür „Digital Literacy“. Wir sprechen davon, dass Kinder, die Social Media nutzen, wissen sollten, was das für Konsequenzen haben kann. Genauso ist es bei automatisierten Systemen. Entscheidungen werden nicht automatisch besser, nur weil man zum Beispiel algorithmische Systeme einsetzt. Man muss sie auch richtig einsetzen und die Nutzer:innen entsprechend schulen, damit sie die Komplexität der Systeme verstehen und erkennen, was diese können und was sie nicht können.

Bräuchte es hier auch mehr durch staatliche Förderungen unterstützte Ausbildungsangebote?

Weder der primäre noch der sekundäre noch der tertiäre Bildungsmarkt kann das alleine schaffen. Es braucht die Unternehmen, die hier aus- und weiterbilden. Da kann man staatliche Anreize setzen. Am Ende des Tages wird ein großer Teil dieser Qualifizierung von der Wirtschaft getragen werden müssen – sie profitiert ja auch von der Automatisierung am meisten. Unternehmen versuchen teilweise, neue Mitarbeiter:innen, die bereits über solche Qualifikationen verfügen, zu rekrutieren, aber der Arbeitsmarkt ist leer gefegt von Leuten, die diese digitalen Skills haben. Viele Betriebe wissen also bereits, dass sie in die Weiterbildung ihrer bestehenden Mitarbeiter:innen investieren müssen.

Wir müssen als Gesellschaft die Wertefrage lösen,
wie wir Menschen fördern wollen und wie wir
Ressourcen effizient einsetzen können. 

Sabine Köszegi

Der Gender Gap zeigt sich aber auch auf einer anderen Ebene: Welchen Einfluss hat es auf das Arbeiten von KI, dass das Gros der Entwickler:innen und Programmierer:innen männlich ist?

Wenn man es zynisch formulieren würde, könnte man sagen, dass junge, weiße Männer, die alleinstehend sind, sich die Spielzeuge programmieren, die ihr Leben ermöglichen, wie zum Beispiel all die Delivery-Apps oder die Shooter Games. Diese Dinge sind ja auf eine ganz spezifische Zielgruppe abgestimmt. Aber auch wenn man die Qualität von algorithmischen Systemen wissenschaftlich untersucht, zeigt sich, dass wirklich ungefähr die Hälfte dieser Systeme einen gender bias aufzeigt und jedes vierte einen rassistischen Bias hat. Das hat aber auch mit dem Datenmaterial zu tun, mit dem KI-Systeme trainiert werden.

Können Sie das näher erläutern?

KI-Systeme haben zum Beispiel in der Unterscheidung zwischen Katzen- und Hundebildern eine extrem hohe Präzisionsrate. Das hat damit zu tun, dass Menschen Milliarden Katzen- und Hundefotos hochladen und es da unglaublich viel Datenmaterial gibt, mit dem man dann eben KI-Systeme trainieren kann. Deswegen funktioniert diese Unterscheidung gut. Wenn man aber zum Beispiel zwischen Hunden und Wölfen unterscheiden will, funktioniert das schon nicht mehr so gut, vor allem funktioniert es nicht mehr über das Tier selber, sondern über den Hintergrund – Wölfe sind nicht im Hauskontext zu finden. Es gibt aber auch deutlich weniger Fotos zum Beispiel von schwarzen Frauen oder überhaupt von Frauen oder von Menschen mit speziellen Beeinträchtigungen wie dem Down Syndrom. Wenn man also nicht Mainstream ist, gibt es einfach weniger Bilder, mit denen man KI trainieren könnte. Face Recognition Software funktioniert daher für eine Gruppe, wo man viel Datenmaterial hat, wunderbar und für eine andere Gruppe überhaupt nicht.

Porträt Sabine Köszegi
„Der Teufelskreis der digitalen Ungleichheit beginnt also mit der ungleichen Aufteilung unbezahlter Arbeit.” | © Markus Zahradnik

Ähnlich verhält es sich auch mit Spracherkennungsprogrammen.

Ja, Spracherkennungsprogramme funktionieren für Kinder- und Frauenstimmen schlechter als für Männerstimmen, weil man mehr Beispiele von Männerstimmen hat. Probleme gibt es aber auch, wenn jemand einen Sprachfehler hat oder eine Sprache zwar perfekt spricht, aber mit Akzent. Insgesamt bedeutet das, je diverser ein Entwickler:innenteam ist, desto eher werden solche Dinge berücksichtigt, weil die involvierten Personen daran denken. Ein weißer 35jähriger Mann, für den immer alles perfekt funktioniert, denkt nicht daran.

Hier schließt sich der Kreis, dass mehr Frauen in MINT-Berufe gehen sollten.

Genau. Es braucht insgesamt mehr Diversität, mehr Offenheit in diesen Fächern. Frauen werden nicht nur ausgeschlossen, sondern es gibt eine ganz spezifische Kultur in diesem MINT-Bereich. Es geht um diese Bro Culture, die dann auch Menschen zum Beispiel mit anderen Hautfarben ausschließt. Emily Chang hat das für die Silicon Valley Kultur beschrieben.

Inhalt

  1. Seite 1 - „Frauen werden stärker von der Automatisierung betroffen sein.”
  2. Seite 2 - „Junge, weiße Männer programmieren sich Spielzeuge.”
  3. Seite 3 - „Wir müssen als Gesellschaft eine Wertefrage lösen.”
  4. Auf einer Seite lesen >

Über den/die Autor:in

Alexia Weiss

Alexia Weiss, geboren 1971 in Wien, Journalistin und Autorin. Germanistikstudium und Journalismusausbildung an der Universität Wien. Seit 1993 journalistisch tätig, u.a. als Redakteurin der Austria Presse Agentur. Ab 2007 freie Journalistin. Aktuell schreibt sie für das jüdische Magazin WINA sowie für gewerkschaftliche Medien wie die KOMPETENZ der GPA-djp oder die Gesunde Arbeit. 2022 erschien ihr bisher letztes Buch "Zerschlagt das Schulsystem ... und baut es neu!" (Verlag Kremayr & Scheriau).

Sie brauchen einen Perspektivenwechsel?

Dann melden Sie sich hier an und erhalten einmal wöchentlich aktuelle Beiträge zu Politik und Wirtschaft aus Sicht der Arbeitnehmer:innen.

Mit dem Absenden dieses Formulars stimme ich der Verarbeitung meiner eingegebenen personenbezogenen Daten gemäß den Datenschutzbestimmungen zu.