Sabine Köszegi im Interview: Wird automatisch alles gut?

Porträt Sabine Köszegi
„Es sollten keine Jobs entstehen, in denen wir nur mehr überwachen. Das funktioniert nicht“, so Sabine Köszegi. | © Markus Zahradnik

Inhalt

  1. Seite 1 - „Frauen werden stärker von der Automatisierung betroffen sein.”
  2. Seite 2 - „Junge, weiße Männer programmieren sich Spielzeuge.”
  3. Seite 3 - „Wir müssen als Gesellschaft eine Wertefrage lösen.”
  4. Auf einer Seite lesen >
Der Einsatz künstlicher Intelligenz verändert die Arbeitswelt. Betroffen sind davon viele Jobs, die derzeit von Frauen ausgeübt werden, sagt Sabine Köszegi, Vorsitzende des Robotikrats, im Interview. Sie fordert, Arbeitnehmer:innen in den Prozess der Automatisierung einzubinden.
Im Jahr 2017 beschloss das Infrastrukturministerium, einen Rat für Robotik einzurichten. Dieser sollte Strategien entwickeln, um die Chancen der rasanten Entwicklung von Robotik und künstlicher Intelligenz bestmöglich zu nutzen. Unter der Leitung von Sabine Köszegi, Professorin für Arbeitswissenschaft und Organisation an der TU Wien, berät das achtköpfige Gremium das Ministerium, die Wirtschaft, Gewerkschaften und Betriebsräte, um die Transformation positiv zu gestalten. Sabine Köszegi forscht zudem seit vielen Jahren zu Geschlechterverhältnissen, Robotik und den ökonomischen Folgen der Digitalisierung. Im Interview mit Arbeit&Wirtschaft erläutert sie, wie künstliche Intelligenz Frauen auf dem Arbeitsmarkt benachteiligt, warum partizipatives Design so wichtig ist und warum wir uns immer fragen sollten, welche Motivation hinter einer Technologie steckt. Wir sprechen mit Sabine Köszegi in ihrem Garten, ganz analog.

Zur Person
Sabine Theresia Köszegi, geb. 1970 in Wegscheid in Deutschland, ist Professorin für Arbeitswissenschaft und Organisation am Institut für Managementwissenschaften der TU Wien sowie Akademische Leiterin des Executive MBA Innovation, Digitalisierung und Entrepreneurship an der TU Academy for Continuing Education. Als Mitglied der Europäischen Akademie der Wissenschaften und Künste sowie in der Arbeitsgruppe „Future of Work“ des Europäischen Thinktanks Bruegel forscht und arbeitet sie an der Schnittstelle zwischen Technologie, Arbeit und Organisation. 2020 erhielt sie den österreichischen Käthe Leichter-Staatspreis für exzellente Genderforschung .

Arbeit&Wirtschaft: Künstliche Intelligenz (KI) ist nicht zuletzt seit dem Aufkommen von ChatGPT in aller Munde und hat auch Befürchtungen ausgelöst, dass Jobs durch den Einsatz von KI verloren gehen. Ist diese Sorge berechtigt?

Sabine Köszegi: Jein. Aufgaben, die gut strukturiert und planbar sind und die oft wiederholt werden müssen, können nun automatisiert werden. Es gibt kaum Jobs, die nicht solche Aufgaben beinhalten – manche mehr, manche weniger. Dabei passiert Automatisierung ja schon lange. Wir kennen sie aus der Industrialisierung, aber auch in Werkstätten, wo manuelle Aufgaben von Maschinen übernommen wurden. Neu bei KI ist nun, dass auch kognitive Aufgaben automatisiert werden können.

Welche Branchen und welche Tätigkeiten sind hier besonders betroffen?

Bankangestellte haben früher Überweisungen getätigt und Ein- und Auszahlungen durchgeführt. Das kann automatisiert werden. Es betrifft aber auch die Buchhaltung oder Standard-Steuerberatung, wo es mittlerweile schon Apps gibt. All das, wofür früher Sachbearbeiter:innen zuständig waren, wo beispielsweise Kund:innendaten eingegeben und bearbeitet und Datenbanken gewartet wurden, aber auch die typischen Sekretariatsarbeiten: Solche Tätigkeiten können nun auch automatisiert werden. Das Kuratieren von Daten wird zwar weiter ein wichtiger Job sein, aber mit ganz anderen Anforderungen. Ein Beispiel: die Wahlstimmenauszählungsautomaten in den USA. Stimmen auszuzählen an sich ist ja nicht schwer. Aber jetzt braucht es jemanden, der sich mit dieser Technologie auskennt. Wie stelle ich die Qualität sicher? Wie garantiere ich Cybersicherheit? So ein System kann gehackt werden. Plötzlich gibt es da ganz neue Herausforderungen, für die es dann aber eine ganz andere Qualifikation braucht.

Porträt Sabine Köszegi
Die Robotisierung und Automatisierung werde die Lohnungleichheit zwischen Frauen und Männern verstärken, warnt Sabine Köszegi, Vorsitzende des Robotikrats. | © Markus Zahradnik

Aus der Gender-Perspektive bedeutet das auch: Jobs, die bisher eher Frauen ausführten, wie Daten manuell in den Computer einzugeben, lösen Tätigkeiten ab, die eher Männern ausüben, wie Programme zu entwickeln. Geht hier eine zusätzliche Schere zwischen den Geschlechtern auf?

Das ist tatsächlich so. Es gibt aktuelle Studien, die zeigen, dass – egal, in welche Branche Sie gehen und welche Jobs Sie sich ansehen – der Anteil an Routinetätigkeiten bei Frauen höher ist. Damit werden Frauen auch stärker von dieser Automatisierung betroffen sein. Und wenn Frauen nicht in die MINT-Ausbildung – also in Disziplinen wie Mathematik, Informationstechnologie, Naturwissenschaften und Technik – hineingehen, weil das nicht stereotyp zu ihrer Geschlechterrolle passt, dann sind sie eben aus diesen Berufen zum Teil ausgeschlossen. Ebenfalls interessant: Schaut man sich an, welche Auswirkungen Robotisierung und Automatisierung auf den Gender-Pay-Gap haben, zeigt sich, dass die Lohnungleichheit zwischen Frauen und Männern dadurch steigt. Insgesamt geht sich das vielleicht mit den Jobs sogar aus, und es ist keine Massenarbeitslosigkeit zu befürchten, aber in die besseren Jobs kommen tendenziell eher die Männer, weil sie eben die entsprechenden Ausbildungen haben.

Über die MINT-Krise und darüber, dass technische und naturwissenschaftliche Fächer vor allem mehr Frauen nähergebracht werden müssen, reden wir als Gesellschaft schon seit Jahrzehnten. Die Anstrengungen, die unternommen werden, setzen allerdings oft zu spät, nämlich erst in den weiterführenden Schulen an. Bräuchte es hier Initiativen in Kindergärten und Volksschulen?

Ich würde noch früher ansetzen, nämlich bei der Verteilung unbezahlter Arbeit. Frauen leisten in Europa im Schnitt 2,4-mal mehr unbezahlte Arbeit als Männer. Das heißt, in den Haushalten ist immer noch völlig klar, wer wofür zuständig ist. Der Kindergarten ist auch ganz wichtig, natürlich. Aber zu Hause gibt es immer noch oft eine sehr stereotype Rollenverteilung zwischen Eltern: Der Papi geht arbeiten, und die Mami ist zu Hause und ist für das Umsorgen, das Nähren, das Unterstützen zuständig. Frauen haben während der Zeit, in der sie diese Care-Arbeit leisten, keine Zeit, ihre Karriere zu entwickeln. Gleichzeitig lernen die Kinder ein ganz spezifisches Rollenbild. Der Teufelskreis der digitalen Ungleichheit beginnt also mit der ungleichen Aufteilung unbezahlter Arbeit.

Solche Prozesse dauern allerdings Jahrzehnte. Automatisierung durch KI ist aber jetzt schon Realität. Wie können Unternehmen ihre Beschäftigten bei der Transformation der Schreibtischjobs mitnehmen und einbinden?

Ich war Teil der High-Level-Expert:innen-Gruppe der EU, wo wir dazu Empfehlungen entwickelt haben. Genau das war eine der Empfehlungen: Arbeitnehmer:innen in den Prozess der Automatisierung einzubeziehen. Wie funktioniert das konkret? Tools werden auf das Unternehmen hin entwickelt oder für den Betrieb adaptiert. Was ein solches Tool kann, ist nicht gottgegeben, sondern eine Design-Entscheidung. Durch ein „Participatory Design“ können Arbeitnehmer:innen in diesen Prozess eingebunden werden, etwa indem man sich anschaut, welche Aspekte der Arbeit mühsam sind. Die Frage lautet also: Wie kreiere ich Arbeitsplätze, die für den Menschen spannend und nicht ermüdend sind und auch kreatives Verwirklichen zulassen.

Porträt Sabine Köszegi
Robotisierung und Automatisierung werden den Gender-Pay-Gap nicht lösen. Im Gegenteil. | © Markus Zahradnik

Welche Fallen gilt es dabei zu vermeiden?

Es sollten keine Jobs entstehen, in denen wir nur mehr überwachen. Das funktioniert nicht, wie wir zum Beispiel von der Automatisierung beim Fahren mit Spurassistent, Bremsassistent und automatisiertem Abstandhalten wissen. Wenn für uns quasi nichts mehr zu tun ist, außer in Ausnahmesituationen einzuspringen, dann können wir das nicht gut. Wir sind nicht achtsam und verlernen, in kritischen Situationen richtig zu reagieren. Solche Jobs tun also weder dem Menschen gut, noch erhöht das die Sicherheit, weil so Fehler passieren. Von einer arbeitswissenschaftlichen Perspektive aus betrachtet macht es daher Sinn, sich zu überlegen: Wenn ich KI-Systeme implementiere, was macht das mit den Menschen, die diese Systeme bedienen?

Das andere Thema ist Qualifizierung. Diese Tools kann man nicht einfach anwenden, man braucht dafür „Digital Literacy“. Wir sprechen davon, dass Kinder, die Social Media nutzen, wissen sollten, was das für Konsequenzen haben kann. Genauso ist es bei automatisierten Systemen. Entscheidungen werden nicht automatisch besser, nur weil man zum Beispiel algorithmische Systeme einsetzt. Man muss sie auch richtig einsetzen und die Nutzer:innen entsprechend schulen, damit sie die Komplexität der Systeme verstehen und erkennen, was diese können und was sie nicht können.

Bräuchte es hier auch mehr durch staatliche Förderungen unterstützte Ausbildungsangebote?

Weder der primäre noch der sekundäre noch der tertiäre Bildungsmarkt kann das alleine schaffen. Es braucht die Unternehmen, die hier aus- und weiterbilden. Da kann man staatliche Anreize setzen. Am Ende des Tages wird ein großer Teil dieser Qualifizierung von der Wirtschaft getragen werden müssen – sie profitiert ja auch von der Automatisierung am meisten. Unternehmen versuchen teilweise, neue Mitarbeiter:innen, die bereits über solche Qualifikationen verfügen, zu rekrutieren, aber der Arbeitsmarkt ist leer gefegt von Leuten, die diese digitalen Skills haben. Viele Betriebe wissen also bereits, dass sie in die Weiterbildung ihrer bestehenden Mitarbeiter:innen investieren müssen.

Wir müssen als Gesellschaft die Wertefrage lösen,
wie wir Menschen fördern wollen und wie wir
Ressourcen effizient einsetzen können. 

Sabine Köszegi

Der Gender Gap zeigt sich aber auch auf einer anderen Ebene: Welchen Einfluss hat es auf das Arbeiten von KI, dass das Gros der Entwickler:innen und Programmierer:innen männlich ist?

Wenn man es zynisch formulieren würde, könnte man sagen, dass junge, weiße Männer, die alleinstehend sind, sich die Spielzeuge programmieren, die ihr Leben ermöglichen, wie zum Beispiel all die Delivery-Apps oder die Shooter Games. Diese Dinge sind ja auf eine ganz spezifische Zielgruppe abgestimmt. Aber auch wenn man die Qualität von algorithmischen Systemen wissenschaftlich untersucht, zeigt sich, dass wirklich ungefähr die Hälfte dieser Systeme einen gender bias aufzeigt und jedes vierte einen rassistischen Bias hat. Das hat aber auch mit dem Datenmaterial zu tun, mit dem KI-Systeme trainiert werden.

Können Sie das näher erläutern?

KI-Systeme haben zum Beispiel in der Unterscheidung zwischen Katzen- und Hundebildern eine extrem hohe Präzisionsrate. Das hat damit zu tun, dass Menschen Milliarden Katzen- und Hundefotos hochladen und es da unglaublich viel Datenmaterial gibt, mit dem man dann eben KI-Systeme trainieren kann. Deswegen funktioniert diese Unterscheidung gut. Wenn man aber zum Beispiel zwischen Hunden und Wölfen unterscheiden will, funktioniert das schon nicht mehr so gut, vor allem funktioniert es nicht mehr über das Tier selber, sondern über den Hintergrund – Wölfe sind nicht im Hauskontext zu finden. Es gibt aber auch deutlich weniger Fotos zum Beispiel von schwarzen Frauen oder überhaupt von Frauen oder von Menschen mit speziellen Beeinträchtigungen wie dem Down Syndrom. Wenn man also nicht Mainstream ist, gibt es einfach weniger Bilder, mit denen man KI trainieren könnte. Face Recognition Software funktioniert daher für eine Gruppe, wo man viel Datenmaterial hat, wunderbar und für eine andere Gruppe überhaupt nicht.

Porträt Sabine Köszegi
„Der Teufelskreis der digitalen Ungleichheit beginnt also mit der ungleichen Aufteilung unbezahlter Arbeit.” | © Markus Zahradnik

Ähnlich verhält es sich auch mit Spracherkennungsprogrammen.

Ja, Spracherkennungsprogramme funktionieren für Kinder- und Frauenstimmen schlechter als für Männerstimmen, weil man mehr Beispiele von Männerstimmen hat. Probleme gibt es aber auch, wenn jemand einen Sprachfehler hat oder eine Sprache zwar perfekt spricht, aber mit Akzent. Insgesamt bedeutet das, je diverser ein Entwickler:innenteam ist, desto eher werden solche Dinge berücksichtigt, weil die involvierten Personen daran denken. Ein weißer 35jähriger Mann, für den immer alles perfekt funktioniert, denkt nicht daran.

Hier schließt sich der Kreis, dass mehr Frauen in MINT-Berufe gehen sollten.

Genau. Es braucht insgesamt mehr Diversität, mehr Offenheit in diesen Fächern. Frauen werden nicht nur ausgeschlossen, sondern es gibt eine ganz spezifische Kultur in diesem MINT-Bereich. Es geht um diese Bro Culture, die dann auch Menschen zum Beispiel mit anderen Hautfarben ausschließt. Emily Chang hat das für die Silicon Valley Kultur beschrieben.

Vor einigen Jahren gab es eine große Aufregung um einen AMS-Algorithmus, der offenbar Frauen weniger unterstützte als Männer. Wie kann man solche Entwicklungen vermeiden?

Dieser Algorithmus ist ein gutes Beispiel, um zu erklären, warum es bei der Einführung einer Technologie so wichtig ist, sich genau zu überlegen, was dahintersteht. Der AMS-Algorithmus war ein transparentes statistisches Modell, das berechnete, wie hoch die Chancen für Menschen mit bestimmten Merkmalen, also Alter, Geschlecht, Migrationshintergrund, Bildung etc., sind, auf dem Arbeitsmarkt einen Job zu finden. Der Algorithmus hat auf Basis von individuellen Daten und Arbeitsmarktdaten eine empirische Realität abgebildet und Menschen anhand ihrer Chancen in drei Gruppen aufgeteilt: gut vermittelbar, vermittelbar und schlecht/nicht vermittelbar. Auf Basis dieser Kategorisierung sollten Personen Zugang zu AMS-Förderungen wie Ausbildungen bekommen oder eben nicht. Das ist aber eine ethische Fragestellung: Wer soll vom AMS profitieren? Wie können wir unsere Ressourcen effizient und sozial gerecht einsetzen? Was ist fair?

Porträt Sabine Köszegi
Den MINT-Bereich sieht Sabine Köszegi noch immer als klar männlich: „Es geht um diese Bro Culture, die dann auch Menschen zum Beispiel mit anderen Hautfarben ausschließt.” | © Markus Zahradnik

Das ist ziemlich problematisch …

Das Problematische dabei ist, dass eine schwierige Entscheidung auf ein vermeintlich objektives und intelligentes System übertragen wird – etwa die Entscheidung, ob eine Frau über 50, die kaum mehr Chancen auf dem Arbeitsmarkt hat, noch eine Schulung bekommen soll. Den Mitarbeiter:innen im AMS wird aber damit ein Stück weit die Handlungsmacht genommen – und auch die Verantwortung. Entscheidungen, die sie sonst selbst treffen müssten, indem sie jeden einzelnen Fall individuell beurteilen, übernimmt der Algorithmus.

Welchen Auftrag haben wir als Gesellschaft dabei?

Wir müssen als Gesellschaft die Wertefrage lösen, wie wir Menschen fördern wollen und wie wir Ressourcen effizient einsetzen können. Diese Entscheidung kann nicht an KI-Systeme delegiert werden. AMS-Mitarbeiter:innen sollten auch die individuelle Situation ihrer Klient:innen berücksichtigen. Solche Entscheidungen dürfen daher nicht Maschinen überlassen werden, sie können aber durch algorithmische Systeme, die transparent und vertrauenswürdig sind, gestützt sein. Der springende Punkt bei der Einführung solcher Systeme ist daher, wo am Ende die Handlungsmacht liegt. Diese sollte immer beim Menschen sein.

Wie sieht es heute mit dem Einsatz von KI auch in Personalabteilungen von Unternehmen aus?

KI wird mittlerweile auch im Recruiting eingesetzt. Auch da kann man viele Entscheidungen automatisieren.  Am meisten bringt das großen Konzernen mit tausenden Bewerbungen, vor allem auch Initiativbewerbungen. Ein kleiner Betrieb mit zehn oder auch mit 100 Mitarbeiter:innen wird nicht so viele Bewerbungen bekommen, dass es weniger sinnvoll sein wird, Algorithmen für dieses Datenmaterial zu erstellen. Bei einer großen Datenbank kann man dann nicht nur offensichtliche Marker wie das Geschlecht oder den Bildungsgrad auswählen. Es können dann auch implizite Kriterien ausgewählt werden, die beispielsweise über das Klick-Verhalten auf Social Media sichtbar werden. Hier ist das Problem, dass dann für die Bewerber:innen schwer zu fassen ist. Sie werden gar nicht einmal angesprochen und wissen nicht, dass Sie hier nicht als potenzielle Kandidat:innen identifiziert wurden. Diese implizite Diskriminierung ist schwierig zu erkennen.

Porträt Sabine Köszegi
Die Handlungsmacht sollte beim Menschen liegen, findet Sabine Köszegi | © Markus Zahradnik

Es gibt aber auch Unternehmen, die von Bewerber:innen verlangen, ein Video hochzuladen. Dann wird KI Software verwendet, um zum Beispiel Rückschlüsse auf ihrer Persönlichkeit zu ziehen. Da gibt es dann die Probleme, die es auch bei der Bild- und Spracherkennung gibt: Wenn Sie eine halbe Gesichtslähmung haben, funktioniert das System überhaupt nicht, und wenn Sie Migrationshintergrund haben und eben nicht zu diesen Standard weißen Männern gehören, werden möglicherweise falsche Rückschlüsse über ihre Persönlichkeit gezogen. Es ist also grundsätzlich problematisch, dass man das macht, zusätzlich kann es dann aber auch zu sehr viel ungerechtfertigter Diskriminierung kommen.

Bräuchte es hier nicht gesetzliche Vorgaben?

Genau das sieht nun der Regulierungsentwurf der Europäischen Kommission, der AI Act, vor. Alles, was im Arbeitskontext an KI eingesetzt wird, Recruiting Systeme werden da auch explizit genannt, müssen Zertifizierungsverfahren durchlaufen. Und da muss nachgewiesen werden, dass keine Diskriminierung stattfindet. Der Algorithmus muss also so trainiert und die Daten müssen so sorgfältig kuratiert werden, dass so ein Bias ausgeschlossen wird.

Inhalt

  1. Seite 1 - „Frauen werden stärker von der Automatisierung betroffen sein.”
  2. Seite 2 - „Junge, weiße Männer programmieren sich Spielzeuge.”
  3. Seite 3 - „Wir müssen als Gesellschaft eine Wertefrage lösen.”
  4. Auf einer Seite lesen >

Über den/die Autor:in

Alexia Weiss

Alexia Weiss, geboren 1971 in Wien, Journalistin und Autorin. Germanistikstudium und Journalismusausbildung an der Universität Wien. Seit 1993 journalistisch tätig, u.a. als Redakteurin der Austria Presse Agentur. Ab 2007 freie Journalistin. Aktuell schreibt sie für das jüdische Magazin WINA sowie für gewerkschaftliche Medien wie die KOMPETENZ der GPA-djp oder die Gesunde Arbeit. 2022 erschien ihr bisher letztes Buch "Zerschlagt das Schulsystem ... und baut es neu!" (Verlag Kremayr & Scheriau).

Sie brauchen einen Perspektivenwechsel?

Dann melden Sie sich hier an und erhalten einmal wöchentlich aktuelle Beiträge zu Politik und Wirtschaft aus Sicht der Arbeitnehmer:innen.

Mit dem Absenden dieses Formulars stimme ich der Verarbeitung meiner eingegebenen personenbezogenen Daten gemäß den Datenschutzbestimmungen zu.