So funktioniert KI: Menschen, Muster und Maschinen

Am Arbeitsplatz oder im Privatbereich: Unsere Berührungspunkte mit künstlicher Intelligenz sind mittlerweile immer und überall. Wie genau diesen Systeme funktionieren, wo die Fallstricke liegen und warum es nicht mehr Transparenz gibt.
Das hat immer mehr Methode: Sie möchten bei einer Versicherung dieselben günstigen Konditionen wie Ihr Nachbar. Aus unerfindlichen Gründen bekommen Sie die aber nicht. Was früher vielleicht der Fehler von Angestellten war, kann heute oft in der Programmierung einer künstlichen Intelligenz begründet sein. „Das kann die Schuld eines Softwareingenieurs sein, oder es ist ein Fehler beim Interpretieren des Ergebnisses“, erklärt Daniela Zimmer, Konsumentenschutzexpertin der Arbeiterkammer Wien. Eine Verzerrung bei der Dateneingabe sei auch möglich, wenn das Datenmaterial die Wirklichkeit nicht richtig abbilde. Konsument:innen seien in vielen Bereichen des Lebens mit künstlicher Intelligenz konfrontiert, so Zimmer. Ein Beispiel ist hierfür die Selektion und Klassifizierung in schlechte und gute Kund:innen anhand unterschiedlicher Verhaltensweisen und Eigenschaften. Diese bestimmen dann darüber, ob jemand einen Vertrag erhält bzw. zu welchen Konditionen.

So funktioniert KI: Banken, Versicherungen, Transparenz

Das passiert unter anderem im Bankgeschäft. Hier wendet man immer öfter sogenannte Scorings an, also automatisierte Entscheidungsprozesse, mit denen aufgrund der gesammelten Daten berechnet wird, ob Kund:innen kreditwürdig sind. Auch Versicherungen nutzen KI, um nach bestimmten Algorithmen berechnen zu lassen, ob es wahrscheinlich ist, dass jemand die Versicherung missbrauchen könnte. Verbraucher:innen sind hier intransparenten Vorgängen ausgesetzt und könnten benachteiligt werden.

Eine gestresste Frau sitzt vor einem Monitor und ist von einem Hologramm umgeben. So funktioniert KI.
Banken und Versicherungen nutzen KI. Doch es fehlt an Transparenz. | © Adobestock/Wesley JvR/peopleimages.com

Problematisch ist außerdem oft die Ungenauigkeit von Ergebnissen, die aber den Anschein von Objektivität erwecken. Wehren können sich Einzelpersonen dagegen nicht: „Diese stoßen hier sofort an Grenzen.“ Oft wissen Menschen gar nicht, dass KI im Spiel ist, wenn ihnen zum Beispiel individualisierte Vertragskonditionen angeboten werden. „Ohne professionelle Unterstützung werden sie den Sachverhalt nicht einmal richtig aufbereiten können.“ Im Entwurf der EU-Kommission sind nicht einmal außergerichtliche Schlichtungsstellen vorgesehen, oft bleibt nur der Weg zum Zivilgericht. Zimmer kritisiert, dass Kontrolle und Zertifizierung nur selten von unabhängigen Dritten durchgeführt werden. „Die KI-Regeln der EU weisen fundamentale Lücken auf.“

Datensauger KI

Wie kommt nun künstliche Intelligenz an das entsprechende Datenmaterial? Zunächst entscheiden die Auftraggeber:innen und Systementwickler:innen, welches Problem die KI behandeln soll und welche Daten dafür relevant sind. Auch die Methode der Datenanalyse – etwa maschinelles Lernen mithilfe von neuronalen Netzen – wird festgelegt. Eine Möglichkeit ist das „supervised machine learning“. Hier wird die KI auf Daten trainiert, die der Mensch vorher schon klassifiziert hat. „Da lernt die KI von dem, was der Mensch kann“, erklärt Sabine Köszegi, Expertin für ethische künstliche Intelligenz und Arbeitswissenschaft an der TU Wien.

Wie beispielsweise in der Bankenwelt. „Wir geben der KI immer ein Ziel: Klassifiziere Kreditwerber:innen nach ihrer Kreditwürdigkeit.“ Banken wissen, welche Kund:innen in der Vergangenheit ihre Kredite zurückgezahlt haben und welche nicht. Eine KI kann aus den Daten lernen, welche Eigenschaften Kund:innen haben, die eher zurückzahlen, und welche nicht. Gibt man dann der KI ein neues Kund:innenprofil, erstellt die KI eine Prognose, ob diese Person den Kredit mit hoher Wahrscheinlichkeit zurückzahlen kann oder nicht. „Eine KI erkennt in den Daten leichter latente Muster, zum Beispiel, ob eine Person eine Spielneigung hat. Natürlich weiß die KI nicht, dass eine Person ein:e Spieler:in ist. Aber sie lernt, dass Personen, die ihr Geld innerhalb der ersten zwei bis drei Tage nach dem Gehaltseingang vom Konto beheben, mit hoher Wahrscheinlichkeit nicht in der Lage sind, einen Kredit zurückzuzahlen.“

Korrelation und Kausalität: Was die KI nicht versteht

Daraus resultieren einige Probleme. Eines davon ist, dass neuronale Netze nur auf Basis der Korrelation arbeiten. Kausalität können sie nicht erkennen. „Eine KI weiß nur, dass der Hahn immer kräht, wenn die Sonne aufgeht. Sie weiß nicht, ob der Hahn kräht, weil die Sonne aufgeht, oder ob die Sonne aufgeht, weil der Hahn kräht.“ So passiert es schon mal, dass Menschen für die KI ein bestimmtes Muster aufweisen und als nicht kreditwürdig eingestuft werden, obwohl sie es eigentlich wären. Köszegi nennt als Beispiel ein Ehepaar, wo beide um eine Apple-Kreditkarte ansuchten. Beide, sowohl der Mann als auch die Frau, arbeiten an derselben Universität als Professor:innen. Sie haben das gleiche Einkommen und leben im gleichen Haushalt. Trotzdem bekam er einen Kreditrahmen und sie nicht. Der Grund: Die KI bewertete den Fakt, dass Frauen oft ein geringeres oder kein Einkommen haben, sehr stark. „In diesem Fall gab es aber keinen kausalen Zusammenhang zwischen Geschlecht und Verdienst“, so Köszegi.

Köszegi kennt aber auch einen Fall, der zeigt, wie man so ein Problem der ungerechten Diskriminierung löst. Junge Männer sind risikofreudigere Autofahrer und haben ein höheres Schadensrisiko bei der Haftpflichtversicherung als Frauen. „Gleichzeitig ist es aber unfair, dass jemand nur aufgrund seines Geschlechts eine geringere oder höhere Prämie bezahlen muss.“ Die Versicherung fand in ihren Daten eine Lösung: „Die Höhe der PS des gekauften Autos ist ein sehr guter Indikator dafür, dass Menschen schnell und damit riskant Auto fahren. Der Algorithmus der Versicherung berücksichtigt daher nicht das Geschlecht, sondern die PS-Anzahl des Autos, um das Versicherungsrisiko einzuschätzen, und behandelt damit Männer und Frauen, die ein schnelles Auto fahren, gleich.“

Ethik als Unternehmensfrage

Anders funktionieren KI-Systeme wie ChatGPT. Es wird mit allen möglichen Texten aus dem Internet trainiert und errät dann jenes Wort, das am wahrscheinlichsten in die Lücke passt. Nicht unterschieden wird, ob es sich um wissenschaftliche Texte, eine persönliche Meinung oder Fake News handelt. Das heißt, diese Systeme „lernen“ auch von rassistischen, sexistischen oder extremistischen Inhalten. Dem wollte OpenAI, das Unternehmen hinter ChatGPT, Einhalt gebieten, indem es die KI mithilfe einer Lerntechnik für bestimmte Wortreihenfolgen lobt und für andere bestraft. „So lernt das System, unethisches Verhalten nicht zu zeigen.“

Das Problem ist, dass im Fall von ChatGPT das Unternehmen OpenAI bestimmt, was unethisch ist und was nicht. Köszegi hat einmal versucht, mit dem Bildgenerierungsprogramm DALL-E von OpenAI Folgendes zu generieren. „Zeige mir ein Bild einer dystopischen Zukunft von KI und Arbeit.“ DALL-E konnte den Wunsch aufgrund firmeneigener Vorgaben nicht erfüllen. „Wollen wir, dass die großen Firmen wie OpenAI, Microsoft, Google und Facebook darüber entscheiden, was gesagt werden darf und was nicht? Sollten wir das nicht in demokratischen Prozessen als Gesellschaft festlegen?“, so Köszegi. Andererseits: „Wenn die KI keine Schranken hat, haben wir Programme, die alle ethischen und moralischen Grenzen überschreiten, weil sie ja nicht verstehen, welchen (Un-)Sinn sie mit ihren Wahrscheinlichkeitsprognosen generieren. Das ist das Dilemma, das wir haben.“

Über den/die Autor:in

Udo Seelhofer

Udo Seelhofer war früher Lehrer und arbeitet seit 2012 als freier Journalist. Seine Schwerpunkte sind Gesellschaft, soziale Themen und Religion. Gemeinsam mit Sandra Knopp wurde er beim Journalismuspreis „Von unten“ 2017 für ihre Arbeit&Wirtschaft Reportage „Im Schatten der Armut“ ausgezeichnet.

Sie brauchen einen Perspektivenwechsel?

Dann melden Sie sich hier an und erhalten einmal wöchentlich aktuelle Beiträge zu Politik und Wirtschaft aus Sicht der Arbeitnehmer:innen.

Mit dem Absenden dieses Formulars stimme ich der Verarbeitung meiner eingegebenen personenbezogenen Daten gemäß den Datenschutzbestimmungen zu.