Künstliche Intelligenz: Wenn Algorithmen falsch liegen

Viele Menschen haben KI im Dauereinsatz. Aber welche Regulierungen braucht es? | © Adobe Stock/BritCats Studio
Viele Menschen haben KI im Dauereinsatz. Aber welche Regulierungen braucht es? | © Adobe Stock/BritCats Studio
Zwischen smarter Effizienz und heimlichem Kontrollverlust: Wo klare Regeln für KI dringend nötig sind – und wann KI tatsächlich Entlastung bringt.
KI ist im Dauereinsatz. Aber was, wenn die Maschine Nein sagt: Nach einer von einer KI-gestützten Überprüfung ihrer Kreditwürdigkeit wurde einer Österreicherin ein Handyvertrag verwehrt. Auf die Frage, nach welchen Informationen die Ablehnung erfolgte, verweigerte ihr das Unternehmen die Antwort. Die Frau klagte, die Sache ging bis zum Europäischen Gerichtshof. Dieser gab der Frau recht: Betroffene haben Anspruch auf diese Informationen, die Firma verstieß gegen die DSGVO.

Solche Fälle zeigen die Gefahren der KI. Zwar arbeiten viele Programme damit besser, doch es lauern Gefahren. Kundendienst-Chatbots wirken echter als früher. „Der Entfremdungseffekt ist weg“, sagt Louise Beltzung, Expertin für Konsument:innenschutz, Digitalisierung und KI der AK Wien. Das sehe man an „AI Companions“, virtuellen Begleitern, die Aufgaben erleichtern und emotionale Unterstützung bieten. Menschen könnten sensible Daten weitergeben, nicht wissend, wer ihre Informationen speichert. Ein weiterer Bereich ist KI-gestützter Internetbetrug, wenn etwa mit gefälschten Videos von Prominenten dubiose Finanzprodukte beworben werden.

Digitale Fairness

Weil vieles rund um KI noch auf wackeligen Füßen steht, müssen die Konsument:innen im Vordergrund stehen. Ein Positionspapier zum „EU AI Act“, bei dem Louise Beltzung Mitautorin war, kritisiert, dass Algorithmen zur Betrugsprävention ein hohes Risiko haben, Grundrechte von Konsument:innen zu verletzen, oder diese finanziell zu schädigen. „Derzeit geht es darum, auf EU-Ebene entsprechende Weichenstellungen zu machen“, meint Beltzung. Die EU-Kommission müsse im Rahmen der „digitale Fairness Initiative“ Verbraucher:innen schützen.

Sie steigert die Effizienz und übernimmt Routinetätigkeiten: KI am Arbeitsplatz ist praktisch, kann aber auch schnell problematisch werden.

Warum Betriebsrät:innen besonders gefragt sind, erklärt Sebastian Klocker, Experte beim @oegb.bsky.social. 👇

[image or embed]

— Arbeit&Wirtschaft Magazin (@aundwmagazin.bsky.social) 20. Mai 2025 um 17:00

Entscheidend sei, ob sich Europa gegen geopolitischen Druck behaupte und werteorientierte, nachhaltige KI-Entwicklung vorantreibe – „oder sich geopolitische Abhängigkeiten weiter vertiefen und die KI-Entwicklung einer ungezügelten ‚Anything Goes‘ Mentalität unterliegt“, sagt Stefan Woltran, KI-Forscher an der TU Wien. Sonst käme die „Perfektionierung eines Überwachungskapitalismus auf uns zu“. Der 2024 beschlossene European AI Act soll ab 2026 voll in Kraft treten. Dessen risikobasierter Ansatz unterteilt KI-Systeme in vier Kategorien: unannehmbares, hohes, begrenztes und minimales Risiko. Systeme mit unannehmbarem Risiko, wie Social Scoring, also die KI-gestützte Bewertung sozialen Verhaltens wie in China, oder manipulative KI, die unser Denken und Handeln beeinflussen soll, sind verboten. Hochrisiko-KI, etwa in der Medizin, unterliegt strengen Anforderungen wie Transparenz, Risikomanagement und menschlicher Aufsicht. KI-Kundenchatbots und Rechtschreibkorrekturen gelten als weniger risikoreich. Woltran begrüßt den AI Act: „Es ist wichtig, dass die Politik rechtzeitig Regulierungskonzepte auf den Weg gebracht hat.“ Diese sollen den gesellschaftlichen Auswirkungen von KI einen anpassungsfähigen Rechtsrahmen entgegensetzen.

Verständlich durch KI

Das bedeutet: Regulieren heißt nicht stoppen, sondern steuern. Unternehmen dürfen KI nutzen, wo sie Sinn macht – zum Beispiel, um Sprache verständlich zu machen. Das Grazer Unternehmen Capito übersetzt komplexe Texte in einfache Sprache und entwickelt dafür digitale Lösungen. KI werde eingesetzt, weil sie mit analogen Übersetzungen nicht genug Texte übersetzen konnten und Menschen erreichten, sagt Walburga Fröhlich, Geschäftsführerin und Co-Gründerin von Capito. KI erlaube mehr zeitliche Flexibilität. Ein Großteil von Behörden- und Unternehmenstexten sind für Menschen mit Lernschwierigkeiten und andere nicht verständlich. Capito trainierte die KI mit eigenen Daten mit komplizierten Texten samt Übersetzungen in einfache Sprache. Die Ergebnisse müssen verständlich und korrekt in mehreren Sprachniveaus ausgegeben werden. Deshalb brauche es weiter Übersetzer:innen mit Fachwissen.

KI made in Austria

KI bleibt nur so gut wie die Daten und die Menschen dahinter. Marta Sabou, Key Researcherin im „Bilateral AI Cluster of Excellence“ an der TU Wien, erklärt: „KI ist unvoreingenommen. Der Mensch, der sie mit Daten füttert und die Daten selbst sind es aber sehr wohl.“ KI sei ein Spiegel der Gesellschaft. Ergebnisverzerrende Daten müssen modifiziert werden, indem beim Training der KI neue oder veränderte Datensätze verwendet werden.

Eine weitere Herausforderung seien erfundene Aussagen der KI. Im Cluster an der TU werde an zuverlässigerer KI gearbeitet. Laut Sabou gibt es subsymbolische KIs wie ChatGPT, die auf statistischen Mustern und Daten basieren, und symbolische, die mit Regeln und Symbolen arbeitet, um Wissen abzubilden. „Bilateral AI“ verbinde beide Ansätze. So soll KI effizienter werden. Technologisch wird in den nächsten Jahren viel möglich sein. Doch ob KI fair, verlässlich und sinnvoll arbeitet, entscheidet sich nicht im Code, sondern in der Gesellschaft.

Weiterführende Artikel

KI: So verändert Digitalisierung die Medien

KI – mehr Chance oder Bedrohung?

Wie die KI eine Industrielle Revolution vorantreibt

Du brauchst einen Perspektivenwechsel?

Dann melde dich hier an und erhalte einmal wöchentlich aktuelle Beiträge zu Politik und Wirtschaft aus Sicht der Arbeitnehmer:innen.

Mit * markierte Felder sind Pflichtfelder.
Mit dem Absenden dieses Formulars stimme ich der Verarbeitung meiner eingegebenen personenbezogenen Daten für den Zweck der Versendung und Verwaltung des Newsletters sowie des Gewinnspiels zu. Diese Zustimmung kann jederzeit widerrufen werden. Details dazu finden Sie in unseren Datenschutzbestimmungen.

Über den/die Autor:in

Sandra Knopp und Udo Seelhofer

Sandra Knopp ist freie Journalistin für verschiedene Radio und Printmedien, und hat die Themen Arbeitsmarkt, Soziales und Gesellschaftspolitik als Schwerpunkte. Udo Seelhofer war früher Lehrer und arbeitet seit 2012 als freier Journalist. Seine Schwerpunkte sind Gesellschaft, soziale Themen und Religion. Im Team wurden sie beim Journalismuspreis „Von unten“ 2017 für ihre Arbeit&Wirtschaft Reportage „Im Schatten der Armut“ ausgezeichnet.

Du brauchst einen Perspektivenwechsel?

Dann melde dich hier an und erhalte einmal wöchentlich aktuelle Beiträge zu Politik und Wirtschaft aus Sicht der Arbeitnehmer:innen.



Mit * markierte Felder sind Pflichtfelder. Mit dem Absenden dieses Formulars stimme ich der Verarbeitung meiner eingegebenen personenbezogenen Daten gemäß den Datenschutzbestimmungen zu.