Solche Fälle zeigen die Gefahren der KI. Zwar arbeiten viele Programme damit besser, doch es lauern Gefahren. Kundendienst-Chatbots wirken echter als früher. „Der Entfremdungseffekt ist weg“, sagt Louise Beltzung, Expertin für Konsument:innenschutz, Digitalisierung und KI der AK Wien. Das sehe man an „AI Companions“, virtuellen Begleitern, die Aufgaben erleichtern und emotionale Unterstützung bieten. Menschen könnten sensible Daten weitergeben, nicht wissend, wer ihre Informationen speichert. Ein weiterer Bereich ist KI-gestützter Internetbetrug, wenn etwa mit gefälschten Videos von Prominenten dubiose Finanzprodukte beworben werden.
Digitale Fairness
Weil vieles rund um KI noch auf wackeligen Füßen steht, müssen die Konsument:innen im Vordergrund stehen. Ein Positionspapier zum „EU AI Act“, bei dem Louise Beltzung Mitautorin war, kritisiert, dass Algorithmen zur Betrugsprävention ein hohes Risiko haben, Grundrechte von Konsument:innen zu verletzen, oder diese finanziell zu schädigen. „Derzeit geht es darum, auf EU-Ebene entsprechende Weichenstellungen zu machen“, meint Beltzung. Die EU-Kommission müsse im Rahmen der „digitale Fairness Initiative“ Verbraucher:innen schützen.
Sie steigert die Effizienz und übernimmt Routinetätigkeiten: KI am Arbeitsplatz ist praktisch, kann aber auch schnell problematisch werden.
Warum Betriebsrät:innen besonders gefragt sind, erklärt Sebastian Klocker, Experte beim @oegb.bsky.social. 👇
— Arbeit&Wirtschaft Magazin (@aundwmagazin.bsky.social) 20. Mai 2025 um 17:00
Entscheidend sei, ob sich Europa gegen geopolitischen Druck behaupte und werteorientierte, nachhaltige KI-Entwicklung vorantreibe – „oder sich geopolitische Abhängigkeiten weiter vertiefen und die KI-Entwicklung einer ungezügelten ‚Anything Goes‘ Mentalität unterliegt“, sagt Stefan Woltran, KI-Forscher an der TU Wien. Sonst käme die „Perfektionierung eines Überwachungskapitalismus auf uns zu“. Der 2024 beschlossene European AI Act soll ab 2026 voll in Kraft treten. Dessen risikobasierter Ansatz unterteilt KI-Systeme in vier Kategorien: unannehmbares, hohes, begrenztes und minimales Risiko. Systeme mit unannehmbarem Risiko, wie Social Scoring, also die KI-gestützte Bewertung sozialen Verhaltens wie in China, oder manipulative KI, die unser Denken und Handeln beeinflussen soll, sind verboten. Hochrisiko-KI, etwa in der Medizin, unterliegt strengen Anforderungen wie Transparenz, Risikomanagement und menschlicher Aufsicht. KI-Kundenchatbots und Rechtschreibkorrekturen gelten als weniger risikoreich. Woltran begrüßt den AI Act: „Es ist wichtig, dass die Politik rechtzeitig Regulierungskonzepte auf den Weg gebracht hat.“ Diese sollen den gesellschaftlichen Auswirkungen von KI einen anpassungsfähigen Rechtsrahmen entgegensetzen.
Verständlich durch KI
Das bedeutet: Regulieren heißt nicht stoppen, sondern steuern. Unternehmen dürfen KI nutzen, wo sie Sinn macht – zum Beispiel, um Sprache verständlich zu machen. Das Grazer Unternehmen Capito übersetzt komplexe Texte in einfache Sprache und entwickelt dafür digitale Lösungen. KI werde eingesetzt, weil sie mit analogen Übersetzungen nicht genug Texte übersetzen konnten und Menschen erreichten, sagt Walburga Fröhlich, Geschäftsführerin und Co-Gründerin von Capito. KI erlaube mehr zeitliche Flexibilität. Ein Großteil von Behörden- und Unternehmenstexten sind für Menschen mit Lernschwierigkeiten und andere nicht verständlich. Capito trainierte die KI mit eigenen Daten mit komplizierten Texten samt Übersetzungen in einfache Sprache. Die Ergebnisse müssen verständlich und korrekt in mehreren Sprachniveaus ausgegeben werden. Deshalb brauche es weiter Übersetzer:innen mit Fachwissen.
KI made in Austria
KI bleibt nur so gut wie die Daten und die Menschen dahinter. Marta Sabou, Key Researcherin im „Bilateral AI Cluster of Excellence“ an der TU Wien, erklärt: „KI ist unvoreingenommen. Der Mensch, der sie mit Daten füttert und die Daten selbst sind es aber sehr wohl.“ KI sei ein Spiegel der Gesellschaft. Ergebnisverzerrende Daten müssen modifiziert werden, indem beim Training der KI neue oder veränderte Datensätze verwendet werden.
Eine weitere Herausforderung seien erfundene Aussagen der KI. Im Cluster an der TU werde an zuverlässigerer KI gearbeitet. Laut Sabou gibt es subsymbolische KIs wie ChatGPT, die auf statistischen Mustern und Daten basieren, und symbolische, die mit Regeln und Symbolen arbeitet, um Wissen abzubilden. „Bilateral AI“ verbinde beide Ansätze. So soll KI effizienter werden. Technologisch wird in den nächsten Jahren viel möglich sein. Doch ob KI fair, verlässlich und sinnvoll arbeitet, entscheidet sich nicht im Code, sondern in der Gesellschaft.