Künstlich intelligent?

Illustration künstliche Intelligenz
Illustration (C) Miriam Mone
Künstliche Intelligenz wird gerne als futuristische Technologie betrachtet, deren Auswirkungen erst irgendwann in der ­Zukunft spürbar sein werden. Dabei wird sie bereits eingesetzt – und bringt eigene Probleme mit sich.
Eigentlich sollte die Menschheit längst ausgelöscht, zu lebendigen Batterien gemacht oder zu Testsubjekten degradiert worden sein. Das hat uns zumindest die popkulturelle Darstellung von künstlicher Intelligenz (KI) in den letzten Jahrzehnten gezeigt. In Filmen und Computerspielen wie „Terminator“, „2001: Odyssee im Weltraum“ oder „Portal“ werden wir von ihr kontrolliert, gejagt oder ermordet.

Die Realität ist auch hier – glücklicherweise – weniger spektakulär. „KI als ein System, das eigenständige Entscheidungen aufgrund der Datenlage treffen kann, gibt es schon. Aber intelligent im menschlichen Sinne ist sie sicher noch nicht“, sagt Astrid Schöggl, Referentin für Digitales in der AK Wien. Anwendungen, die auf KI aufbauen, sind aber längst in unserem Alltag präsent. Wir haben Autos, die selbstständig fahren können, entsperren Handys mit unserem Gesicht oder lassen uns von Netflix vorschlagen, was wir als Nächstes ansehen könnten.

Die Zukunft ist schon da

Kann eine Maschine selbst Entscheidungen treffen? Ja. „Aber intelligent im menschlichen Sinne ist sie sicher noch nicht“, sagt Astrid Schöggl von der AK Wien.

Und doch hängt KI der Nimbus einer Zukunftstechnologie an, deren Auswirkungen erst in den nächsten Jahrzehnten zu spüren sein werden. Prognostiker*innen sorgen sich darum, dass Arbeit mehr und mehr von künstlicher Intelligenz und Robotern übernommen werden wird. Doch den Fokus darauf zu richten, ignoriert ein Problem: Die Veränderung kommt nicht erst in den nächsten Jahren oder Jahrzehnten – sie ist schon längst da.

Künstliche Intelligenz ist bereits in viele Branchen vorgedrungen. „Vor allem in der Qualitätssicherung, wo man Anomalien leicht erfassen kann, ist KI schon präsent“, sagt Schöggl. So hat beispielsweise ein österreichisches Unternehmen eine KI entwickelt, die die Holzqualität in Sägewerken kontrollieren kann. Vorher musste dies eine Person erledigen, die häufig dafür angefeindet wurde.

Schwierige Definition

Doch was KI eigentlich sein soll, ist nicht ganz leicht zu definieren. „Es kommt immer darauf an, wen man in welcher Situa­tion fragt, was künstliche Intelligenz sein soll“, sagt Lukas Daniel Klausner, der an der FH St. Pölten zu Data Science, Critical Algorithm Studies und Science and Technology Studies forscht. Schon der Begriff der „Intelligenz“ sei eigentlich umstritten, weil er ein Bild vermittle, mit dem aktuelle Technologien nicht mithalten können. Im weitesten Sinne bilden aber derzeit Machine Learning und ähnliche Konzepte die Grundlage für KI, so Klausner weiter. Machine Learning bedeutet, stark vereinfacht, dass eine KI in vorhandenen Daten nach Mustern und Gesetzmäßigkeiten sucht und sich selbst beibringt, wie sie eine Lösung findet. Ein wichtiger Aspekt dabei ist jedoch, dass immer Menschen der KI durch Daten und Algorithmen vorgeben, wie sie zu lernen hat und nach welchen Mustern und Lösungen sie eigentlich suchen soll. Der Lösungsweg selbst ist aber häufig undurchsichtig.

KI ist immer dann problematisch,
wenn ihre Entscheidungen Auswirkungen auf Menschen hat.

Astrid Schöggl, Digitalexpertin in der AK Wien

„Allerdings muss KI nicht zwingend auf Machine Learning basieren. Alle aussichtsreichen Ansätze gehen derzeit in diese Richtung, aber das muss nicht heißen, dass das weiterhin so bleibt“, sagt Klausner. Man kann KI auch dadurch abgrenzen, dass sie Entscheidungen trifft, die ihr nicht dezidiert vorgeschrieben wurden. Allerdings würden dadurch auch viele simplere Anwendungen in die Definition mit aufgenommen.

Zumindest ihr Ursprung kann leichter ergründet werden: In den USA wurde in den 1950er-Jahren „Artificial Intelligence“ als Forschungsfeld etabliert. Erste Computerprogramme konnten damals dank einfacher „Wenn-dann-Regeln“ simple Probleme lösen. Die Forscher*innen erwarteten, dass KI innerhalb von 20 Jahren jede Arbeit durchführen könnte.

Prognosen zu stellen, ist im Bereich der KI, wie man sieht, schwierig. Die damalige Hardware war den steigenden Anforderungen nicht gewachsen, bis in die neunziger Jahre schritt die Entwicklung nur langsam voran. Danach machte die Technologie rasante Fortschritte. Ein Grund dafür war die exponentiell steigende Rechenleistung. Aber ein wesentlicher Punkt war auch die Verfügbarkeit von großen Datenmengen. „Bis zu deren Aufkommen gab es nur die Möglichkeit, sich selbst zu überlegen, was die bestmögliche Lösung ist. Wenn ich genug Daten habe, kann ich aber Mustererkennung an den Computer auslagern“, erklärt Klausner.

KI braucht große Datenmengen. „Daten sind aber keine absolute Wahrheit – sie sind immer auch politisch“, warnt Wissenschafter Lukas Daniel Klausner.

Diskriminierende Daten

Und Daten bringen Probleme – noch bevor eine KI etwas gemacht hat. „Daten sind keine absolute Wahrheit – sie sind immer auch politisch“, so Klausner. Wer die Daten sammelt, welche das sind, wie sie aufbereitet werden und vor allem wie sie beurteilt werden, macht einen großen Unterschied.

Ein Beispiel dafür ist „Predictive Policing“. Dabei werden, vereinfacht gesagt, Vorhersagen darüber getroffen, wie hoch die Wahrscheinlichkeit für zukünftige Straftaten ist. Verschiedene Anwendungen sind vor allem in den USA im Einsatz – und die Grundlage dafür stammt aus kriminologischen Daten. „Diese kommen aus der bisherigen Arbeit der Polizei, die nicht frei von Bias und Diskriminierung ist. Und die Datenbasis enthält Dinge, die nicht der Rea­lität entsprechen, wenn man etwa bedenkt, dass Sexualverbrechen, rassistisch motivierte Straftaten oder auch Polizeigewalt weniger oft gemeldet werden“, sagt Klausner.

„KI ist immer dann problematisch, wenn ihre Entscheidungen Auswirkungen auf Menschen hat“, meint Astrid Schöggl. Beispiele dafür gibt es viele: In Washington gab es etwa den Versuch, dass eine KI die Leistung von Lehrer*innen bewertet und automatisch Kündigungsvorschläge erstellt. Und Amazon verwendete einen Bewerbungsalgorithmus, der Frauen strukturell benachteiligte. Solche Versuche werden aber nur dann publik, wenn sie abgestellt werden, so Schöggl.

Der Zukunftsfaktor

Werfen wir trotzdem einen Blick in die Zukunft – auch wenn Prognosen über KI schwierig sind: Sie ist in der Lage, Prozesse zu vereinfachen und zu automatisieren. Historisch gesehen, betraf die Automatisierung meistens einfachere Arbeiten, die durch Maschinen ersetzt wurden. Doch KI kann auch analytische Tätigkeiten ausführen, wodurch auch besser ausgebildete Menschen betroffen sein werden. So werden etwa immer mehr Versicherungsexpert*innen durch Software ersetzt.

„KI wird in der Lage sein, einzelne Tätigkeiten zu ersetzen“, sagt Schöggl. Das disruptive Potenzial von KI schätzt sie aber nicht so hoch ein. Denn KI ist nur in der Lage, sehr spezifische Arbeiten zu übernehmen. Menschliche Intelligenz kann sie (noch) nicht ersetzen.

Automatisierung könnte auch Erleichterungen mit sich bringen. Und weniger Arbeit kann im besten Fall zu einer höheren Lebensqualität für alle führen. „Dazu muss aber der politische Wille da sein. Es hat in den letzten dreißig Jahren schon einen massiven Produktivitätszuwachs gegeben – und der wurde nicht in Form von Arbeitszeitreduktion oder Lohnsteigerung weitergegeben“, sagt Klausner. Warum sollte das also in Zukunft anders werden?

Künstliche Intelligenz benötigt politische Lösungen, um Machtansammlung und -missbrauch zu verhindern. Und das nicht erst in der Zukunft, denn die Technologie ist schon längst im Einsatz. Über eine allmächtige, mörderische Intelligenz, die die Menschheit ausrotten will, können wir uns danach immer noch Gedanken machen.

Über den/die AutorIn

Sebastian Panny

Sebastian Panny

Sebastian Panny ist Journalist und Historiker in Ausbildung aus Wien. Als solcher will der Exil-Oberösterreicher jene Prozesse, die sich hinter Geschichten und Geschichte abspielen, in den Vordergrund rücken – sofern er nicht auf Twitter festhängt.