Navigation auf uzh.ch
Von Maike Sieler
Spätestens seit dem viel diskutierten Start von ChatGPT, der vermeintlich bessere Seminararbeiten verfasst als manch ein:e Student:in, ist Künstliche Intelligenz (AI) in aller Munde. Aber schon vor ChatGTP war AI aus dem Alltag vieler Menschen nicht mehr wegzudenken: Auf dem Weg zur Arbeit werden auf Basis des Hörverhaltens neue Playlists vorgeschlagen, wenn mal wieder ein Tram feststeckt, findet mensch via Google Maps den schnellsten Weg ans Ziel und auf Social Media wird uns Content vorgeschlagen, der uns «wahrscheinlich interessiert». Im digitalisierten Alltag übernimmt AI lästige und zeitintensive Aufgaben. AI-Anwendungen finden sich aber auch in Kontexten, in denen schnelle Entscheidungen nicht nur praktisch, sondern notwendig sind. Ein Beispiel hierfür sind sogenannte Emergency Dispatch Systems, die ein Ranking erstellen, wo ein Rettungswagen am nötigsten gebraucht wird.
Aber AI hilft nicht nur dabei, den Alltag zu meistern, sie beeinflusst und verändert ihn auch. Diese Veränderungen sind durchaus ambivalent und stellen die Gesellschaft vor schwierige Fragen. Gerade AI-Modelle, die einen Bezug zu sozialen Anwendungskontexten haben (z. B. Social-Media-Algorithmen), widerspiegeln oft gesellschaftliche Machtverhältnisse und haben dadurch diskriminierende Effekte. So hat eine Studie zu automatisierter Gesichtserkennung gezeigt, dass die Gesichter von dunkelhäutigen Frauen sehr viel schlechter erkannt werden als die von weissen Männern. Das ist problematisch, weil die Datennorm, die einem solchen Modell zugrunde liegt, nicht repräsentativ ist. Dass dunkelhäutige Frauen beim Entsperren des Smartphones schlechter erkannt werden, ist noch eine der weniger gravierenden Folgen davon. Es sind auch Fälle bekannt, in denen Bilderkennungssoftwares koloniale Rassismen explizit reproduzierten und dunkelhäutige Menschen falsch als Affen klassifizierten.
Maschinelle Prozesse sind inzwischen wesentlicher Teil menschlicher Alltagsroutinen, sie haben Implikationen weit darüber hinaus und zeigen sich nicht zuletzt in den drei gesellschaftlichen Sphären Religion, Wirtschaft und Politik. Das soll im Folgenden anhand von unterschiedlichen Positionen und Akteur:innen gezeigt werden.
In einem Gastbeitrag in der Financial Times vom 13. April 2023 warnt der Technologie-Investor Ian Hogarth vor einer «God-like AI»: «God-like AI could be a force beyond our control or understanding, and one that could usher in the obsolescence or destruction of the human race». Mit diesen Ausführungen reiht Hogarth sich in einen Kreis von Personen ein, die als «dedicated and fearful» bezeichnet werden können, denn sie sind entschlossen, ihr Angst provozierendes Bild von AI zu verbreiten. Sie zeichnen sich durch ein hohes Mass an wirtschaftlichem Kapital und eine grosse Diskursmacht im Bereich AI aus – Ressourcen die sie einzusetzen wissen: In medienwirksamen Aussagen humanisieren Vertreter:innen des «Dedicated and Fearful»-Typs AI und erzeugen antagonistische Bilder von Mensch und Maschine. Dabei referieren sie auf apokalyptische Bilder, die aus Filmen wie «Terminator» und «I, Robot» oder der Serie «Westworld» ins (pop-)kulturelle Gedächtnis eingegangen sind und zeichnen extreme Bilder von einer evolutionären Ablösung der Menschheit durch Maschinen.
Es finden sich aber auch Narrative und Konzepte aus der Aufklärung. Ein Beispiel dafür ist das Konzept des freien Willens, welcher einer «God-like AI» nachgesagt wird. Mit der theistischen Referenz «God-like» bezieht Hogarth sich auf das Konzept der «Singularity». Als «Singularity» wird eine künstliche Intelligenz bezeichnet, die der Menschheit in allen Dingen überlegen ist und über ein eigenes Bewusstsein verfügt. Die Vision der Singularity ist für den «Dedicated and Fearful»-Typ das Zentrum der Dystopie, denn es wird davon ausgegangen, dass eine Singularity – oder, wie Hogarth es nennt, «God-like AI» – die Menschheit unterjochen wird. An der Perspektive des «Dedicated and Fearful»-Typs, die Killerroboter und Ähnliches ins Zentrum der Überlegungen stellt, wird häufig kritisiert, dass menschliche Verantwortlichkeiten und reale Probleme wie Diskriminierungsrisiken aussen vorgelassen werden.
In der Wirtschaft wird AI als Effizienzwerkzeug eingesetzt: Prozesse werden optimiert und automatisiert und so Umsätze maximiert. Akteur:innen, für die die sozialen Implikationen von AI nur eine untergeordnete Rolle spielen, die an wirtschaftlichem Erfolg interessiert sind und die ihr spezialisiertes Wissen im Bereich Machine Learning als Developer:innen oder Informatiker:innen einsetzen, fallen in die Kategorie «Tech-Defendants». Sie gehen davon aus, dass automatisierte Entscheidungsprozesse zwar nicht perfekt, aber immerhin besser und objektiver sind als die von Menschen. Wirtschaftliche Erfolge werden aus dieser Perspektive heraus AI zugeschrieben. Mit dem Fokus auf AI-Technologien folgt der «Tech-Defendant» also derselben Prämisse wie der «Dedicated and Fearful»-Typ. Die beiden Positionen werden darum häufig als zwei Seiten einer Medaille gesehen: Beide betrachten AI als mystisch und unausweichlich.
Hogarths Vision von einer «God-like AI», die «beyond our control» ist, passt zu einem politischen Regulierungsdiskurs, der im europäischen Raum momentan Hochkonjunktur hat. Die EU hat gerade den «AI-Act» auf den Weg gebracht, der das Ziel verfolgt, Probleme wie fehlenden Datenschutz und Diskriminierungsrisiken zu bekämpfen und Innovationen einen klaren Rahmen zu setzen. AI zu regulieren ist eine politische Herkulesaufgabe, weil AI sich viel schneller entwickelt als sich die Politik bewegt und weil die Prozesse in den beiden Bereichen nach unterschiedlichen Logiken ablaufen. Regulierung ist aber dringend notwendig, u. a. um Diskriminierungen und die Reproduktion von historisch gewachsenen Machtverhältnissen einzudämmen – denn, wie oben beschrieben, ist AI mittlerweile ein fester Bestandteil unseres Alltags. Es ist wichtig, machtpolitische Aspekte von AI nicht nur im politischen Diskurs zu verhandeln, sondern auch in der Wissenschaft, da mit ihnen Fragen zu Forschungspraktik und -ethik einhergehen.
AI ist stärker verbunden mit gesellschaftlichen Fragen, als es auf den ersten Blick erscheinen mag. Sie unterstützt die Menschen dabei, durch den Alltag zu navigieren und macht die Welt zugänglicher, indem sie zum Beispiel aufwendige Entscheidungen übernimmt. Doch die sozialen Implikationen von AI gehen viel tiefer und es greift analytisch zu kurz, AI als blosses Werkzeug zu betrachten und machtpolitische Fragen unberücksichtigt zu lassen. AI ist zudem auch Gegenstand von religiösen Deutungen. AI ist «too complex to regulate, but too powerful to refuse» und von gewinnmaximierenden Interessen nicht mehr zu trennen, wie Kate Crawford festhält.
Zur Erforschung der komplexen Rolle von AI in der Gesellschaft braucht es eine wissenschaftliche Perspektive, die offen für interdisziplinäre Ansätze ist und ihren Gegenstand nicht auf eine Sphäre beschränkt. AI passiert nicht im luftleeren Raum, sondern ist verbunden mit ganz unterschiedlichen gesellschaftlichen Teilbereichen wie Religion, Wirtschaft und Politik. Dabei trägt die Wissenschaft zur Entwirrung der Narrative bei, die sich in den Antworten von Akteur:innen wie den «Dedicated and Fearful» oder den «Tech-Defendants» spiegeln, und hilft bei der Entzauberung eines Feldes, das sich nur allzu gerne als losgelöst von Politik betrachtet.
Maike Sieler ist Assistentin und Doktorandin am Religionswissenschaftlichen Seminar der Universität Zürich und Public-Relations-Verantwortliche des ZRWP.