Die gesellschaftlichen Zukünfte der Künstlichen Intelligenz
Die gesellschaftlichen Zukünfte der Künstlichen Intelligenz
Ausrichtende Sektionen: Politische Soziologie, Soziologische Theorie, Soziale Ungleichheit und Sozialstrukturanalyse, Wissenschafts- und Technikforschung
Künstliche Intelligenz ist eine durch und durch ›zukünftige‹ Technologie. Sie wird erstens in ganz unterschiedlichen gesellschaftlichen Bereichen als eine der wichtigsten Triebkräfte für technologischen und institutionellen Wandel in den kommenden Jahrzehnten gehandelt (Maslej et al. 2025; Brynjolfsson & McAfee 2014; Brynjolfsson et al. 2023). Weiterhin ist eine Welt, die von Artefakten mit menschenähnlicher Intelligenz bevölkert wird, schon seit geraumer Zeit ein wichtiger Aspekt in der kulturellen Imagination (Bory & Bory 2015). Zudem ist die Projektion wahrscheinlicher Zukünfte durch die Extrapolation vergangener und gegenwärtiger Datenpunkte und Muster ein grundlegendes technologisches Prinzip maschinellen Lernens (Amoore und Piotukh 2015; Murphy 2022). Und nicht zuletzt wird ihr tatsächliches Potenzial als in der Zukunft liegend verhandelt, während die Nutzer:innen in der unmittelbaren Anwendung auf eine Vielzahl an praktischen Problemen stoßen (Büchner 2023; Hirsch-Kreinsen 2024).
KI hat sowohl in der Breite der Anwendungen als auch in der Tiefe der möglichen Auswirkungen enormes Potenzial zur Transformation der Gesellschaft. Während viele Bereiche der Gesellschaft in atemberaubendem Tempo daran arbeiten, diese ›Zukunftstechnologie‹ in ihre Gegenwart zu holen, gibt es auf Seiten der Wissenschaft einen fortlaufenden Reflexionsbedarf, der mit diesem Prozess medial-sozialer Vergegenwärtigung kaum Schritt halten kann. Zwar liegen empirische Studien und Fallanalysen zum Einsatz von KI mittlerweile in großer Zahl vor; es fehlen jedoch weithin generalisierende Analysen, die diese Befunde theoretisch integrieren und so zur Bestimmung langfristiger gesellschaftlicher Dynamiken beitragen.
Deshalb ist es die Zielsetzung dieser Plenarveranstaltung, über die bloße Beschreibung des Status quo hinauszugehen und systematisch das transformative Moment dieser Zukunftstechnologie und die verschiedenen möglichen Zukünfte der KI in der Gesellschaft in den Blick zu nehmen. Dabei geht es nicht allein um den Wandel gesellschaftlicher Institutionen durch den performativen Einfluss dieser Technologie auf gesellschaftliche Teilbereiche und Praktiken, sondern ebenso um die aktive Gestaltung und ›eigensinnige‹ Anwendung von KI durch ihre Hersteller:innen und Nutzer:innen, die diese Zukünfte mit hervorbringen. Das Plenum versteht sich deshalb als Einladung, empirisch informierte und theoretisch reflektierte Beiträge zu versammeln, die die Frage nach den zentralen Mechanismen der Transformation der Gesellschaft durch KI in verschiedenen Bereichen stellen und untersuchen.
Mögliche Leitfragen für das Plenum
Denkbar sind erstens Analysen, die sich der durch KI angestoßenen oder zu erwartenden Transformation bestimmter gesellschaftlicher Felder wie Arbeit und Wirtschaft, Bildung, Kunst, Politik und Öffentlichkeit, Recht und auch der Wissenschaft widmen. Welche Auswirkungen hat es in unterschiedlichen Arbeitsbereichen, wenn – insbesondere durch generative KI – jetzt auch Wissensarbeit zunehmend als technisch substituierbar gilt und professionelle Leistungen wie Rechtsberatung, medizinische Ersteinschätzungen, künstlerische und kunsthandwerkliche Tätigkeiten immer stärker mit KI-Outputs konkurrieren. Für die Wissenschaft – einschließlich der Soziologie selbst – stellt sich zudem die Frage, inwiefern die wahrheitsindifferente Textgenerierung durch große Sprachmodelle beispielsweise die Grenzziehung zwischen Episteme und Doxa gefährdet, aber auch welche Legitimation ihrer Erkenntnisse sie weiterhin für sich beanspruchen kann, wenn zentrale Praktiken der wissenschaftlichen Wissensproduktion – vom Literaturüberblick bis zum Peer Review – mit Unterstützung von LLMs durchgeführt werden. Allgemeiner ließe sich feldvergleichend erörtern, in welchem Verhältnis menschliche Expertise und digitale Informationssysteme stehen, wenn es um Bewertung, Verantwortungsübernahme und Erklärbarkeit in Entscheidungsprozessen geht. Was ändert sich, wenn verschiedenste Abläufe und Leistungen technisierbar werden, ohne dass selbst Expert:innen genau nachvollziehen können, wie dies im Detail funktioniert? Welche Arbeitsteilung zwischen menschlichen und nichtmenschlichen Akteuren zeichnet sich ab und welche Folgen hat dies für professionelle und soziale Wissensbestände, gesellschaftliche Teilbereiche und die Beziehungen zwischen sozialen Feldern?
Zweitens soll es der geplanten Plenarveranstaltung um Überlegungen zu umfassenden Kulturdynamiken gehen, die durch KI wahrscheinlicher werden. Was bedeutet es für die menschliche Existenz, sich in einem Gegenüber zu spiegeln, für das personale Identität nur ein optionales Feature im Nutzerinterface darstellt? Während anthropomorphe Deutungen häufig intuitiv vorgenommen und durch das Design bewusst nahegelegt werden, stellt sich für die Soziologie die Frage, inwiefern es legitim ist, KI-Anwendungen ebenfalls nach dem Schema von Akteuren zu begreifen (Anicker et al. 2024). Welche Handlungsfähigkeit und Verantwortlichkeit kann, darf und sollte KI tatsächlich zugeschrieben werden (Beckers & Teubner 2024)? Und wie wird die kommunikative Herstellung von Selbstkonzepten und Individualität, Kollektivität und politischer Identitäten durch die ›Massage‹ (McLuhan) der künstlichen Intelligenz transformiert? Darüber hinaus stellen sich Fragen nach der Vermittlung von lebensweltlichem und technisch vermitteltem Wissen. Droht eine schleichende Entmündigung durch KI, die sich etwa über eine allmähliche Degeneration von Kompetenzen und eine Entwertung lebensweltlichen und beruflichen Wissens vollziehen könnte – oder liegen in einer weitgehenden Demokratisierung des Zugangs zu intellektuellen Produktionsmitteln auch Chancen?
Drittens stellen sich Fragen der Reproduktion gesellschaftlicher Ungleichheit und der Verschiebung von (politischen) Machtkonstellationen. Einige wenige große Technologieunternehmen aus den USA und China treiben KI im Rahmen einer teils ausbeuterischen und wenig nachhaltigen globalen Arbeitsteilung voran (Crawford 2021). Sie gewinnen als globale Plattformen enorme Marktmacht, entscheiden über Nutzbarkeit und Zugangsmöglichkeiten und damit auch über die Distribution von Ressourcen und Lebenschancen. Subtilere Formen der Machtausübung entstehen, indem kulturelle Annahmen, normative Wertvorstellungen und gesellschaftliche Hierarchien in die technischen Grundlagen eingeschrieben werden und dadurch maßgeblich die Nutzung beeinflussen (Amoore et al. 2024; Scott und Orlikowski 2025). Darüber hinaus bietet KI auch neue Möglichkeiten der aktiven politischen Steuerung und Kontrolle globaler Informationsströme. Die neuen digitalen Mittel werden zunehmend zu Governance-Zwecken eingesetzt, was vor dem Hintergrund der Zensur chinesischer Systeme, der endzeitlichen Rhetorik US-amerikanischer Tech-Milliardäre und ihrer teils ungelenken Versuche, über die von ihnen kontrollierten Sprachmodelle gezielt politisch-ideologischen Einfluss auszuüben, zu denken geben sollte. In Deutschland ist die geplante Einführung der US-amerikanischen Polizeisoftware Palantir ein aktuelles Beispiel dafür. In diesem Zuge lassen sich auch Ansätze beobachten, klassische politische Verfahren durch das KI-gesteuerte ›Herauslesen‹ von Bürgerwillen und -bedürfnissen aus digitalen Daten zu ersetzen, was drängende demokratietheoretische Fragen aufwirft. Besondere gesellschaftliche Aufmerksamkeit erhalten aktuell KI-vermittelte Einflussnahmen auf öffentliche Informationsflüsse und Prozesse der Meinungsbildung bis hin zur klaren politischen Manipulation im Zusammenhang etwa mit neuen Strategien informationeller Kriegsführung.
Das Plenum soll ein Forum für solche und ähnliche Fragen bieten, um auszuloten, welche Grenzen sich aktuell verschieben und in welche Zukünfte uns dies führt.
Jury:
Dr. Fabian Anicker (f.anicker(at)hhu.de)
PD Dr. Anne K. Krüger (anne.krueger(at)weizenbaum-institut.de)
Literatur
Amoore, Louise & Piotukh, V. /2015). Life beyond big data: Governing with little analytics. Economy and Society 44(3): 341–66. https://doi.org/10.1080/03085147.2015.1043793.
Amoore, L., Campolo, A., Jacobsen, B. & Rella, L. (2024). A World Model: On the Political Logics of Generative AI. Political Geography 113 (August). https://doi.org/10.1016/j.polgeo.2024.103134.
Anicker, F., Flaßhoff, G., & Marcinkowski, F. (2024). The Matrix of AI-Agency: On the Demarcation Problem in Social Theory. Sociological Theory, 42(4), 307–328. https://doi.org/10.1177/07352751241289925
Beckers, A., & Teubner, G. (2024). Digitale Aktanten, Hybride, Schwärme: Drei Haftungsregime für künstliche Intelligenz. Suhrkamp.
Bory, S., & Bory, P. (2015). New imaginaries of the artificial intelligence. Im@ Go. A Journal of the Social Imaginary(6), 66–85.
Brynjolfsson, E., & McAfee, A. (2014). The second machine age: Work, progress, and prosperity in a time of brilliant technologies. Norton.
Brynjolfsson, E., Li, D., & Raymond, L. (2023). Generative AI at Work (Working Paper No. 31161). National Bureau of Economic Research. https://doi.org/10.3386/w31161
Büchner, S. (2023). Endless Potential – Potenzial als mythologische Komponente digitaler Technologien. In T. Klatetzki, & G. Ortmann (Hrsg.), Organisation und Mythos (S. 219-253) https://doi.org/10.5771/9783748917779-219
Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press. https://www.jstor.org/stable/10.2307/j.ctv1ghv45t
Hirsch-Kreinsen, H. (2024). Artificial intelligence: a ›promising technology‹. AI & SOCIETY, 39(4), 1641–1652. https://doi.org/10.1007/s00146-023-01629-w
Maslej, N., Fattorini, L., Perrault, R., Gil, Y., Parli, V., Kariuki, N., Capstick, E., Reuel, A., Brynjolfsson, E., Etchemendy, J., Ligett, K., Lyons, T., Manyika, J., Niebles, J. C., Shoham, Y., Wald, R., Walsh, T., Hamrah, A., Santarlasci, L., Betts Lotufo, J., Rome, A., Shi, A., Oak, S. ›The AI Index 2025 Annual Report,‹ AI Index Steering Committee, Institute for Human-Centered AI, Stanford University, Stanford, CA, April 2025.
Murphy, K. P. (2022). Probabilistic machine learning: an introduction. MIT press.
Nassehi, A. (2019). Muster: Theorie der digitalen Gesellschaft. C.H. Beck.
Scott, Susan V., & Orlikowski, Wanda J. (2025). Exploring AI-in-the-Making: Sociomaterial Genealogies of AI Performativity. Information and Organization 35(1): 100558. https://doi.org/10.1016/j.infoandorg.2025.100558.

