03.02.2026 • von Jonas Kellermeyer
Gefährlicher Anthropozentrismus im Umgang mit KI
Siri, Alexa, Cortana, Bixby… Wir nennen unsere digitalen Assistenten häufig beim Namen und sind auch sonst schnell dabei, sie zu behandeln, als wären es menschliche Wesen – samt menschlicher Befindlichkeiten. Warum ein solches Verhalten der zunehmenden Anthropomorphisierung problematisch ist, das gedenken wir in unserem nun folgendem Deep Dive zu klären.
Warum wir Künstliche Intelligenz falsch verstehen – und uns damit selbst ein Bein stellen
Der gegenwärtige Diskurs über Künstliche Intelligenz ist von einer eigentümlichen Schieflage geprägt. Einerseits wird KI als nahezu autonome Entität verhandelt – als denkendes Gegenüber, als kreative Instanz, als potenzieller Rivale des Menschen. Andererseits dient sie als bloßes Werkzeug, als neutrale Verlängerung menschlicher Intentionalität, als effiziente Maschine ohne eigenen Bedeutungshorizont. Beide Perspektiven scheinen sich zu widersprechen, folgen jedoch einer gemeinsamen Grundannahme: einem tief verankerten Anthropozentrismus.
Dieser Anthropozentrismus äußert sich darin, dass KI fast ausschließlich entlang menschlicher Kategorien beschrieben, bewertet und gefürchtet wird. Wir fragen, ob KI „versteht“, „kreativ ist“, „Bewusstsein besitzt“ oder „uns als Menschen ersetzt“. Wir messen sie an menschlicher Intelligenz, menschlicher Moral, menschlicher Autonomie. Genau darin liegt das Problem. Nicht, weil diese Fragen per se illegitim wären, sondern weil sie den Blick auf das verstellen, was KI tatsächlich ist – und wie sie real wirkt.
Anthropozentrismus als Denkfalle
Anthropozentrismus bezeichnet die Tendenz, den Menschen als Maß aller Dinge zu setzen und alles in menschlichen Kategorien zu bewerten. In philosophischen, technologischen und gesellschaftlichen Kontexten ist dies kein neues Phänomen – man denke nur an die Behandlung von Haustieren oder die Rede über ökologische Sachverhalte. Neu ist jedoch die Radikalität, mit der diese Perspektive auf KI angewandt wird, bzw. sich auf solche übertragen lässt.
KI wird entweder vermenschlicht oder instrumentalisiert. Sie erscheint als „intelligenter Assistent“, als „kreativer Co-Autor“, als „Agent“. Oder sie wird auf ein neutrales Werkzeug reduziert, dessen Effekte vollständig im menschlichen Gebrauch aufgehen. Beides sind anthropozentrische Vereinfachungen.
Die Wahrheit liegt irgendwo zwischen diesen Komplexität reduzierenden Annahmen, denn KI ist weder Subjekt noch bloßes Objekt. Sie ist ein soziotechnisches System, eingebettet in Infrastrukturen, Datenökonomien, Entscheidungsarchitekturen und institutionelle Machtverhältnisse. Wer KI ausschließlich aus der Perspektive menschlicher Eigenschaften betrachtet, übersieht genau diese strukturelle Dimension. Wir haben an anderer Stelle bereits über die techno-soziale Solidarität geschrieben, was wir an dieser Stelle gerne ins Gedächtnis rufen möchten.
Die Illusion der Vergleichbarkeit
Ein zentrales Symptom anthropozentrischen Denkens ist der permanente Vergleich: Kann KI denken wie wir? Lernen wie wir? Kreativ sein wie wir? Diese Fragen sind nicht nur methodisch fragwürdig, sie verbleiben auch analytisch unproduktiv.
KI-Systeme operieren nicht auf der Ebene menschlicher Kognition. Sie verfügen weder über Intentionalität noch über Weltbezug im phänomenologischen Sinne. Eine KI liest weniger als sie ausliest, weiß weniger als sie viel mehr stochastisch vorgeht. Dennoch – oder gerade deshalb – erzeugen diese Vorgänge Ergebnisse, die menschlichem Denken ähneln – oder es zumindest simulieren. Genau diese Ähnlichkeit verleitet dazu, Gleichartigkeit zu unterstellen. Und auch, wenn es viele Apologeten gibt, die zu behaupten pflegen, auch menschliches Denken sei im Grunde nicht anders beschaffen, als die Reasoning-Prozesse der Maschinen (vgl. Kurzweil 2016), kommen wir nicht umhin, eine gewisse Skepsis anzumelden, wenn es darum geht, wie KI letztlich funktional aufbereitet ist.
Dabei ist die Differenz entscheidend. KI „versteht“ nicht, sie korreliert. Sie „entscheidet“ nicht, sie optimiert. Sie „lernt“ nicht im menschlichen Sinne, sondern passt Parameter dynamisch an. Diese Differenz ist kein Defizit, sondern konstitutiv. Wer sie ignoriert, läuft Gefahr, falsche Erwartungen zu formulieren und falsche Verantwortlichkeiten zuzuweisen.
Verantwortung wird falsch verortet
Der anthropozentrische Blick auf KI führt zu einer problematischen Verschiebung von Verantwortung. Wenn KI als quasi-autonomes Gegenüber begriffen wird, entsteht schnell die Vorstellung, Entscheidungen seien „vom System getroffen worden“. Wenn sie hingegen als neutrales Werkzeug gilt, wird Verantwortung vollständig individualisiert.
Beide Positionen greifen zu kurz. Verantwortung liegt weder in der Maschine noch ausschließlich bei den einzelnen Nutzer:innen. Sie ist dezentral verteilt: auf Entwickler:innen, Organisationen, regulatorische Rahmenfragemente, sozio-ökonomische Anreize und kulturelle Narrative. KI wirkt nicht isoliert, sondern innerhalb komplexer Entscheidungsgefüge, in einem regelrechten Netzwerk, das Stabilität und Flexibilität in seinen Aushandlungsroutinen mit sich führt. Ein aus den Fugen geratener Anthropozentrismus weiß es eine Verteilung dieser Art zu verschleiern. Er personalisiert ein strukturelles Phänomen und entpolitisiert es gleichermaßen.
Anthropozentrismus als Innovationsbremse
Paradoxerweise behindert anthropozentrisches Denken nicht nur eine kritische Auseinandersetzung mit KI, sondern auch ihre sinnvolle Nutzung ungemein. Wer KI als „menschliche Intelligenz in anderer Form“ versteht, erwartet von ihr Kreativität, Urteilsvermögen oder ethische Sensibilität. Wer sie als bloßes Tool begreift, unterschätzt ihre systemische Wirkung.
In beiden Fällen bleibt das eigentliche Potenzial ungenutzt: KI als Verstärker, als (Zerr-)Spiegel, als strukturelles Experimentierfeld zu nutzen, ist eine Möglichkeit, die zwischen den Stühlen stattfindet. Nicht, weil sie besser denkt als Menschen, sondern weil sie anders operiert. Ihre Stärke liegt nicht in einem stärkeren Maß an ungeprüfter Autonomie, sondern in einer Möglichen Skalierung der Produktivität. Es geht nicht um Urteilskraft, sondern um Mustererkennung. Nicht um Sinnstiftung, sondern um zweckgebundene Variation.
Ein nicht-anthropozentrischer Umgang mit KI setzt genau hier an: bei der bewussten Gestaltung von Schnittstellen zwischen menschlichem Denken und maschineller Verarbeitung – bei sogenannten Future User Interfaces (FUIs) also.
Die Gefahr der falschen Nähe
Ein weiteres Problem anthropozentrischer KI-Narrative ist die Herstellung falscher Nähe. Sprachmodelle, Avatare und „Assistenzsysteme“ sind bewusst so gestaltet, dass sie menschliche Kommunikation imitieren. Diese Imitation erzeugt ganz bewusst Vertrautheit, manchmal sogar emotionale Bindung.
Doch Nähe ohne Gegenseitigkeit ist hochgradig asymmetrisch. KI kann keine Verantwortung übernehmen, keine Beziehung erwidern, keine moralische Rechenschaft ablegen. Wer ihr dennoch menschliche Qualitäten zuschreibt, verkennt diese Asymmetrie und öffnet Einfallstore für Manipulation, Fehlinterpretation und übermäßige Abhängigkeit.
Die Gefahr des Anthropozentrismus liegt hier nicht in der Technik selbst, sondern in ihrer kulturellen Rahmung.
KI ist ein ökologisches Phänomen, kein eigenständiger Akteur
Ein alternativer Zugang bestünde darin, KI weniger als autonom handelnden Akteur und stärker als ökologisches Phänomen zu begreifen: gewissermaßen als Infrastruktur, die das Treffen von Entscheidungen begünstigt. Ein systemischer Zusammenhang, der es versteht, Verhalten zu lenken, ohne dabei die Handlungsfähigkeit menschlicher Individuen zu beschränken.
In dieser Perspektive rückt nicht die Frage nach der „Intelligenz“ der KI in den Vordergrund, sondern die Frage nach ihrer Wirkung. Wie verändern KI-Systeme Arbeitsprozesse? Wissensproduktion? Entscheidungslogiken? Machtverhältnisse? Welche Annahmen schreiben sie fort – und welche blenden sie aus?
Diese Fragen lassen sich nicht anthropozentrisch beantworten. Sie erfordern systemisches Denken.
Jede KI ist das Produkt eines menschlichen Schöpfungsprozesses und so sollte auch das Gefälle zwischen berechnenden Mechanismen und strategisch tätigen Individuen entsprechend strukturiert werden.
Warum sich anthropozentrische Annahmen so hartnäckig halten
Dass sich anthropozentrische Narrative so bleischwer in unser kollektives Bewusstsein eingeschrieben haben, ist kein Zufall: sie erfüllen eine wichtige psychologische Funktion. Im Kern geht es darum, ein komplexes, schwer greifbares Phänomen verständlich zu machen, indem man es familiarisiert. So können etwa Unsicherheiten im Umgang mit KI reduziert werden, indem man sie in bekannte Kategorien einzuordnen und so zumindest allegorisch einen Einsatzpunkt für jedwede Kritik zu liefern weiß.
Doch ein solcher Komfort hat seinen Preis: er verhindert eine nüchterne Analyse und erzeugt falsche Erwartungen, was den Diskurs von strukturellen Fragen hin zu metaphysischen Spekulationen verschiebt.
Die Frage ist nicht, ob KI „uns ähnelt“. Die Frage ist vielmehr, wie sie unsere altbewährten Systeme verändert und wie wir diese Veränderung gestalten wollen.
Ein Plädoyer für einen post-anthropozentrischen KI-Diskurs
Ein verantwortungsvoller Umgang mit KI erfordert einen Perspektivwechsel. Weg von der Frage nach der Menschlichkeit der Maschine, hin zur Frage nach der Maschinisierung bestimmter Entscheidungsprozesse. Weg von überbordender Personalisierung, hin zu einem breit angelegten Strukturverständnis. Wenn es stimmt, dass zum Denken ein Körper notwendig ist (vgl. Lyotard 2014), dann ist die Aufgabe der Technik, sicherzustellen, dass ein solcher unversehrt besteht:
„Ihr wisst es ja, dass die Technik keine Erfindung der Menschen ist. Eher umgekehrt. Die Anthropologen und Biologen sind sich einig darin, dass schon die einfachen Urorganismen […] technische Gebilde waren. ‚Technik‘ ist nämlich jedes bestehende System, das die zu seinem Überleben wichtige Information identifiziert, speichert und bearbeitet, um aus Regelmäßigkeiten bestimmte Verhaltensformen […] abzuleiten, die zumindest sein Überleben sichern“ (Lyotard 2014: 23).
Dieser so benannte Umstand bedeutet nicht, den Menschen aus dem Zentrum zu verdrängen. Im Gegenteil. Es bedeutet, menschliche Verantwortung ernst zu nehmen. Das gilt gerade dort, wo sie nicht mehr unmittelbar sichtbar ist.
Ein post-anthropozentrischer KI-Diskurs würde anerkennen, dass KI weder Subjekt noch bloßes Objekt ist, sondern als Teil eines Gefüges – als regelrechtes Quasi-Objekt/Quasi-Subjekt (vgl. Serres 1987) – eine Gemeinschaft markiert. Als solche ist es unser Pflicht, die stets stattfindende Einflussnahme zu gestalten, zu regulieren und sie letztlich zu verantworten.
Fazit: Anthropozentrismus ist bequem und gefährlich
Der anthropozentrische Umgang mit KI ist verständlich, aber problematisch. Er vereinfacht exakt dort, wo ein Mehr an Differenz nötig wäre. Er personalisiert, wo Strukturen analysiert werden müssten. Und er lenkt vom eigentlichen Gegenstand ab: der Gestaltung soziotechnischer Systeme und der Schaffung techno-sozialer Solidarität.
Die Gefahr, die mit KI einher geht, liegt nicht vorrangig in der Übernahme menschlicher Rollen durch technologische Akteure, sondern vielmehr in einem regelrechten Unverständnis gegenüber der generellen Funktionsweise von KI überhaupt. Wenn wir ihr Eigenschaften zuschreiben, die sie nicht besitzt – und ihr zugleich Wirkungen zuschreiben, für die niemand Verantwortung übernehmen will, dann haben wir es mit einer fundamentalen Schieflage zu tun.
Ein reflektierter Umgang mit KI beginnt daher nicht mit der Frage, was Maschinen können, sondern mit der Frage, wie wir denken. Und genau hier liegt die eigentliche Herausforderung. Wir müssen uns mehr mit uns selbst beschäftigen, um zu verstehen, wo wir die Grenze zwischen Technosphäre und sozialer Welt zu ziehen gedenken. Schließen möchte ich mit einem Zitat von Vilém Flusser, der anzumerken wusste, dass
„[d]ie telepathische Methode, durch ‚äußere‘ Dialoge Informationen zu synthetisieren, durch Dialoge, an welchen theoretisch alle Menschen und alle ‚künstlichen Intelligenzen‘ mittels Kabel oder Satellit beteiligt sind, […] im Grunde nichts anderes [ist] als eine technische Anwendung der theoretischen Erkenntnis, daß alle Informationen aus Komputationen von Informationsbits entstehen“ (Flusser 2018: 107).
Literatur
Flusser, Vilém (2018): ins universum der technischen bilder. edition flusser, Berlin.
Kurzweil, Ray (2016): Die Intelligenz der Evolution: Wenn Mensch und Computer verschmelzen. Kiepenheuer und Witsch, Köln.
Lyotard, Jean-François (2014): „Ob man ohne Körper denken kann.“ In: ders. Das Inhumane. Plaudereien über die Zeit. Passagen Verlag, Wien, S. 19-35.
Serres, Michel (1987): Der Parasit. Suhrkamp Verlag, Frankfurt a.M.