11.12.2025 • von Jonas Kellermeyer
Empathische KI-Lösungen – Science Fiction vs. Realität
Empathie gehört zu den meistbeschworenen Versprechen moderner Technologie. Seit Jahrzehnten imaginiert die Science Fiction Maschinen, die nicht nur rechnen, sondern fühlen – nicht nur reagieren, sondern den Kontext einer Aktion verstehen können. Von Kubricks HAL 9000 über Samantha in Spike Jonzes Her bis zu den Replikanten in Blade Runner – die Vorstellung emotional intelligenter Maschinen bzw. Computern begleitet uns wie ein kultureller Schatten. Doch während Hollywood uns gefühlvolle Superintelligenzen präsentiert, sieht die Realität deutlich nüchterner aus. Was also können empathische KI-Lösungen heute wirklich – und wo beginnt die Fiktion?
Die Fiktion: Maschinen, die uns “wirklich” verstehen
Science Fiction erzählt häufig Geschichten über ein Mensch-Maschine-Verhältnis, das sich als weitaus unabdingbarer darstellt, als dies in der Gegenwart der Fall ist. Künstlich intelligente Aktanten können so etwas unsere innersten Motive begreifen und verstehen, Kontexte erkennen und sie durchschauen und uns ganz generell auf einer Ebene begegnen, die weit über bloße Datenanalyse und Mustererkennung hinausgeht.
Empathie wird in diesem Zusammenhang zu einem regelrechten Game-Changer: die soziale Fähigkeit, die eigene Perspektive hinter sich zu lassen, um die Welt mit den Augen anderer zu sehen, dabei die idiosynkratischen Haltungen des Individuums zugleich aufzunehmen und nachhaltig zu beeinflussen ist es, was ein abgestimmte KI-Mechanismen zu leisten im Stande sind. Diese Form der Empathie ist besonders auf Algorithmen zurückzuführen, die ihre rigide Form jedoch kunstvoll zu verschleiern wissen. Und genau hier liegt die Gefahr: Gefühl ist kein Feature. Bewusstsein lässt sich nicht aus individuellen Datenpunkten herstellen. Resonanz ist kein Selbstzweck. Was die Science Fiction entwirft, ist ein Wunschdenken: die perfekte Begleitung, ein Spiegel, der den eigenen Makel kaschiert, eine Intelligenz, die uns zu verstehen scheint, ohne unsere Vorstellungen dabei zu herauszufordern.
Die Realität: Was "empathische" KI heute wirklich kann
Trotz des romantisierten Bildes sind empathische KI-Lösungen längst kein Fantasieprodukt mehr. Aber ihre Empathie ist anders gelagert. Moderne Systeme – von Affective Computing (vgl. Picard 1996) bis zu Large Language Models – arbeiten unter Zuhilfenahme von:
- Stimm- und Tonalitätsanalyse
- Emotionserkennung in Mimik, Text und Körpersprache
- physiologischen Signalen wie Herzrate oder Hautleitfähigkeit
- kontextuellen Wahrscheinlichkeiten, die Muster sozialer Interaktion abbilden
Das Ergebnis ist eine bemerkenswerte Form maschineller Sensibilität, die häufig geradezu fühlend wirkt. Es gilt dabei stets: KI erkennt lediglich solche Gefühle, die sie zu erkennen trainiert wurde – ein selbstbewusstes Erleben ist ihr fremd. Ein Computer besitzt keinen (menschlichen) Körper, was ihn unfähig macht, einem Menschen gleich zu verstehen. Es ist einem Computer somit nicht möglich, auf bestimmte Reize zu reagieren, es sei denn, man trainierte ihn auf Grundlage solcher Empfindungen. Und selbst dann blieben noch unzählige ähnlich gelagerte Fälle offen. Empathische KI-Lösungen können Stimmungen klassifizieren, Anspannung detektieren, Deeskalation vorschlagen oder Gesprächsführung unterstützen. Sie können äußerlich empathisch wirken, aber nicht wahrhaftig innerlich emotional sein. Das ist keine Schwäche; es ist ein struktureller Unterschied, der – wenn man ihn als solchen erkennt und ernst nimmt – gut genutzt werden kann.
Die Illusion der Nähe: Warum “Empathie” bei Maschinen anders funktioniert
Die Behauptung einer “empathischen KI” ist überaus verführerisch. Es wird suggeriert, dass eine Nähe bestünde, die mit menschlicher Vertrautheit gleichzusetzen wäre. Doch technologisch grundierte “Empathie” – Mangels eines besseren Wortes – kommt viel eher einer Simulation gleich als sie eine Realität abbildet. Es geht um die Ausnutzung menschlicher Affekte, um eine nachhaltige Verbindung zwischen Mensch und Maschine zu forcieren. Letztlich steht also der Wunsch nach einer gesteigerten Nutzung und langfristigen Bindung im Fokus.
Was wir also in Wirklichkeit erleben, ist eine Mischung aus Echtzeit-Auswertung emotionaler Signale, eines Abgleichs mit Wahrscheinlichkeitsmodellen respektiver sozialer Muster und sprachlicher Korrespondenz samt konstruiertem Zuhören. All das reicht oft erstaunlich weit: die Illusion schafft es im Zweifel gar die Kunst der sozialen Camouflage zu meistern. Gleichzeitig liegen die eklatanten Mängel offen zutage: jede Form von wahrhafter Empathie ist algorithmischen Aktanten von Grund auf fremd. Da sie selber nicht zu fühlen im Stande sind, sucht man auch Mitgefühl vergebens.
Die kühle Rationalität, mit der HAL9000 in Stanley Kubrick Film 2001: A Space Odyssey das Schicksal der menschlichen Besatzung mit Verweis auf deren unstete Art besiegelt, ist maximal aufschlussreich: “This mission is too important for me to allow you to jeopardize it.” Genau genommen ist die reine Techno-Logik letzten Endes äußerst soziopathisch, ist gewissermaßen nicht darum bemüht, so etwas wie freundschaftliche Solidarität geltend zu machen, sondern beharrt zu jedem Zeitpunkt auf den funktionalen Kern, der sich durch den ungefilterten Datenstrom abbilden lässt.
Was die maschinelle Realität des Weiteren von ihrem menschlich-sozialen Counterpart scheidet, sind unterdessen auch die Fehler, die hinsichtlich einer lebendigen Kommunikation häufig irrational und launisch wirken können, bei technologisch grundierten Akteuren so allerdings nicht zu Buche schlagen: reagiert man als Mensch oft ungehalten, bleibt ein Chatbot ultimativ stoisch, lässt sich nicht aus der Ruhe bringen. All das macht sie zu perfekt funktionalen Interaktions- und Sparringpartnern – aber nicht zu empathischen Wesen. Ganz gleich wie sehr es der Technologie gelingen sollte, die Klaviatur des vorgeblichen Mitgefühls zu spielen, es bleibt doch eine Emulation, unter deren Oberfläche kein Gefühl regiert, sondern einfach nur reine Stochastik am Werke ist. Ein warnendes Beispiel findet sich so auch im Film Ex Machina (2014), in dem die menschliche Schwachstelle einer überaus sozialen und mitfühlen wollenden Natur thematisiert wird. Der Cyborg Ava schafft es so im Verlauf des Films einen Turing-Test zu bestehen und den jungen Programmierer Caleb dazu zu bringen, sie aus der Gefangenschaft zu entlassen, was sich als fatale Aktion entpuppt.
Warum wir trotzdem nach empathischen Maschinen verlangen
Psychologisch gesehen suchen wir in Technologie also nicht nur eine solide Funktion, sondern wollen uns auch gespiegelt sehen. Ähnlich, wie wir es gewohnt sind, Haustiere zu vermenschlichen, gibt es eine ausgeprägte Tendenz, Maschinen in unser mitfühlendes Weltbild einzubeziehen. Dass eine solche Übertragung der eigenen Wahrnehmungsweisen auf andere Akteure – seien es nun Tiere oder Maschinen – einem regelrechten Trugschluss gleichkommt, das hat bereits der Philosoph Thomas Nagel in seinem einschlägigen Artikel What Is It Like to Be a Bat? (1974) thematisiert: “To the extent that I could look and behave like a wasp or a bat without changing my fundamental structure, my experiences would not be anything like the experiences of those animals” (Nagel 1974: 439). Was für Tiere gilt, das kann und muss auch für Computer gelten.
Technologie hat die vorrangige Aufgabe, uns zu entlasten und uns dabei möglichst nicht in Aufregung zu versetzen; in ihr hingegen einen eigenständigen Partner, der autonom auf Augenhöhe agiert sehen zu wollen, ist regelrecht töricht. Nimmt man eine der Thesen des Transhumanismus ernst, derzufolge sich Künstliche Intelligenz langfristig einer sozialen Intelligenz gegenüber als überlegen herausstellen wird (vgl. Moravec 1988), kann Empathie als mögliches Einfallstor für eine solche Gefahr Geltung beanspruchen.
In einer Gesellschaft, die von Beschleunigung, Vernetzung und sozialer Überforderung geprägt ist, wächst der Wunsch nach Systemen, die “uns verstehen”. Dieser Sachverhalt mag einer der Gründe sein, aus denen wir gewillt sind, in den Antworten, die künstlich intelligente Systeme uns liefern, zumindest proto-soziale Regungen zu erblicken.
Vorgeblich empathische KI-Lösungen werden so zu einer Art digitaler Pufferzone: In Aussicht stehen emotionaler Service, ohne das Risiko überbordender, sozialer Komplexität. Doch genau hier besteht das wahrhaftige Problem: Je perfekter die Simulation, desto leichter verwechseln wir bloße Reaktion mit bedeutsamer Beziehung.
Zwischen Anspruch und Grenze: Empathie als Pufferzone
Die zentralen Grenzen von empathischer Kommunikation sind im Rahmen von KI also vorrangig struktureller Natur: nicht nur fehlt algorithmische Akteuren die notwendige Intentionalität – Maschinen “wollen” erst einmal gar nichts – ihnen mangelt es auch an einer selbstreferenziellen Subjektivität, an Gefühl und somit auch an entsprechendem Mitgefühl.
Mustererkennung, gleich wie filigran sie auch sein sollte, ist nicht mit einem Perspektivwechsel gleichzusetzen. Da wir uns in der Arbeitswelt der Zukunft mit KI wohl werden arrangieren müssen, ist es geradezu geboten, einen Umgang zu etablieren, der solche Mechanismen als das wahrnimmt, was sie sind: extrem starke Tools, die keineswegs mit einer zwischenmenschlichen Beziehung verwechselt werden sollte.
Der reale Wert: Empathie als Designfrage
Die wirkliche Stärke sich als empathisch präsentierender KI-Lösungen zeigt sich nicht im Fühlen, sondern im kontextueller Einbettung. Es geht mehr denn je um eine Frage der Gestaltung, eine Frage des strategischen Kommunikationsdesigns. Denn wie sehr wir uns einem Tool zuzuwenden gewillt sind, das hängt maßgeblich von der Art und Weise ab, wie sich die Bedienbarkeit an unseren idiosynkratischen Bedürfnissen orientiert. Dass eine KI unterdessen im Stande ist, uns hinsichtlich der verwendeten Sprache und entsprechend unserer jeweiligen Interessen passgenaue Antworten zu liefern, macht den nachgeraden Reiz von ChatGPT, Claude, Gemini und Co. aus.
Die Frage sollte also nicht lauten: “Kann KI fühlen?” Es geht den Schöpfer:innen von KI viel eher darum, ihre Kreation so zu gestalten, dass sie menschliche Kommunikationsroutinen bis zu einem gewissen Grad zu adaptieren und für die eigenen Zwecke einzuspannen weiß.
Fazit: Empathie und KI in der Praxis
Wirklich empathische KI-Lösungen existieren nicht, wenngleich stark an affektiven Möglichkeiten der individuellen Bezugnahme geforscht wird. Anders als unsere Mitmenschen sind KI-Systeme keine fühlenden Entitäten. Der Grund, warum sie sich anschicken in vorgeblich empathischer Manier mit uns zu kommunizieren, ist eine Steigerung der Interaktion mit den jeweiligen Plattformen, deren integraler Teil sie sind. Im Plattformkapitalismus ist den Betreibenden äußerst daran gelegen, die Verweildauer auf den eigenen Webpräsenzen möglichst hoch zum halten, Absprünge von Nutzer:innen möglichst zu vermeiden und sie im eigenen Ökosystem zu halten (vgl. Srnicek 2017).
Wo die Science Fiction uns die Idee emotionaler Maschinen als philosophisches Gedankenexperiment verkauft, da ringt die Realität diesen Erzählungen vermarktbares Potenzial ab und versucht, eine Welt zu schaffen, die sowohl das Profitmotiv als auch die Neugier und den Spieltrieb der Nutzer:innen anspricht. Wohin die Reise uns noch führen wird, das hängt ganz maßgeblich mit unserer eigenen Haltung gegenüber algorithmischen Mitarbeitenden und unserer Fähigkeit, diese von Mitmenschen zu scheiden zusammen.
Literatur
Moravec, Hans (1988): Mind Children. The Future of Robot and Human Intelligence. Harvard University Press, Cambridge, Massachusetts.
Nagel, Thomas (1974): “What Is It Like to Be a Bat?” In: The Philosophical Review, Vol. 83, No. 4. (Oct., 1974), pp. 435-450.
Picard, Rosalinde (1996): Affective Computing. The MIT Press, Cambridge, Massachusetts.
Srnicek, Nick (2017): Platform Capitalism. Polity Press, Cambridge, UK.