Christian Niemeier
„Emotion as a Service“ als Grenzfall zwischen Kundenorientierung und Persönlichkeitsrecht
Systeme, die Emotionen lesen. Hotlines, die Konflikte entschärfen bevor der Kunde überhaupt wütend wird. „Semantische Intelligenz“ verspricht Effizienz, Qualität, Kundenzufriedenheit. High-Tech Revolution im Kundenservice – High-Risk im Datenschutz? Emotionserkennung, Sprachmusteranalyse, Echtzeitbewertung: Was als Instrument für Kundenzufriedenheit gemeint ist, analysiert gleichzeitig auch die Emotionen von Beschäftigten. Reguliert der Betriebsrat bald „Neusprech“ und „Doppeldenk“?
Servicewüste Deutschland
Es ist ein früher Donnerstagvormittag im Juli, als für Rentner Siegbert Wawrzyniak eine Welt zusammenbricht. Beim Öffnen des Briefkastens fällt er fast hintenüber: Die Krankenkasse schickte ihm eine Nachzahlungsaufforderung über 700 Euro. Ausgerechnet ihm, dem peniblen Ordnungsmenschen der nie jemals auch nur eine Mahnung erhalten hat. Ja nicht einmal einen Strafzettel hatte Siegbert Wawrzyniakin den all den Jahren erhalten.
Völlig verstört über diesen offensichtlichen Irrtum der Krankenkasse greift er zum Hörer und ruft die Hotline an. Dort trifft er zunächst auf die virtuelle Assistentin Tanja. Mit freundlicher Computerstimme säuselt sie Herrn Wawrzyniak durch das Telefonmenü. Nach der umständlichen Eingabe seiner Versichertennummer, der Anliegen-ID und einiger weiterer Datenpunkte eröffnet sie ihm: „Die aktuelle Wartezeit beträgt 22 Minuten.“
Nach 21 Minuten und 46 Sekunden meldet sich Hotline-Mitarbeiterin Saskia Putenschröder gelangweilt mit dem standardisierten Eröffnungssatz: „Was das alles überhaupt soll“, platzt es aus Herrn Wawrzyniak heraus. Es sei doch „völlig offensichtlich, dass es sich bei den 700 Euro um einen Fehler handelt!“. „Na dit wees ick dock nüscht“ entgegnet ihm Frau Putenschröder lakonisch. „Ohne Versichertennummer und Anliegen ID kann ick sowieso erstma janischt für Ihnen machen“. „Und überhaupt“ – „buchstabiernse mir jetze erstmal Ihren Nachnamen. Ick muss Sie hier ja wohl erst ma in meen System finden“. Der Rentner keucht „Die habe ich doch schon dreimal eingegeben!“ schreit er. Seine Stimme bricht: „Sie kennen doch meinen Nachnamen!“. Die Leitung vibriert.
Zwei Minuten später knallt er entnervt und wild entschlossen die Krankenkasse zu wechseln den Hörer auf die Gabel. Noch immer ganz rot vor Zorn öffnet er sein Tintenfass um sich bei der Kasse über den Tonfall von Frau Putenschröder zu beschweren. Schließlich würden die Gespräche ja alle aufgezeichnet, denkt er. So oder so ähnlich trägt es sich täglich hunderttausendfach in Deutschland zu.
Servicewüste Deutschland? Das muss nicht sein. Denn eine neue Generation von KI-Systemen verspricht Abhilfe – und birgt zugleich neue Risiken.
Semantische Intelligenz
Hotlines, Sales und Qualitätsprüfungen werden derzeit neu erfunden. Denn ab sofort wird nicht mehr nur aufgezeichnet, was gesagt wird („Syntax“), sondern auch wie („Semantik“).
Die sogenannte Semantische Intelligenz erkennt dabei Absichten, Emotionen und Gesprächsqualität in Echtzeit. Großartig für den Kunden – und potenziell heikel für Frau Putenschröder. Die psychometrische Vermessung der menschlichen Emotion geht dabei weit über ein reines KI-basiertes herumdeuteln etwa anhand von Schlagwort-Listen hinaus.
Sie kombiniert vielmehr sprachliche Inhalte (Syntax) mit paralinguistischen Signalen (Semantik):
Wortmuster-Erkennung
Bestimmte Verkettungen etwa aus, „unfair“, „Nachzahlung“, ergänzt durch die Detektion typischer Sequenzen „Ich habe schon zum dritten Mal…“ markieren Konfliktpotenzial.
Buzzwords
Triggerwörter wie „Anwalt“ oder „Geldschneiderei“ aktivieren Deeskalations-Leitfäden. Das Gespräch wird automatisch an den speziell geschulten Teamleiter weitergemakelt.
Hektik in der Leitung (Silbenzahl)
Wird eine steigende Anzahl von Silben pro Sekunde überschritten, weiß das System: Aha, hier wird es wohl gerade hektisch in der Leitung. Dem Mitarbeiter werden gezielt beschwichtigende Satzbausteine auf seinem Bildschirm angezeigt.
Lautstärke/Amplitude
Amplituden und Peaks in den Tonspuren zeigen Erregung und Frust. Ein klares Signal dafür, dass es gerade laut wird in der Leitung.
Kontext-Verständnis
Aus der Kombination von Sequenzen, Silben, Buzzwords und vieler weiterer Datenpunkte wird der eigentliche Zweck abgeleitet (z.B. „Unzufriedenheit → Kündigungsgefahr“) und automatisch eine Risikokategorisierung des Kunden vorgenommen. So lassen sich bisher eher nebulöse Begriffe wie „Gesprächsqualität“ oder „Begegnungsqualität“ objektivieren. Egal ob es dabei um eine Beschwerde bei der BKK geht, eine Sendungsverfolgung, eine Reifenpanne oder Nachfragen zur Bedienung des Videorekorders von Media. M.arkt.
VIER Semantic Intelligence (vier.ai) ist ein solcher Anbieter. Die VIER-Software wird bereits erfolgreich in Hotlines, Sales-Teams und bei QC-Prozessen eingesetzt. Sie ist hinsichtlich ihrer Möglichkeiten zur psychometrischen Vermessung menschlicher Emotion bereits weit fortgeschritten. Für Unternehmen heißt das: Mehr Abschlüsse, weniger Eskalation, zufriedenere Kunden, strukturierte Qualitätssicherung.
Schöne neue Welt. Eine Oase in der Servicewüste oder eine datenschutzrechtliche Fata-Morgana?
Der Preis des Fortschritts: Die Persönlichkeitsrechte der Beschäftigten
So überzeugend die Kundenvorteile sind, für Beschäftigte ist das ein tiefer Eingriff in die informationelle Selbstbestimmung. Jeder hat mal einen schlechten Tag. Jeder fährt mal aus der Haut, selbst der Geduldigste. Der Mensch ist eben vor allem eins: Mensch. Es braucht nicht viel Fantasie, um sich vorzustellen, dass die ursprünglich in Richtung Kunde eingesetzte Software auch innerhalb der Organisation zahlreiche Anwendungsfälle hätte:
- Wollten wir nicht gendern?
- Wollten wir uns nicht alle duzen?
- Gibt es hier etwa Hinweise auf psychische Erkrankungen?
- Hat hier jemand eine besonders kurze Zündschnur?
- Wird hier über den Chef gelästert?
Der Fantasie sind hier keine Grenzen gesetzt. Damit am Ende die gute Intention in „Neusprech“ und „Doppeldenk“ kippt, gilt es für Datenschützer stets den Nutzen und den Eingriff in die Persönlichkeitssphäre in einem vertretbaren Verhältnis zu halten. Das heißt: Vor der Einführung einer solchen semantisch orientierten Software klare Spielregeln für deren Einsatz festzulegen.
Arbeitsverträge
Das beginnt bei den Arbeitsverträgen. Der Mitarbeiter als doloses Werkzeug schuldet Arbeitsqualität mittlerer Art und Güte. Weder muss er besonders freundlich sein, noch schuldet er gute Laune oberhalb eines bestimmten Schwellenwerts.
Möchte der Arbeitgeber seinen Kunden ein auf eine bestimmte Art und Weise kuratiertes Humanes Interface zur Verfügung stellen, so ist dies bereits bei der Gestaltung der Arbeitsverträge zu berücksichtigen. Bonusbasierte- und Außendienstverträge könnten hierfür eine gute Grundlage sein, um die für den Betrieb einer solchen technischen Einrichtung notwendigen personenbezogenen Daten für und gegen den Mitarbeiter erheben, auswerten und nutzen zu dürfen.
Aufgabenbeschreibungen
Im Zuge der Anpassungen des Entgelttransparenzgesetzes (2026) werden die meisten Firmen ohnehin en gros die Stellen- und Aufgabenbeschreibungen aktualisieren müssen. Da empfiehlt es sich dabei auch konkret aufzunehmen, welche personenbezogenen Daten der Beschäftigten auf welcher Position zu welchem Zweck erforderlich sind (vgl. Art. 30 DSGVO, Verarbeitungsverzeichnis).
Betriebsvereinbarungen
Es wird auch nicht ausbleiben, mit den Beschäftigtenvertretern die Spielregeln für die psychometrische Vermessung des Verhaltens der Belegschaft zu verhandeln.
Dies könnte geschehen
- als Absatz in einer verfahrensorientierten Rahmen-Betriebsvereinbarung IT („Semantische Datenanalyse“),
- im Rahmen einer technologieorientierten Betriebsvereinbarung „KI“ oder in einer
- produktorientierten Einzelbetriebsvereinbarung, z.B. „vier.ai“.
Folgende Punkte sollten auf jeden Fall im Governance-Framework enthalten sein:
- Zweckbindung: Einsatz ausschließlich für Kundenzufriedenheit, Servicequalität, Einhaltung der SLAs. Nicht für (automatische) Leistungs- oder Verhaltenskontrolle.
- Transparenz: Mitarbeitende müssen vorab und proaktiv informiert werden, was gemessen wird, wie, von wem, zu welchem Zweck. Auf keinen Fall sollten solche Systeme verdeckt zum Einsatz kommen.
- Pseudonymisierung & Aggregation: Persönliche Daten nur, wenn zwingend; bevorzugt aggregierte Auswertung.
- Anreiz statt Druck: Systeme dürfen nicht automatisch zu negativen Folgen führen; Einsatz nur mit fairer vertraglicher Grundlage (vgl. Bonus-/Außendienstvertrag).
- Mitbestimmung & Kontrolle: Die Beschäftigtenvertreter sollten beim Einsatz, bei Änderungen, Kontrolle, Feedback, Löschkonzepten, negativen Folgen für Einzelpersonen und bei der Entwicklung des Governance-Frameworks eingebunden sein. Ob nach § 80 Abs. 3 BetrVG im Rahmen der Informationspflicht oder nach § 87 Abs. 1 Nr. 6 BetrVG im Rahmen einer echten Mitbestimmung kommt auf den Einzelfall an und ist am Ende Verhandlungssache.
- Pausen, Beteiligung und klare Eskalationswege: Mitarbeitende müssen die Möglichkeit haben, nicht permanent der Vermessung ausgesetzt zu sein. Müssen sich zurückziehen können, brauchen Toleranz- und Ermessensspielräume. Hilfestellungen wie FAQs, Eskalationswege im Sinne von klaren Zuständigkeiten (Psychische Belastung, technische Probleme etc.), Trainings und Schulungen sowie die aktive Einforderung zur Weiterentwicklung des Systems – etwa im Rahmen eines betrieblichen Vorschlagswesens – sorgt für eine hohe Akzeptanz des Systems und macht aus Betroffenen Beteiligte.
Risikoklassifizierung & Datenschutzfolgen-Abschätzung
Eine Risikoklassifizierung im Rahmen AI Acts respektive eine Datenschutzfolgen-Abschätzung nach Art. 35 DSGVO sowie ein Verarbeitungsverzeichnis nach Art. 30 DSGVO für derartige technische Einrichtungen anzufertigen wird vermutlich am Ende die Gefahr von „Neusprech“ nicht verhindern, aber zumindest die Überlegungen dazu dokumentieren. Solche Systeme müssten – wenn man ehrlich ist – voraussichtlich als „High-Risk-KI“ im Sinne des Art. 6 AI Acts eingestuft werden. Die Dokumentation jedoch zeigt im Zweifel dem Gesetzgeber, Wirtschaftsprüfer oder der Datenschutzbehörde, warum man was wie gemacht hat und kann sich – im Fall der Fälle – mildernd auf ein potenzielles Bußgeld auswirken.
Fazit
Systeme mit semantischer Intelligenz sind kein nettes Add-on, sondern die Zukunft der Kunden- und Mitarbeitendenkommunikation.
Sie bietet enorme Vorteile für Sales, Hotline und Qualitätssicherung, aber sie intensiviert auch das Verhältnis zwischen Mensch und System erheblich. Deshalb will deren Einsatz wohlüberlegt sein.
Es empfiehlt sich als DSB das notwendige Fachwissen hierzu zeitig zu erwerben. Externe Sachverständige, HR, QM, BR und IT an einen Tisch zu bringen und die Regelungen für solche Systeme betriebsindividuell vorzubereiten. Dokumentationen müssen angelegt, Rechtsgrundlagen geschaffen werden.
Denn das Einzige, das für Unternehmen auf Dauer teurer ist, als solche Systeme einzusetzen, ist solche Systeme nicht einzusetzen. Was wiederum noch teurer ist als sie nicht einzusetzen, ist sie falsch einzusetzen, also ohne die notwendige datenschutzrechtliche Grundlage. Sogar teurer als die 700 Euro Nachzahlung von Herrn Wawrzyniak. Im Nachhinein stellte sich heraus: Der Bescheid war korrekt. Die Bundesregierung hatte für das Erste Halbjahr 2025 eine einmalige Nachbelastung in Höhe von 4,8 % statt 3,6 % beschlossen. Die Krankenkasse informierte ihre Mitglieder über die App. Die jedoch hält Herr Wawrzyniak für eine Spionageeinrichtung.
| Autor: | Christian Niemeier (MBA) ist Cyber Risk Experte und unterstützt Betriebs- und Personalräte bei der betrieblichen Gestaltung der Digitalisierung. An dieser Stelle schreibt er regelmäßig aus Praxis der Mitarbeiterüberwachung, Risk Monitoring, IT-Governance, Compliance und Datenschutz. | ![]() |




