KI im Contact Center braucht Menschenbild
Die gefährlichste Illusion im aktuellen KI-Diskurs ist nicht, dass Technologie zu viel kann. Sondern dass man beim Reden über Effizienz vergisst, wer heute den Service tatsächlich trägt. Da draußen laufen aber noch Menschen rum. Und im Contact Center sind es sehr viele.
Wer derzeit Strategiepapiere, Anbieterpräsentationen oder Konferenzbühnen verfolgt, bekommt leicht den Eindruck, der menschliche Service sei vor allem ein Auslaufmodell mit Headset. Die operative Realität sieht nüchterner aus: Self-Service löst bislang nur einen kleineren Teil der Anliegen vollständig, viele Automatisierungspläne stoßen an Grenzen, und dort, wo Bots und digitale Prozesse greifen, verschiebt sich die Arbeit der Agents häufig in die schwierigeren, emotionaleren und konfliktträchtigeren Fälle.
Gerade deshalb ist KI im Contact Center keine rein technologische Frage. Sie ist längst eine Führungs-, Organisations- und Respektfrage. Wer das übersieht, ruiniert nicht nur ein Berufsbild. Er gefährdet Servicequalität, Bindung und den Erfolg der eigenen Transformation.
Ein Berufsfeld unter Druck – schon vor dem GenAI-Hype
Man muss die Lage nicht dramatisieren, um sie ernst zu nehmen. Sie ist ernst genug. Eine Cornell-Erhebung unter 2.100 Call-Center-Beschäftigten zeigt, dass 87 Prozent hohe oder sehr hohe Stressniveaus berichten. Hoher Stress ging dort mit mehr Fehlzeiten, geringerer Arbeitszufriedenheit und stärkerer Kündigungsneigung einher.
Das ist der Punkt, an dem viele KI-Debatten schief starten: Sie behandeln Contact Center, als würde Automatisierung in ein neutrales Feld eingeführt. Tatsächlich trifft sie auf ein Arbeitsumfeld, das vielerorts ohnehin durch Taktung, Messbarkeit, emotionale Anstrengung und geringe Fehlertoleranz geprägt ist. Wer dann noch öffentlich oder intern vor allem über Personalabbau, Ersetzbarkeit und „wegfallende Agents“ spricht, verschärft eine bestehende Belastungslage.
Hinzu kommt: Jobunsicherheit ist in diesem Feld kein neues Gefühl. Die Cornell-Daten zeigen auch, dass Erfahrungen mit Outsourcing und die Angst vor künftigem Outsourcing den Stress erhöhen. Das macht die aktuelle KI-Welle so heikel. Beschäftigte hören die neuen Automatisierungsversprechen nicht im luftleeren Raum, sondern vor dem Echo früherer Rationalisierungsrunden.
Das eigentliche Thema heißt algorithmisches Management
Wer bei KI im Contact Center nur an Chatbots denkt, greift zu kurz. Der tiefere Eingriff findet oft hinter den Kulissen statt: in Schicht- und Pausenplanung, Performance-Feedback, Skripttreue, Sprachbewertung, Workspace-Monitoring und Priorisierung. Die OECD beschreibt das treffend als algorithmisches Management – also die softwaregestützte Automatisierung klassischer Führungsaufgaben. Und das ist kein Randphänomen mehr: In einer internationalen OECD-Befragung nutzten 74 Prozent der Unternehmen mindestens ein Tool zum Anweisen, Überwachen oder Bewerten von Beschäftigten.
Für Contact Center ist das besonders relevant, weil hier fast jede Tätigkeit digital erfassbar ist. Genau deshalb ist die Versuchung groß, KI nicht nur als Assistenz, sondern als Kontrollapparat einzuführen. Die Folgen sind absehbar. In einer CWA-Befragung von 2.891 Beschäftigten wurden KI-gestützte Monitoring-Tools deutlich negativer bewertet als unterstützende Werkzeuge. 67 Prozent sahen einen negativen Einfluss auf Stress, wenn KI zur Überwachung eingesetzt wurde. Bei automatisiertem Feedback waren es 55 Prozent. Dagegen beurteilten 53 Prozent Tools zur Informationsfindung positiv für den Kundenservice.
Das ist eine wichtige Unterscheidung. Nicht KI an sich demotiviert Beschäftigte. Es ist die kontrollierende Ausgestaltung. Unterstützende KI kann entlasten. Bewertende KI wird schnell als digitale Misstrauenserklärung erlebt.
Wenn die Technik entlastet – und wenn sie verdichtet
Es wäre zu einfach, daraus eine technikskeptische Grundsatzkritik zu machen. Die bessere Lesart ist differenzierter: Gute Assistenzsysteme können nachweislich helfen. In einem Feldexperiment mit rund 5.000 Kundensupport-Agents steigerte ein generatives Assistenztool die Zahl gelöster Anliegen pro Stunde um 13,8 Prozent, ohne die Kundenzufriedenheit sichtbar zu verschlechtern. Besonders stark profitierten weniger erfahrene Mitarbeitende; ihre Produktivität legte um 35 Prozent zu. Zudem sanken Eskalationen zu Vorgesetzten, und die Fluktuation lag bei Beschäftigten mit KI-Zugang um 8,6 Prozent niedriger.
Das ist die konstruktive Seite von KI im Contact Center: als Lernhilfe, als Wissensverstärker, als Mittel gegen Reibung im Gespräch. Gerade im Ramp-up kann das enorm wertvoll sein.
Problematisch wird es dort, wo Produktivitätsgewinne sofort in Verdichtung übersetzt werden. Beschäftigte in Umgebungen mit hoher KI-Intensität berichten laut CWA von mehr Stress, mehr emotionaler Erschöpfung, weniger bezahlten Pausen und mehr Überstunden. Besonders sprechend ist ein scheinbar kleiner Wert: Die sogenannte Closed-Key-Zeit schrumpft dort massiv. Zwischen den Kontakten bleibt weniger Luft. Was im Dashboard nach Durchsatz aussieht, fühlt sich auf dem Boden wie Dauerlauf an.
Genau hier kippt die Debatte. Wenn Führung aus einer Assistenzlogik eine Beschleunigungslogik macht, wird die gleiche Technologie vom Entlastungswerkzeug zum Demotivator.
Automatisierung macht die Restarbeit schwerer
Ein zweiter Denkfehler ist die Annahme, weniger menschliche Kontakte bedeuteten automatisch leichtere Arbeit. In der Praxis passiert oft das Gegenteil. Self-Service löst nach Gartner bislang nur 14 Prozent der Anliegen vollständig. Viele Kunden starten digital, landen aber am Ende doch beim Menschen – nicht selten bereits frustriert und mit dem Eindruck, das Unternehmen habe ihr Anliegen nicht verstanden.
Das verschiebt den menschlichen Anteil der Arbeit. Standardfälle verschwinden schrittweise, übrig bleiben häufiger Eskalationen, Sonderfälle, emotionale Gespräche und Bot-Nacharbeiten. Dass 61 Prozent der von Calabrio befragten Contact-Center-Führungskräfte berichten, Kundengespräche seien schwieriger geworden, passt genau zu diesem Muster.
Die Ironie der Automatisierung lautet also: Sie kann Volumen senken und gleichzeitig die Belastung pro Kontakt erhöhen. Wer das Workforce Management, die Qualifizierung und die Personaleinsatzplanung nicht darauf ausrichtet, plant an der Realität vorbei.
Warum die Kommunikation über KI so oft scheitert
Beschäftigte reagieren nicht nur auf Technik, sondern auf das Framing der Technik. Cornell-Forscher zeigen in Experimenten, dass KI-Überwachung stärker als menschliche Kontrolle Autonomieverlust und Widerstand auslöst. In einer Studie kritisierten mehr als 30 Prozent die KI-Überwachung, aber nur etwa 7 Prozent die menschliche Überwachung. Unter KI-Beobachtung sank zudem die Ideenleistung.
Bemerkenswert ist jedoch die Kehrseite: In einem Call-Center-Szenario verschwand der zusätzliche negative Effekt weitgehend, wenn dieselbe Analyse ausdrücklich der Entwicklung statt der Leistungsbewertung diente. Das ist eine sehr praktische Lehre für Change Management. Die Einführung scheitert oft nicht an der Funktion, sondern an ihrer sozialen Bedeutung.
Wer KI als Instrument verkauft, das „endlich objektiv misst“, sendet ein anderes Signal als jemand, der erklärt, wie Beschäftigte damit schneller lernen, sicherer arbeiten und schwierige Fälle besser lösen können. Respekt ist hier keine weiche Moralformel. Respekt ist eine operative Designentscheidung.
Was Unternehmen jetzt anders machen sollten
Die erste Empfehlung lautet: zwischen Assistenz und Kontrolle sauber unterscheiden. Nicht jedes KI-Feature, das messbar ist, sollte in Bewertungssysteme wandern. Unterstützende Funktionen für Wissenszugriff, Fallzusammenfassungen oder Coaching sind anders zu behandeln als Tools für Dauerüberwachung und lückenlose Verhaltenssteuerung.
Die zweite Empfehlung: Beschäftigte früh beteiligen. OECD-Auswertungen zeigen, dass Training und Arbeitnehmerkonsultation mit besseren Ergebnissen verbunden sind. Das MIT skizziert dafür ein plausibles Vier-Phasen-Modell: Mitarbeitende in die Problemdefinition einbeziehen, Technologie und Prozesse gemeinsam gestalten, Bildung und Umschulung ernst nehmen und faire Übergänge für Betroffene organisieren.
Die dritte Empfehlung: das Qualifizierungsproblem nicht unterschätzen. Wenn die menschliche Arbeit komplexer und emotionaler wird, reicht Produktschulung nicht mehr. Trotzdem bieten viele Organisationen weder Training zu emotionaler Intelligenz noch laufendes Coaching für KI-geprägte Workflows an. Genau darin liegt eine unterschätzte Managementlücke.
Und die vierte Empfehlung betrifft die Führungssprache. Wer intern nur in Einsparquoten kommuniziert, erntet Misstrauen. Wer stattdessen Rollen klar beschreibt, Jobsicherheit so weit wie möglich transparent macht und den Nutzen für Beschäftigte konkretisiert, schafft eine realistischere Grundlage für Akzeptanz.
Die nächsten fünf Jahre: weniger Routine, mehr Anspruch
Der nüchterne Ausblick liegt weder im Verdrängungsalarmismus noch in der beruhigenden Formel „es bleibt alles beim Alten“. Offizielle Arbeitsmarktprojektionen erwarten zwar einen moderaten Rückgang klassischer Customer-Service-Rollen, aber gleichzeitig weiterhin hohen Ersatzbedarf. Internationale Analysen von ILO und OECD sprechen eher für Transformation als für ein abruptes Verschwinden ganzer Berufsfelder.
Gleichzeitig wird die Automatisierungsdynamik bei Standardfällen hoch bleiben. Agentische Systeme werden mehr Routineanliegen ohne menschliches Eingreifen lösen. Genau deshalb wird der verbleibende Human-Workload fachlich anspruchsvoller, emotional dichter und führungsseitig sensibler. Schon heute erwarten Analysten, dass viele Organisationen ihre weitreichenden Pläne zur Reduktion des Servicepersonals wegen KI wieder zurücknehmen werden, weil die Ersatzfantasie an der Wirklichkeit scheitert.
Die entscheidende Frage für die kommenden Jahre lautet also nicht: Wie schnell kann menschlicher Service verschwinden? Sondern: Wie organisiert man KI im Contact Center so, dass Menschen im schwierigeren Teil der Wertschöpfung besser werden, statt zermürbt zu werden?
Darauf gibt es eine klare Antwort. Die Gewinner der nächsten Transformationsphase werden nicht die Unternehmen sein, die Agents gedanklich schon abgeschrieben haben. Sondern jene, die Technologie so einsetzen, dass menschliche Arbeit im entscheidenden Moment wirksamer wird. Wer Service automatisiert, ohne die Menschen dahinter zu respektieren, spart am falschen Ende der Zukunft.
Thomas Opheys
Geschäftsführer
Sprechen Sie mich an, wenn Sie über das Thema "Mensch und KI" sprechen möchten!