Finanzsektor: Warum Human-in-the-Loop zur Schlüsselkompetenz im AI-Kundenservice wird

27.März

Viele Unternehmen verstehen künstliche Intelligenz im Kundenservice als Plug-and-Play-Tool: implementieren, automatisieren, skalieren. 

Im Bank- und Versicherungsumfeld führt dieser Ansatz jedoch schnell zu regulatorischen und reputativen Risiken. 

Denn hier gilt eine andere Logik:
Je sensibler die Anfrage, desto höher die Anforderungen — und desto klarer die Grenzen der Automatisierung. 

Eine aktuelle McKinsey-Studie zeigt: Viele Unternehmen nutzen AI bereits — doch nur wenige schaffen den Schritt in den produktiven Betrieb, weil nicht die Modellleistung entscheidend ist, sondern die Qualität von Governance, Prozessen und klaren Verantwortlichkeiten. 

Genau hier wird Human-in-the-Loop (HITL) zur zentralen Kompetenz.
Nicht als Kontrollinstanz — sondern als Grundlage für produktiven AI-Einsatz. 

Warum Human-in-the-Loop im Finanzsektor unverzichtbar ist 

Ein Blick auf reale Service-Anfragen zeigt schnell: Kundenanliegen unterscheiden sich deutlich in ihrer Komplexität und Sensibilität. 

Sie lassen sich grob in drei Kategorien einteilen: 

  1. Standardfälle: Wiederkehrend, klar geregelt, hohe Automatisierbarkeit 
  2. Variantenfälle: Kontextabhängig, leicht komplex, erfordern saubere Wissensbasis 
  3. Risikofälle: Identität, Betrug, Beschwerden, rechtliche Aussagen 

Während moderne AI-Systeme bei Standard- und Variantenfällen signifikante Effizienzgewinne liefern, bleibt bei Risikofällen eine zentrale Erkenntnis: Ohne menschliche Kontrolle steigt das Risiko signifikant. 

Human-in-the-Loop bedeutet nicht reaktives Eingreifen, sondern ein bewusst gestaltetes System: AI liefert Geschwindigkeit — Menschen behalten durch Regeln und Grenzen die Entscheidungshoheit. 

Was Entscheider:innen wirklich brauchen: Automatisierung ohne Kontrollverlust 

In Gesprächen mit Führungskräften aus Banken und Versicherungen zeigt sich ein klares Muster: 

Die zentrale Frage ist nicht:
„Wie gut ist das Modell?“ 

Sondern vielmehr: 

  • Können wir steuern, welche Inhalte die AI ausgeben darf — und was nicht? 
  • Sind Entscheidungen jederzeit nachvollziehbar und auditierbar? 
  • Werden kritische Fälle zuverlässig und regelbasiert an menschliche Expert:innen übergeben? 
  • Können Fachbereiche das System eigenständig optimieren? 

Diese Anforderungen spiegeln einen grundlegenden Shift wider:
Von reiner Automatisierung hin zu steuerbarer, erklärbarer AI. 

Human-in-the-Loop ist dabei der operative Rahmen, der genau das ermöglicht:
Governance, Qualitätssicherung und kontinuierliches Lernen — in einem System. 

Drei HITL-Mechaniken, die sich in der Praxis bewähren

1.„Approve before send“ bei risikorelevanten Themen

Bei sensiblen Anfragen wird keine Antwort direkt ausgespielt. Stattdessen: 

  • Die AI generiert einen Vorschlag 
  • Ein:e Expert:in prüft, passt an oder gibt frei 

Typische Trigger sind: 

  • Betrugsfälle oder Phishing-Verdacht 
  • Kontosperren oder Sicherheitsfragen 
  • Beschwerden und Gebührenreklamationen 
  • rechtlich sensible Aussagen 

Mehrwert: Risiken werden reduziert — ohne auf die Effizienz der AI zu verzichten.

2.„Escalate with context“ statt ineffizienter Übergaben

In vielen Organisationen bedeutet Eskalation noch immer: Kontextverlust. 

Ein effektives HITL-System macht das Gegenteil: 

  • Übergabe inklusive vollständigem Kontext 
  • Verweis auf relevante Wissensquellen 
  • Konkreter Lösungsvorschlag der AI 
  • Klarer Eskalationsgrund (z. B. Risiko, Unsicherheit) 

Mehrwert: Schnellere Bearbeitung, höhere Konsistenz, bessere Kundenerfahrung.

3.„Expert Feedback Loop“ als Skalierungshebel

Der größte Hebel liegt nicht in der Freigabe einzelner Antworten —
sondern in der systematischen Verbesserung. 

Typische Ansatzpunkte: 

  • Wiederkehrende ungelöste Anfragen 
  • Unklare oder widersprüchliche Antworten 
  • Fragmentierte Wissensquellen 

Expert:innen optimieren dann gezielt: 

  • Wissensartikel 
  • Antwortlogiken 
  • Eskalationsregeln 

Mehrwert: Einmal verbessert — tausendfach besser ausgeliefert. Das ist skalierbare Qualität. 

Vom Korrekturlesen zur Entscheidungsverantwortung 

Ein häufiger Fehler: HITL wird als zusätzliche Prüfinstanz verstanden. 

Erfolgreiche Organisationen gehen einen Schritt weiter —
sie definieren klare Verantwortlichkeiten: 

  • Fach-Owner (z. B. Payments, Online Banking, Karten) 
  • Compliance-/Policy-Owner (Regeln, Formulierungen, Grenzen) 
  • Service-Owner (KPIs wie AHT, FCR, CSAT) 

Damit wird HITL nicht zum Bottleneck, sondern zum Betriebsmodell. 

Effizienter Umgang mit offenen Fällen: HITL ohne Overhead 

Nicht jede Abweichung braucht Abstimmungsschleifen. 

Ein schlanker, datengetriebener Prozess hat sich bewährt: 

  1. Labeln (z. B. gelöst, nicht gelöst, risikorelevant, eskaliert) 
  2. Clustern (Top-Themen pro Woche identifizieren) 
  3. Gezielt optimieren (kleine, konkrete Verbesserungen wie Content, Regeln, Templates) 
  4. Messen (Sinken Eskalationen? Steigt die Lösungsquote?) 

Fazit: Ohne HITL keine skalierbare AI im Finanzsektor 

Im regulierten Umfeld ist Human-in-the-Loop kein optionales Feature —
sondern die Voraussetzung für nachhaltigen AI-Einsatz. 

Es ermöglicht: 

  • klare Steuerbarkeit durch Expert:innen 
  • sichere Behandlung sensibler Fälle 
  • kontinuierliche Qualitätsverbesserung 
  • volle Kontrolle für Entscheider:innen 

Erst durch Human-in-the-Loop wird AI nicht nur effizient — sondern nachhaltig skalierbar. 

So wird aus einem AI Assistant ein produktives Service-System — mit klarer Kontrolle, integrierter Governance und nachhaltiger Skalierbarkeit. 

Genau darauf sind wir spezialisiert. Sprechen Sie mit unseren Expert:innen. 

More articles