Übersicht über Callcenter

Azure KI Language und Azure KI Speech können Ihnen helfen, die teilweise oder vollständige Automatisierung von telefoniebasierten Kundeninteraktionen zu verwirklichen und Barrierefreiheit über mehrere Kanäle hinweg zu bieten. Mit den Language- und Speech-Diensten können Sie darüber hinaus Transkriptionen des Call Centers analysieren, PII (Personally Identifiable Information) in der Unterhaltung extrahieren und redigieren, die Transkription zusammenfassen und die Stimmung erkennen.

Einige Beispielszenarien für die Implementierung von Azure KI Services in Call- und Kontaktcentern sind:

  • Virtuelle Agents: Auf Konversations-KI aufbauende, in Telefonie integrierte Sprachbots und sprechfähige Chatbots
  • Unterstützung von Agents: Echtzeit-Transkription und Analyse eines Anrufs zur Verbesserung der Kundenerfahrung durch Bereitstellen von Erkenntnissen und Vorschlagen von Aktionen für Agents
  • Analysen nach dem Anruf: Analyse nach dem Anruf, um Erkenntnisse zu Kundenunterhaltungen zu schaffen. Damit können das Verständnis verbessert, eine kontinuierliche Verbesserung der Anrufverarbeitung erreicht, die Qualitätssicherung und Compliancekontrolle optimiert sowie weitere erkenntnisgestützte Optimierungen unterstützt werden.

Tipp

Testen Sie Language Studio oder Speech Studio, um sich eine Demonstration dazu anzusehen, wie Sie die Language- und Speech- Dienste zum Analysieren von Callcenter-Unterhaltungen verwenden.

Zum Bereitstellen einer Call Center-Transkriptionslösung für Azure mit einem programmierfreien Ansatz können Sie den Erfassungsclient testen.

Azure KI Services-Features für Callcenter

Eine ganzheitliche Call Center-Implementierung umfasst in der Regel Technologien aus den Language- und Speech-Diensten.

Audiodaten, die normalerweise in Call Centern verwendet werden und aus Festnetzen, Mobilfunknetzen und von Funkgeräten stammen, sind oftmals schmalbandig im Bereich von 8 KHz, was bei der Konvertierung von Sprache in Text Herausforderungen mit sich bringen kann. Die Erkennungsmodelle des Azure Cognitive Service für Speech werden trainiert, um sicherzustellen, dass Sie qualitativ hochwertige Transkriptionen erhalten können, unabhängig von Ihren Entscheidungen zur Audioerfassung.

Nachdem Sie Ihre Audiodaten mit dem Speech-Dienst transkribiert haben, können Sie den Language-Dienst verwenden, um Analysen zu Ihren Call Center-Daten auszuführen, wie etwa Stimmungsanalyse, Zusammenfassung des Grunds für Kundenanrufe, deren Lösung, Extraktion und Redaktion von Konversations-PII und vieles mehr.

Speech-Dienst

Der Speech-Dienst bietet die folgenden Features, die für Call Center-Anwendungsfälle verwendet werden können:

  • Echtzeit-Spracherkennung: Erkennen und Transkribieren von Audio in Echtzeit aus mehreren Eingaben. Beispielsweise können Sie mit virtuellen Agents oder Agentunterstützung fortlaufend Audioeingaben erkennen und auf der Grundlage mehrerer Ereignisse steuern, wie Ergebnisse verarbeitet werden.
  • Batch-Spracherkennung: Transkribiert große Mengen von Audiodateien asynchron, einschließlich Sprecherdiarisierung; wird typischerweise in Analyseszenarien nach einem Anruf verwendet. Diarisierung ist der Vorgang der Erkennung und Aufteilung von Sprechern in Monokanal-Audiodaten.
  • Sprachsynthese: Die Sprachsynthese ermöglicht es Ihren Anwendungen, Tools oder Geräten, Text in menschlich klingende synthetisierte Sprache zu konvertieren.
  • Sprecheridentifikation: Hilft Ihnen, die Identität eines unbekannten Sprechers innerhalb einer Gruppe registrierter Sprecher zu bestimmen und wird in der Regel in Szenarien zur Kundenüberprüfung in Call Centern oder zur Betrugserkennung verwendet.
  • Sprachenerkennung: Identifizieren von gesprochenen Sprachen in Audiodaten; kann in Echtzeit- und Anrufanschlussanalysen verwendet werden, um Erkenntnisse zu gewinnen oder die Umgebung zu steuern (z. B. Ausgabesprache eines virtuellen Agents).

Der Speech-Dienst funktioniert gut mit vordefinierten Modellen. Bei Bedarf können Sie aber auch das Erlebnis für Ihr Produkt oder Ihre Umgebung zusätzlich anpassen und optimieren. Zu den typischen Beispielen für die Speech-Anpassung gehören:

Speech-Anpassung BESCHREIBUNG
Custom Speech Ein Spracherkennungs-Feature, das verwendet wird, um die Erkennungsgenauigkeit von Sprache für anwendungsspezifische Entitäten auszuwerten und zu verbessern (z. B. alphanumerische Kunden-, Fall- und Vertrags-IDs, Kfz-Nummernschilder und Namen). Ferner können Sie ein benutzerdefiniertes Modell mit Ihren eigenen Produktnamen und branchenspezifischer Terminologie trainieren.
Benutzerdefinierte neuronale Stimme Ein Sprachsynthese-Feature, mit dem Sie eine einzigartige, benutzerdefinierte synthetische Stimme für Ihre Anwendungen erstellen können.

Sprachdienst

Der Language-Dienst bietet die folgenden Features, die für Call Center-Anwendungsfälle verwendet werden können:

Während der Sprachdienst gut mit vordefinierten Modellen funktioniert, kann es sinnvoll sein, Modelle weiter anzupassen und zu optimieren, um weitere Informationen aus Ihren Daten zu extrahieren. Zu den typischen Beispielen für die Language-Anpassung gehören:

Sprachanpassung BESCHREIBUNG
Benutzerdefinierte NER (Erkennung benannter Entitäten) Verbessern Sie die Erkennung und Extraktion von Entitäten in Transkriptionen.
Benutzerdefinierte Textklassifizierung Klassifizierung und Bezeichnung von transkribierten Äußerungen mithilfe einzelner oder mehrerer Klassifizierungen.

Hier finden Sie eine Übersicht aller Sprachdienstfeatures und Anpassungsoptionen.

Nächste Schritte