Zum Hauptinhalt springen

Erstellen und Konfigurieren von Scorecards

Erfahren Sie, wie Sie Scorecards erstellen und anpassen, um Gespräche zu bewerten und hohe Qualitätsstandards zu gewährleisten.

Eine benutzerdefinierte Scorecard definiert, wie gute Leistung für Ihr Team aussieht, indem sie explizit die Kriterien festlegt, die Ihnen wichtig sind – wie Genauigkeit, Ton oder Einhaltung von Richtlinien. Scorecards arbeiten zusammen mit Monitoren: Ein Monitor definiert, welche Gespräche überprüft werden, und eine Scorecard legt fest, wie jedes einzelne bewertet wird. Monitore bewerten derzeit nur Fin AI Agent Gespräche, nicht menschliche Teammitglieder.

Sie können mehrere Scorecards für verschiedene Monitore haben. Wählen Sie im Monitor-Einrichtungsbildschirm aus, welche Scorecard mit einem Monitor verknüpft werden soll:

Hinweis: Scorecards sind Teil des Pro Add-ons.


Um eine Scorecard zu erstellen

Gehen Sie zu Analyse > Monitore und klicken Sie auf Scorecards. Sie können die sofort einsatzbereite Fin Quality Scorecard verwenden oder Ihre eigene erstellen, indem Sie auf + Neue Scorecard klicken:


Neue Scorecard-Kriterien erstellen

Beginnen Sie mit dem Hinzufügen von Scorecard-Kriterien. Klicken Sie zuerst auf Neue Scorecard > + Kriterien > Neu erstellen.

Beim Erstellen eines neuen Attributs gehen Sie wie folgt vor:

1. Benennen Sie das Kriterium

Geben Sie dem Kriterium einen kurzen, klaren Namen (zum Beispiel Sentiment oder Antwortgenauigkeit). Dieser Name erscheint in Berichten und wird als Referenz verwendet.

2. Beschreiben Sie, was bewertet wird

Fügen Sie eine klare Beschreibung hinzu, die erklärt, was das Kriterium überprüft und wie es bewertet werden soll. Die Beschreibung ist die Aufforderung, die die KI verwendet, um dieses Kriterium zu bewerten, und je präziser sie ist, desto genauer bewertet die KI die Gespräche. Sie hilft auch menschlichen Prüfern, dieselben Kriterien konsequent anzuwenden.

Tipp: Für Hilfe beim Schreiben effektiver Beschreibungen siehe wie man effektive Monitor- und Scorecard-Kriterien schreibt.

3. Wählen Sie, wie das Kriterium bewertet wird

Entscheiden Sie, ob das Kriterium automatisch von der KI oder manuell von menschlichen Prüfern bewertet werden soll. Sie können KI-bewertete und manuell bewertete Attribute innerhalb derselben Scorecard mischen.

Hinweis: Titel und Beschreibungen von Scorecard-Kriterien sind wiederverwendbar. Sobald Sie ein Attribut erstellt haben, können Sie es mehreren Scorecards hinzufügen. Frühere Bewertungsergebnisse können nicht wiederverwendet werden und müssen in jeder Scorecard neu festgelegt werden.

4. Definieren Sie Bewertungsoptionen

Fügen Sie die möglichen Bewertungswerte hinzu, die ein Prüfer oder die KI auswählen kann (zum Beispiel: Gut, Okay, Schlecht). Jedes Attribut muss mindestens zwei Bewertungsoptionen haben. Für jede Bewertungsoption werden Sie:

  • Die Bewertung benennen (kurz und klar)

  • Beschreiben, wann sie ausgewählt werden sollte

  • Einen Wert zuweisen (zum Beispiel 100 %, 50 %, 0 %) oder als Nicht bewertet markieren

Der zugewiesene Wert bestimmt, wie diese Bewertung zum Gesamtergebnis beiträgt.

4b. Bewertungsgründe definieren (optional)

Für jede Bewertungsoption können Sie eine Liste von Bewertungsgründen definieren, das sind vordefinierte Labels, die erklären, warum eine bestimmte Bewertung vergeben wurde. Bewertungsgründe helfen Prüfern und der KI, Bewertungen konsistent zu kategorisieren, was die Erkennung von Mustern in Gesprächen erleichtert.

Wenn die KI ein Kriterium bewertet, wählt sie automatisch den relevantesten vordefinierten Grund aus, falls einer zutrifft. Wenn kein vordefinierter Grund passt, erstellt die KI eine klare Erklärung, sodass jede Bewertung einen sinnvollen Kontext hat.

5. Wählen Sie, ob es in die Bewertung einfließen soll

Sie können In Bewertung einbeziehen ein- oder ausschalten.

  • Wenn aktiviert, trägt dieses Attribut zur Gesamtbewertung bei.

  • Wenn deaktiviert, wird das Attribut für Analyse und Berichte erfasst, beeinflusst aber nicht die Gesamtbewertung.

In diesem Beispiel wurde ein Scorecard-Attribut erstellt, um die Eskalationsfreundlichkeit zu bewerten:

6. Auto-Review aktivieren (optional)

Sie können den gesamten QA-Prozess für eine Scorecard automatisieren, indem Sie Auto-Review Scorecard einschalten.

Wenn aktiviert:

  • Wenn die KI alle Kriterien in der Scorecard bewertet, wird der manuelle Überprüfungsschritt vollständig übersprungen.

  • Wenn die KI eine nicht bestandene Bewertung vergibt, wird das Gespräch automatisch als Überprüft + Korrektur erforderlich markiert und in die Warteschlange "Folgeaktionen erforderlich" geleitet.

  • Teammitglieder können jede KI-Bewertung manuell überschreiben, wenn sie eine Abweichung feststellen.

Tipp: Auto-Review funktioniert am besten bei Scorecards, bei denen alle Kriterien von der KI bewertet werden. Wenn ein Kriterium manuell bewertet werden muss, erscheinen diese Gespräche weiterhin in der Warteschlange "Unreviewed".


Konfigurieren Sie Ihre Scorecard

Nachdem Sie Scorecard-Kriterien hinzugefügt haben, konfigurieren Sie, wie sie das Gesamtergebnis beeinflussen.

Ein Scorecard-Kriterium als kritisch markieren

Sie können ein Kriterium als Kritisch markieren. Wenn ein kritisches Kriterium eine nicht bestandene Bewertung erhält, fällt die gesamte Bewertung durch:

  • Die Gesamtbewertung wird 0 %

  • Dies überschreibt alle Gewichtungen

  • Nicht bewertete Bewertungen schließen das Kriterium von der Gesamtbewertung aus und lösen kein Durchfallen aus

Kritische Kriterien sind nützlich für unverhandelbare Standards wie Compliance-Anforderungen, Sicherheit oder Richtlinieneinhaltung und Eskalationsmanagement.

Gewichtung der Scorecard-Kriterien

Jedem Kriterium kann ein Gewicht zugewiesen werden, um seine relative Bedeutung zu definieren.

  • Das Gewicht muss eine ganze Zahl zwischen 0 und 100 sein

  • Höhere Gewichte erhöhen den Einfluss dieses Kriteriums auf die Gesamtbewertung

Gewichte gelten nur für Kriterien, die in die Bewertung einbezogen sind. Verwenden Sie Gewichte, um widerzuspiegeln, was am wichtigsten ist – zum Beispiel ein höheres Gewicht für Genauigkeit als für Effizienz, wenn Korrektheit wichtiger als Geschwindigkeit ist.

Hinweis: Gewichte sind relativ zueinander, nicht fest an eine Skala von 100 gebunden. Die Summe kann jede Zahl sein, wichtig ist das Verhältnis, das jedes Kriterium beiträgt. Ein Kriterium mit einem Gewicht von 25 von insgesamt 50 trägt genauso bei wie eines mit 50 von 100.

Festlegen einer Bestehensgrenze

Sie können eine Bestehensgrenze definieren – die minimale Gesamtpunktzahl, die erforderlich ist, damit eine Bewertung als bestanden gilt. Zum Beispiel, wenn die Bestehensgrenze 80 % beträgt, wird jede Bewertung unter 80 % als nicht bestanden markiert.

Dies wird nach der gewichteten Bewertung ausgewertet, vorausgesetzt, kein kritisches Kriterium hat die Bewertung bereits durchfallen lassen.


Wie die Gesamtbewertung funktioniert

  1. Jedes Kriterium wird mit seinen definierten Bewertungsoptionen bewertet.

  2. Bewertungen tragen ihre zugewiesene Punktzahl bei (oder werden ausgeschlossen, wenn sie als Nicht bewertet markiert sind).

  3. Eingeschlossene Kriterien werden unter Verwendung ihrer zugewiesenen Gewichte kombiniert.

  4. Wenn ein kritisches Kriterium eine nicht bestandene Bewertung erhält, wird die Gesamtbewertung 0 %.

  5. Die Endpunktzahl wird mit der Bestehensgrenze verglichen, um zu bestimmen, ob die Bewertung bestanden oder nicht bestanden ist.

Hier ein Beispiel, wie drei Kriterien zu einer Endpunktzahl kombiniert werden:

Kriterium

Ausgewählte Bewertung

Bewertungspunktzahl

Gewicht

Genauigkeit

Gut

100 %

60

Ton

Okay

50 %

30

Effizienz

Gut

100 %

10

Gesamtpunktzahl = (100x60 + 50x30 + 100x10) / (60+30+10) = 85%


Wo man Bewertungen einsehen kann

Sobald Bewertungen abgeschlossen sind, sind die Ergebnisse sowohl in der Gesprächsliste als auch innerhalb jedes Gesprächs sichtbar.

In Monitor zeigt die Gesprächsliste die Gesamtbewertung (Prozentsatz oder Nicht bestanden) neben den einzelnen Kriterienbewertungen als Spalten an. So lässt sich die Leistung über Gespräche hinweg leicht überblicken und Fehler oder niedrige Bewertungen erkennen.

Wenn Sie ein Gespräch öffnen und zum Score-Tab wechseln, sehen Sie die zugewiesene Scorecard, den Bewertungsstatus, die Gesamtbewertung und die ausgewählte Bewertung für jedes Kriterium. Diese Ansicht zeigt genau, wie die Endpunktzahl ermittelt wurde. Wenn Fin ein Kriterium mit KI bewertet, können Sie im Score-Tab über die Bewertung fahren, um ein Tooltip mit der ausgewählten Bewertung, der Kriterienbeschreibung und Fins Begründung für diese Bewertung anzuzeigen – alles an einem Ort.


FAQs

Kann ich Scorecard-Kriterien in mehreren Scorecards wiederverwenden?

Ja, Titel und Beschreibungen von Kriterien sind wiederverwendbar. Sobald Sie ein Kriterium erstellt haben, können Sie es mehreren Scorecards hinzufügen. Beachten Sie, dass frühere Bewertungsergebnisse nicht wiederverwendet werden können und in jeder Scorecard neu festgelegt werden müssen.

Was passiert, wenn ich keine Scorecard an einen Monitor anhänge?

Der Monitor markiert weiterhin Gespräche, die Ihren Kriterien entsprechen, aber es findet keine Bewertung statt. Prüfer sehen markierte Gespräche ohne auszufüllende Scorecard-Kriterien. Um die Bewertung zu aktivieren, hängen Sie während der Monitoreinrichtung eine Scorecard an.

Kann ich KI-bewertete und manuell bewertete Kriterien in derselben Scorecard mischen?

Ja. Sie können für jedes Kriterium wählen, ob die KI oder ein menschlicher Prüfer die Bewertung übernimmt. Beachten Sie, dass bei aktiviertem Auto-Review und manuell zu bewertenden Kriterien diese Gespräche weiterhin in der Warteschlange "Unreviewed" erscheinen.

Was bewirkt ein kritisches Kriterium?

Wenn ein kritisches Kriterium eine nicht bestandene Bewertung erhält, fällt die Gesamtbewertung auf 0 %, unabhängig davon, wie andere Kriterien bewertet wurden. Dies ist nützlich für unverhandelbare Standards – Compliance, Sicherheit oder Eskalationsmanagement – bei denen ein einzelnes Versagen alles andere überstimmen sollte.

Hat dies deine Frage beantwortet?