Ir al contenido principal

Creación y configuración de Scorecards

Aprende a crear y personalizar scorecards para evaluar conversaciones y mantener altos estándares de calidad.

Un scorecard personalizado define cómo debe ser el buen desempeño para tu equipo estableciendo explícitamente los criterios que te importan, como precisión, tono o cumplimiento de políticas. Los scorecards funcionan junto con Monitors: un Monitor define qué conversaciones se revisan y un scorecard define cómo se evalúa cada una. Actualmente, los Monitors solo evalúan conversaciones de Fin AI Agent, no de compañeros humanos.

Puedes tener múltiples scorecards para diferentes Monitors. Elige qué scorecard asociar a un Monitor desde la pantalla de configuración del Monitor:

Nota: Los scorecards están disponibles como parte del complemento Pro.


Para crear un scorecard

Ve a Analizar > Monitors y haz clic en Scorecards. Puedes usar el scorecard Fin Quality Scorecard predeterminado o crear uno propio haciendo clic en + Nuevo scorecard:


Crear un nuevo criterio para scorecard

Comienza agregando criterios para el scorecard. Primero, haz clic en Nuevo scorecard > + Criterios > Crear nuevo.

Al crear un nuevo atributo, sigue los siguientes pasos:

1. Nombra el criterio

Dale al criterio un nombre corto y claro (por ejemplo, Sentimiento o Precisión de la respuesta). Este nombre aparece en los informes y se usará como referencia.

2. Describe lo que se evalúa

Agrega una descripción clara que explique qué verifica el criterio y cómo debe puntuarse. La descripción es la indicación que la IA usa para puntuar este criterio, y cuanto más precisa sea, más exactamente la IA evaluará las conversaciones. También ayuda a los revisores humanos a aplicar el mismo criterio de forma consistente.

Consejo: Para ayuda escribiendo descripciones efectivas, consulta cómo escribir criterios efectivos para Monitor y Scorecard.

3. Elige cómo se puntúa el criterio

Decide si el criterio debe ser puntuado automáticamente con IA o manualmente por revisores humanos. Puedes combinar atributos puntuados por IA y por humanos dentro del mismo scorecard.

Nota: Los títulos y descripciones de los criterios del scorecard son reutilizables. Una vez que hayas creado un atributo, puedes agregarlo a múltiples scorecards. Las puntuaciones anteriores no se pueden reutilizar y deben establecerse desde cero en cada scorecard.

4. Define las opciones de puntuación

Agrega los posibles valores de puntuación que un revisor o la IA pueden seleccionar (por ejemplo: Bueno, Regular, Malo). Cada atributo debe tener al menos dos opciones de puntuación. Para cada opción de puntuación, deberás:

  • Nombrar la puntuación (corta y clara)

  • Describir cuándo debe seleccionarse

  • Asignar una puntuación (por ejemplo, 100%, 50%, 0%) o marcarla como No puntuado

La puntuación que asignes determina cómo esa valoración contribuye a la puntuación general de la revisión.

4b. Define razones de puntuación (opcional)

Para cada opción de puntuación, puedes definir una lista de razones de puntuación que son etiquetas predefinidas que explican por qué se dio una puntuación particular. Las razones de puntuación ayudan a los revisores y a la IA a categorizar las puntuaciones de forma consistente, facilitando la identificación de patrones en las conversaciones.

Cuando la IA puntúa un criterio, selecciona automáticamente la razón predefinida más relevante cuando aplica una. Si ninguna razón predefinida encaja, la IA genera una explicación clara para que cada puntuación tenga un contexto significativo.

5. Elige si incluirlo en la puntuación de la revisión

Puedes activar o desactivar Incluir en la puntuación de la revisión.

  • Cuando está activado, este atributo contribuye a la puntuación general de la revisión.

  • Cuando está desactivado, el atributo se registra para análisis e informes, pero no afecta la puntuación general.

En este ejemplo, se ha creado un atributo de scorecard para evaluar la facilidad de escalada:

6. Activar revisión automática (opcional)

Puedes automatizar todo el proceso de control de calidad para un scorecard activando Revisión automática del scorecard.

Cuando está activado:

  • Si la IA puntúa todos los criterios del scorecard, se omite completamente el paso de revisión manual.

  • Si la IA da una puntuación reprobatoria, la conversación se marca automáticamente como Revisada + necesita corrección y se envía a la cola de Acciones de seguimiento necesarias.

  • Los compañeros aún pueden anular manualmente cualquier puntuación de la IA si detectan una discrepancia.

Consejo: La revisión automática funciona mejor en scorecards donde todos los criterios son puntuados por IA. Si algún criterio requiere un humano, esas conversaciones seguirán apareciendo en la cola de No revisadas.


Configura tu scorecard

Después de agregar criterios al scorecard, configura cómo afectan el resultado general de la revisión.

Marcar un criterio del scorecard como crítico

Puedes marcar un criterio como Crítico. Si un criterio crítico recibe una puntuación reprobatoria, toda la revisión falla:

  • La puntuación general de la revisión se vuelve 0%

  • Esto anula todos los pesos

  • Las puntuaciones no evaluadas excluyen el criterio de la puntuación general y no provocan fallo

Los criterios críticos son útiles para estándares no negociables como requisitos de cumplimiento, seguridad o adherencia a políticas, y manejo de escaladas.

Ponderación de criterios del scorecard

A cada criterio se le puede asignar un peso para definir su importancia relativa.

  • El peso debe ser un número entero entre 0 y 100

  • Los pesos más altos aumentan el impacto de ese criterio en la puntuación general de la revisión

Los pesos solo se aplican a criterios incluidos en la puntuación de la revisión. Usa pesos para reflejar lo que más importa — por ejemplo, un peso mayor en Precisión que en Eficiencia si la corrección es más importante que la velocidad.

Nota: Los pesos son relativos entre sí, no fijos a una escala de 100. El total puede sumar cualquier número, lo que importa es la proporción que cada criterio contribuye. Un criterio con peso 25 de un total de 50 contribuye igual que uno con peso 50 de 100.

Agregar un umbral de aprobación

Puedes definir un umbral de aprobación, la puntuación mínima general requerida para que una revisión se considere aprobada. Por ejemplo, si el umbral es 80%, cualquier revisión con puntuación inferior a 80% se marca como fallida.

Esto se evalúa después de la puntuación ponderada, siempre que ningún criterio crítico haya fallado la revisión.


Cómo funciona la puntuación general de la revisión

  1. Cada criterio se califica usando sus opciones de puntuación definidas.

  2. Las puntuaciones contribuyen con su valor asignado (o se excluyen si están marcadas como No puntuadas).

  3. Los criterios incluidos se combinan usando sus pesos asignados.

  4. Si algún criterio crítico recibe una puntuación reprobatoria, la puntuación general de la revisión se vuelve 0%.

  5. La puntuación final se compara con el umbral de aprobación para determinar si la revisión aprueba o falla.

Aquí hay un ejemplo de cómo tres criterios se combinan en una puntuación final:

Criterio

Puntuación seleccionada

Puntuación de la valoración

Peso

Precisión

Bueno

100%

60

Tono

Regular

50%

30

Eficiencia

Bueno

100%

10

Puntuación general = (100x60 + 50x30 + 100x10) / (60+30+10) = 85%


Dónde ver las puntuaciones

Una vez que las revisiones están completas, las puntuaciones son visibles tanto en la lista de conversaciones como dentro de cada conversación.

En Monitor, la lista de conversaciones muestra la puntuación general de la revisión (porcentaje o Fallo) junto con las puntuaciones individuales de los criterios como columnas. Esto facilita escanear el rendimiento en las conversaciones y detectar fallos o puntuaciones bajas.

Cuando abres una conversación y vas a la pestaña Puntuación, puedes ver el scorecard asignado, el estado de la revisión, la puntuación general y la puntuación seleccionada para cada criterio. Esta vista muestra exactamente cómo se determinó la puntuación final. Cuando Fin puntúa un criterio usando IA, puedes pasar el cursor sobre la puntuación en la pestaña Puntuación para ver una descripción emergente que muestra la puntuación seleccionada, la descripción del criterio y el razonamiento de Fin para esa puntuación, todo en un solo lugar.


Preguntas frecuentes

¿Puedo reutilizar criterios de scorecard en múltiples scorecards?

Sí, los títulos y descripciones de los criterios son reutilizables. Una vez que hayas creado un criterio, puedes agregarlo a múltiples scorecards. Ten en cuenta que las puntuaciones anteriores no se pueden reutilizar y deben establecerse desde cero en cada scorecard.

¿Qué pasa si no adjunto un scorecard a un monitor?

El monitor seguirá marcando las conversaciones que coincidan con tus criterios, pero no se realizará ninguna puntuación. Los revisores verán conversaciones marcadas sin criterios de scorecard para completar. Para habilitar la evaluación, adjunta un scorecard durante la configuración del monitor.

¿Puedo mezclar criterios puntuados por IA y manualmente en el mismo scorecard?

Sí. Puedes elegir para cada criterio si la puntuación la maneja la IA o un revisor humano. Ten en cuenta que si la Revisión automática está activada y algún criterio requiere puntuación manual, esas conversaciones seguirán apareciendo en la cola de No revisadas.

¿Qué hace un criterio crítico?

Si un criterio crítico recibe una puntuación reprobatoria, la puntuación general de la revisión baja a 0% sin importar cómo hayan puntuado los demás criterios. Esto es útil para estándares no negociables — cumplimiento, seguridad o manejo de escaladas — donde un solo fallo debe anular todo lo demás.

¿Ha quedado contestada tu pregunta?