Passar para o conteúdo principal

Monitores explicados

Entenda como os Monitores ajudam você a avaliar a qualidade da conversa do Fin em escala e como eles funcionam com Scorecards Personalizados.

O que são Monitores?

Monitores ajudam você a avaliar e melhorar continuamente a qualidade da conversa do Fin em escala. Eles oferecem uma forma estruturada de definir quais conversas devem ser revisadas, seja uma amostra aleatória para qualidade base, ou um conjunto direcionado baseado em sinais de maior risco ou impacto. Isso substitui amostragem ad-hoc e QA baseado em planilhas por um sistema repetível que escala conforme o volume cresce.


Como as equipes usam Monitores

As equipes usam Monitores para manter visibilidade contínua da qualidade e focar a atenção onde mais importa.

Casos de uso comuns incluem:

  • Revisar uma amostra aleatória para entender as tendências gerais de qualidade.

  • Focar em conversas de maior risco ou impacto, como:

    • Baixas pontuações de CX

    • Quebras de política

    • Ameaças legais

    • Outros indicadores específicos do negócio

  • Acompanhar conversas ligadas a uma iniciativa específica, como lançamento de recurso, mudança de preço ou atualização de produto.

Monitores facilitam detectar padrões, identificar problemas mais cedo e gerar insights que podem ser compartilhados com equipes de produto, suporte ou liderança.


Como Monitores funcionam com Scorecards Personalizados

  • Monitores definem o que é revisado

  • Scorecards definem como cada conversa é avaliada

Scorecards podem incluir critérios que são revisados:

  • Revisado manualmente

  • Avaliado usando IA

Você pode associar um scorecard a um Monitor para avaliar automaticamente cada conversa correspondente contra critérios definidos. Uma vez selecionado, o scorecard é executado assim que a conversa é adicionada ao Monitor, e os resultados aparecem no Monitor para relatórios e revisão.

Isso garante que a qualidade seja avaliada consistentemente, permitindo flexibilidade em como as revisões são realizadas.

Dica: Monitores podem usar Auto-review para pular verificações manuais inteiramente quando a pontuação de IA atende seus padrões de qualidade, significando que sua equipe só precisa intervir em falhas ou casos extremos.


Gerencie revisões em escala

Em vez de verificar cada Monitor individualmente, você pode gerenciar a carga de trabalho da sua equipe por meio de duas visualizações centralizadas na página de Monitores:

  • Conversas não revisadas: Uma fila unificada para todas as conversas que requerem revisão manual. Isso inclui conversas onde a IA não conseguiu completar o scorecard ou onde um revisor humano está especificamente designado.

  • Correções necessárias: Captura automaticamente qualquer conversa que tenha sido revisada (pela IA ou por um humano) e marcada com status de falha - por exemplo, Revisado + correção necessária.


Em breve

Estamos expandindo Monitores com formas mais poderosas de detectar problemas, medir qualidade e agir. Melhorias futuras incluem:

  • Alertas em tempo real: Receba notificações quando conversas em um Monitor ultrapassarem limites definidos ou falharem em um scorecard.

  • Avaliação contra sua knowledge base: Avalie conversas contra seu conteúdo de suporte e políticas, ajudando a garantir que as respostas estejam alinhadas com fontes aprovadas.


Comece agora

Pronto para começar? Acesse como criar um Monitor para um guia passo a passo para criar seu primeiro Monitor e scorecard.

Nota: Monitores requerem o add-on Pro. Certifique-se de que seu workspace tenha isso antes de configurar seu primeiro Monitor.

Respondeu à sua pergunta?