Um scorecard personalizado define o que é bom para sua equipe, estabelecendo explicitamente os critérios que você valoriza - como precisão, tom ou conformidade com políticas. Scorecards funcionam junto com Monitors: um Monitor define quais conversas serão revisadas, e um scorecard define como cada uma é avaliada. Monitors atualmente avaliam apenas conversas do Fin AI Agent, não de colegas humanos.
Você pode ter múltiplos scorecards para diferentes Monitors. Escolha qual scorecard associar a um Monitor na tela de configuração do Monitor:
Nota: Scorecards estão disponíveis como parte do add-on Pro.
Para criar um scorecard
Vá para Analisar > Monitors e clique em Scorecards. Você pode usar o scorecard padrão Fin Quality Scorecard ou criar o seu clicando em + Novo scorecard:
Criar um novo critério para scorecard
Comece adicionando critérios ao scorecard. Primeiro, clique em Novo scorecard > + Critério > Criar novo.
Ao criar um novo atributo, siga os passos abaixo:
1. Nomeie o Critério
Dê ao critério um nome curto e claro (por exemplo, Sentimento ou Precisão da resposta). Esse nome aparece nos relatórios e será usado como referência.
2. Descreva o que está sendo avaliado
Adicione uma descrição clara explicando o que o critério verifica e como deve ser pontuado. A descrição é o prompt que a IA usa para pontuar esse critério, e quanto mais precisa for, mais precisamente a IA avaliará as conversas. Também ajuda os revisores humanos a aplicar o mesmo critério de forma consistente.
Dica: Para ajuda na redação de descrições eficazes, veja como escrever critérios eficazes para Monitor e Scorecard.
3. Escolha como o critério será pontuado
Decida se o critério deve ser pontuado automaticamente pela IA ou manualmente pelos revisores humanos. Você pode misturar atributos pontuados pela IA e por humanos no mesmo scorecard.
Nota: Títulos e descrições dos critérios do scorecard são reutilizáveis. Depois de criar um atributo, você pode adicioná-lo a vários scorecards. As pontuações anteriores não podem ser reutilizadas e precisarão ser definidas do zero em cada scorecard.
4. Defina as opções de pontuação
Adicione os valores possíveis de pontuação que um revisor ou IA pode selecionar (por exemplo: Bom, Regular, Ruim). Cada atributo deve ter pelo menos duas opções de pontuação. Para cada opção, você irá:
Nomear a pontuação (curto e claro)
Descrever quando deve ser selecionada
Atribuir uma pontuação (por exemplo, 100%, 50%, 0%) ou marcar como Não pontuado
A pontuação que você atribui determina como essa avaliação contribui para a pontuação geral da revisão.
4b. Definir motivos da pontuação (opcional)
Para cada opção de pontuação, você pode definir uma lista de motivos da pontuação, que são rótulos predefinidos que explicam por que uma determinada pontuação foi dada. Os motivos ajudam revisores e IA a categorizar as pontuações de forma consistente, facilitando a identificação de padrões nas conversas.
Quando a IA pontua um critério, ela seleciona automaticamente o motivo predefinido mais relevante, quando aplicável. Se nenhum motivo predefinido se encaixar, a IA gera uma explicação clara para que cada pontuação tenha um contexto significativo.
5. Escolha se deve incluir na pontuação da revisão
Você pode ativar ou desativar a opção Incluir na pontuação da revisão.
Quando ativado, esse atributo contribui para a pontuação geral da revisão.
Quando desativado, o atributo é registrado para análise e relatórios, mas não afeta a pontuação geral.
Neste exemplo, um atributo do scorecard foi criado para avaliar a facilidade de escalonamento:
6. Ativar Autoavaliação (opcional)
Você pode automatizar todo o processo de QA para um scorecard ativando a opção Autoavaliação do scorecard.
Quando ativado:
Se a IA pontuar todos os critérios do scorecard, a etapa de revisão manual é totalmente ignorada.
Se a IA der uma pontuação reprovada, a conversa é automaticamente marcada como Revisada + correção necessária e encaminhada para a fila de Ações de acompanhamento necessárias.
Os colegas ainda podem substituir manualmente qualquer pontuação da IA se detectarem alguma discrepância.
Dica: A autoavaliação funciona melhor em scorecards onde todos os critérios são pontuados pela IA. Se algum critério exigir um humano, essas conversas ainda aparecerão na fila Não revisadas.
Configure seu scorecard
Após adicionar critérios ao scorecard, configure como eles afetam o resultado geral da revisão.
Marcando um critério do scorecard como crítico
Você pode marcar um critério como Crítico. Se um critério crítico receber uma avaliação reprovada, toda a revisão é reprovada:
A pontuação geral da revisão se torna 0%
Isso substitui todos os pesos
Avaliações não pontuadas excluem o critério da pontuação geral e não causam reprovação
Critérios críticos são úteis para padrões inegociáveis, como requisitos de conformidade, segurança ou aderência a políticas, e manejo de escalonamento.
Peso dos critérios do scorecard
Cada critério pode receber um peso para definir sua importância relativa.
O peso deve ser um número inteiro entre 0 e 100
Pesos maiores aumentam o impacto desse critério na pontuação geral da revisão
Os pesos se aplicam apenas aos critérios incluídos na pontuação da revisão. Use pesos para refletir o que é mais importante — por exemplo, um peso maior para Precisão do que para Eficiência, se a correção for mais importante que a velocidade.
Nota: Os pesos são relativos entre si, não fixos a uma escala de 100. O total pode somar qualquer número, o que importa é a proporção que cada critério contribui. Um critério com peso 25 de um total de 50 contribui tanto quanto um com peso 50 de 100.
Adicionando um limite de aprovação
Você pode definir um limite de aprovação — a pontuação mínima geral necessária para que uma revisão seja considerada aprovada. Por exemplo, se o limite for 80%, qualquer revisão com pontuação abaixo de 80% é marcada como reprovada.
Isso é avaliado após a pontuação ponderada, desde que nenhum critério crítico tenha reprovado a revisão.
Como funciona a pontuação geral da revisão
Cada critério é avaliado usando suas opções de pontuação definidas.
As avaliações contribuem com a pontuação atribuída (ou são excluídas se marcadas como Não pontuadas).
Os critérios incluídos são combinados usando seus pesos atribuídos.
Se algum critério crítico receber uma avaliação reprovada, a pontuação geral da revisão se torna 0%.
A pontuação final é comparada com o limite de aprovação para determinar se a revisão foi aprovada ou reprovada.
Aqui está um exemplo de como três critérios se combinam em uma pontuação final:
Critério | Avaliação selecionada | Pontuação da avaliação | Peso |
Precisão | Bom | 100% | 60 |
Tom | Regular | 50% | 30 |
Eficiência | Bom | 100% | 10 |
Pontuação geral = (100x60 + 50x30 + 100x10) / (60+30+10) = 85%
Onde visualizar as pontuações
Após a conclusão das revisões, as pontuações ficam visíveis tanto na lista de conversas quanto dentro de cada conversa.
No Monitor, a lista de conversas mostra a pontuação geral da revisão (porcentagem ou Reprovado) junto com as avaliações individuais dos critérios como colunas. Isso facilita a análise do desempenho nas conversas e a identificação de reprovações ou pontuações baixas.
Ao abrir uma conversa e ir para a aba Pontuação, você pode ver o scorecard atribuído, o status da revisão, a pontuação geral e a avaliação selecionada para cada critério. Essa visão mostra exatamente como a pontuação final foi determinada. Quando o Fin pontua um critério usando IA, você pode passar o mouse sobre a avaliação na aba Pontuação para ver uma dica mostrando a avaliação selecionada, a descrição do critério e o raciocínio do Fin para essa pontuação — tudo em um só lugar.
Perguntas frequentes
Posso reutilizar critérios de scorecard em vários scorecards?
Posso reutilizar critérios de scorecard em vários scorecards?
Sim, títulos e descrições dos critérios são reutilizáveis. Depois de criar um critério, você pode adicioná-lo a vários scorecards. Note que pontuações anteriores não podem ser reutilizadas e precisarão ser definidas do zero em cada scorecard.
O que acontece se eu não anexar um scorecard a um monitor?
O que acontece se eu não anexar um scorecard a um monitor?
O monitor ainda sinalizará conversas que correspondam aos seus critérios, mas nenhuma pontuação será feita. Os revisores verão conversas sinalizadas sem critérios de scorecard para preencher. Para habilitar a avaliação, anexe um scorecard durante a configuração do monitor.
Posso misturar critérios pontuados por IA e manualmente no mesmo scorecard?
Posso misturar critérios pontuados por IA e manualmente no mesmo scorecard?
Sim. Você pode escolher, critério a critério, se a pontuação será feita pela IA ou por um revisor humano. Note que se a Autoavaliação estiver ativada e algum critério exigir pontuação manual, essas conversas ainda aparecerão na fila Não revisadas.
O que um critério crítico faz?
O que um critério crítico faz?
Se um critério crítico receber uma avaliação reprovada, a pontuação geral da revisão cai para 0%, independentemente de como os outros critérios foram pontuados. Isso é útil para padrões inegociáveis — conformidade, segurança ou manejo de escalonamento — onde uma única falha deve sobrepor tudo o mais.







