PRINCÍPIOS
BÁSICOS DE KPIs
INDICADORES
DE DESEMPENHO DE EQUIPES
Módulo 2 — Como criar KPIs úteis para
equipes
Aula 1 — O que medir em uma equipe
Quando uma equipe começa a falar sobre
indicadores, uma das primeiras dúvidas que aparece é muito simples e muito
importante ao mesmo tempo: afinal, o que vale a pena medir? Essa pergunta
parece óbvia, mas muita gente responde da forma errada. Em vez de começar pelo
que realmente importa, começa pelo que é mais fácil contar. E é aí que nascem
boa parte dos indicadores inúteis. Os guias brasileiros sobre construção de
indicadores deixam claro que a definição do que medir precisa partir do
resultado que se deseja alcançar e da realidade do processo ou da organização,
e não apenas da disponibilidade de dados.
Na prática, isso quer dizer o seguinte:
antes de escolher qualquer KPI, a equipe precisa entender com honestidade o que
está tentando melhorar. Se essa etapa for ignorada, o risco é grande de
acompanhar números bonitos, mas vazios. Por exemplo, uma equipe pode medir
quantidade de mensagens enviadas, número de reuniões feitas ou total de
relatórios produzidos e ainda assim continuar sem saber se está atendendo
melhor, entregando com mais qualidade ou resolvendo os problemas certos. Medir
atividade não é o mesmo que medir resultado. Essa diferença parece pequena, mas
muda completamente a utilidade do indicador.
Vamos pensar em uma situação comum.
Imagine uma equipe de atendimento. Se o maior problema dessa equipe é a demora
na resposta ao cliente, faz sentido medir algo como tempo médio de resposta,
percentual de atendimentos respondidos dentro do prazo ou taxa de resolução no
primeiro contato. Agora, se o problema principal é a baixa qualidade das
respostas, talvez seja mais útil medir retrabalho, reincidência de dúvidas ou
satisfação do usuário. Perceba o raciocínio: o indicador não nasce sozinho. Ele
nasce a partir de um problema, de uma necessidade e de um resultado desejado.
Essa lógica aparece de forma consistente nos referenciais brasileiros sobre
medição de desempenho, que tratam os indicadores como instrumentos de
acompanhamento voltados à gestão e à tomada de decisão.
Esse ponto é essencial para quem está começando, porque existe uma armadilha muito comum: achar que toda equipe deve medir as mesmas coisas. Não deve. Uma equipe comercial, uma equipe pedagógica, uma equipe administrativa, uma equipe de logística e uma equipe de suporte
ponto é essencial para quem está
começando, porque existe uma armadilha muito comum: achar que toda equipe deve
medir as mesmas coisas. Não deve. Uma equipe comercial, uma equipe pedagógica,
uma equipe administrativa, uma equipe de logística e uma equipe de suporte têm
rotinas diferentes, objetivos diferentes e problemas diferentes. Por isso, os
indicadores também mudam. O que faz sentido em um setor pode ser irrelevante em
outro. Medir bem não é copiar indicadores prontos sem pensar. Medir bem é escolher,
dentro da realidade da equipe, aquilo que realmente ajuda a enxergar se o
trabalho está produzindo o efeito esperado.
Uma forma didática de entender isso é
imaginar que cada equipe precisa responder a uma pergunta central. A equipe de
vendas quer saber se está convertendo melhor. A equipe de atendimento quer
saber se está resolvendo de forma mais ágil e eficaz. A equipe de operações
quer saber se está entregando com mais eficiência e menos erro. A equipe
pedagógica quer saber se o aluno está sendo melhor acompanhado. A equipe
administrativa quer saber se os fluxos estão mais organizados, mais rápidos e
mais confiáveis. Quando essa pergunta central fica clara, os indicadores
começam a aparecer com muito mais naturalidade.
Vamos pegar alguns exemplos simples. Em
uma equipe de atendimento, pode fazer sentido medir tempo médio de resposta,
taxa de solução no primeiro contato e índice de satisfação. Em uma equipe de
operações, pode ser útil acompanhar produtividade, tempo de ciclo, percentual
de entrega no prazo e retrabalho. Em uma equipe comercial, taxa de conversão,
ticket médio e receita por vendedor podem ser indicadores relevantes. Já em uma
equipe de recursos humanos, podem ser importantes indicadores como tempo de fechamento
de vaga, turnover, absenteísmo ou adesão a treinamentos. Repare que, em todos
esses casos, os indicadores nascem de uma pergunta concreta sobre desempenho.
Eles não surgem do nada e nem dá vontade de “ter números”. Surgem da
necessidade de entender melhor os resultados.
Também é importante perceber que existe uma diferença entre o que é fácil medir e o que é importante medir. Muitas equipes caem na tentação de acompanhar apenas aquilo que o sistema já entrega pronto. Isso parece prático, mas pode ser perigoso. Um dado fácil de obter não é automaticamente um bom indicador. Às vezes ele está disponível porque é simples de registrar, mas não diz quase nada sobre o sucesso real da equipe. É o caso de indicadores como “quantidade
de acompanhar apenas aquilo que o sistema já entrega
pronto. Isso parece prático, mas pode ser perigoso. Um dado fácil de obter não
é automaticamente um bom indicador. Às vezes ele está disponível porque é
simples de registrar, mas não diz quase nada sobre o sucesso real da equipe. É
o caso de indicadores como “quantidade de e-mails enviados” ou “número de
reuniões realizadas”. Esses dados até podem ter algum valor complementar em
certos contextos, mas dificilmente serão os melhores para mostrar se a equipe
está alcançando aquilo que importa de verdade.
Outra questão importante é que nem tudo
precisa ser medido ao mesmo tempo. Esse é um erro bastante comum em equipes
iniciantes. Quando as pessoas descobrem o poder dos indicadores, às vezes
querem transformar toda a rotina em painel, gráfico e acompanhamento. O
resultado costuma ser excesso de informação, cansaço e perda de foco. Os
referenciais brasileiros sobre indicadores alertam justamente para a
necessidade de selecionar medidas relevantes, evitando sistemas de medição
grandes demais e pouco úteis. A equipe não precisa de vinte indicadores se três
ou quatro já ajudam a entender o essencial.
Por isso, escolher o que medir exige
critério. Um bom começo é observar quatro perguntas. Primeiro: qual é o
principal resultado esperado da equipe? Segundo: qual problema mais atrapalha
esse resultado hoje? Terceiro: que medida mostraria com mais clareza se estamos
melhorando? Quarto: conseguimos acompanhar esse dado com consistência? Essas
perguntas ajudam a filtrar o impulso de medir qualquer coisa e orientam a
equipe para aquilo que realmente pode apoiar uma decisão.
Vamos imaginar agora uma equipe de
logística que está sofrendo com atrasos. Se ela decidir medir apenas o número
total de entregas feitas por dia, talvez enxergue produtividade, mas não
enxergue pontualidade. Nesse caso, um indicador mais útil seria percentual de
entregas realizadas no prazo. Se, além disso, muitos pedidos chegam errados,
pode ser importante medir também o índice de devolução por erro ou a taxa de
retrabalho no envio. Repare como os indicadores vão sendo escolhidos a partir
dos problemas reais da operação. O objetivo não é ter muitos dados. O objetivo
é ter as informações certas para agir melhor.
Esse raciocínio vale também para equipes pequenas. Muita gente pensa que indicadores são assunto apenas para empresas grandes ou estruturas complexas. Isso não é verdade. Mesmo uma equipe pequena precisa de clareza sobre o que está
tentando alcançar. E quanto menor a equipe,
mais importante costuma ser medir com inteligência, porque o tempo e a energia
são limitados. Um pequeno grupo pode se beneficiar muito de indicadores
simples, desde que eles façam sentido. Um painel básico com poucos números bem
escolhidos já pode melhorar bastante a forma como a equipe enxerga seu
trabalho.
Outro ponto importante é lembrar que o que
se mede influencia o comportamento da equipe. Isso precisa ser levado a sério.
Quando uma equipe escolhe um indicador, ela está, de certa forma, dizendo o que
considera importante. Se mede apenas velocidade, as pessoas podem correr e
errar mais. Se mede apenas volume, podem produzir muito e entregar mal. Se mede
apenas qualidade, talvez fiquem lentas demais. Por isso, a escolha do indicador
precisa considerar também seus efeitos na prática. Um bom KPI não deve empurrar
a equipe para um comportamento distorcido. Ele precisa equilibrar foco e bom
senso.
No fundo, aprender o que medir é aprender
a olhar para a equipe com mais profundidade. Não basta perguntar “que número
temos?”. A pergunta mais útil é: “que número nos ajuda a entender se estamos
melhorando no que importa?”. Essa mudança de pergunta já transforma a lógica da
gestão. Em vez de colecionar dados, a equipe começa a construir um
acompanhamento mais inteligente, mais enxuto e mais útil.
Ao final desta aula, a ideia principal que deve ficar é muito clara: indicadores bons não nascem da pressa, nem da moda, nem da facilidade de coleta. Eles nascem da compreensão do resultado desejado. Primeiro a equipe entende o que quer melhorar. Depois identifica os problemas que mais atrapalham esse resultado. Só então escolhe o que medir. Quando essa ordem é respeitada, os KPIs começam a fazer sentido de verdade. E é justamente aí que deixam de ser números soltos e passam a ser ferramentas reais de gestão.
Referências bibliográficas
BAHIA, Leandro Oliveira. Guia referencial
para construção e análise de indicadores. Brasília: Escola Nacional de
Administração Pública, 2021.
BRASIL. Controladoria-Geral da União. Guia
para elaboração de indicadores de desempenho de processos. Brasília: CGU, 2020.
BRASIL. Ministério da Gestão e da Inovação
em Serviços Públicos. Guia metodológico para indicadores. Brasília: MGI, 2018.
UCHÔA, Carlos Eduardo. Elaboração de
indicadores de desempenho institucional: apostila de exercícios. Brasília:
Escola Nacional de Administração Pública, 2013.
Aula 2 — Como definir fórmula, meta e
periodicidade
Quando uma equipe escolhe um indicador,
muita gente pensa que a parte difícil acabou. Só que, na prática, esse é só o
começo. Um indicador sem fórmula bem definida, sem meta clara e sem
periodicidade adequada costuma virar fonte de confusão. Cada pessoa entende de
um jeito, os números mudam de significado ao longo do tempo e, no fim, ninguém
confia muito no que está sendo acompanhado. Os guias brasileiros sobre
construção de indicadores são bem firmes nesse ponto: um indicador só ajuda de
verdade quando sua definição está clara, seus componentes são conhecidos e sua
leitura pode ser feita de forma consistente.
A fórmula é o que dá estrutura ao
indicador. Ela mostra, de forma objetiva, como aquele número será calculado.
Sem fórmula, o indicador fica solto, quase como uma opinião disfarçada de dado.
Imagine uma equipe que decide acompanhar “produtividade do atendimento”, mas
não define exatamente o que isso significa. Uma pessoa pode achar que
produtividade é quantidade de atendimentos por dia. Outra pode entender que é
tempo médio por atendimento. Outra pode pensar em taxa de resolução. Perceba o
problema: todo mundo fala do mesmo indicador, mas cada um enxerga uma coisa
diferente. É por isso que a fórmula é tão importante. Ela transforma uma ideia
ampla em uma medida concreta.
Na prática, uma boa fórmula precisa ser
simples o suficiente para ser compreendida e robusta o suficiente para ser
útil. Se for complicada demais, a equipe não incorpora o indicador na rotina.
Se for vaga demais, perde credibilidade. Por exemplo, “taxa de entrega no
prazo” pode ser calculada como: número de entregas realizadas no prazo dividido
pelo total de entregas, multiplicado por 100. Isso é claro. Qualquer pessoa da
equipe consegue entender o que entra na conta e o que sai dela. Já uma fórmula
mal definida gera discussão desnecessária, retrabalho e desconfiança.
Outro ponto importante é que a fórmula não
vive sozinha. Ela precisa vir acompanhada da definição de fonte de dados.
Em outras palavras: de onde saem as informações que alimentam o indicador? Se
ninguém souber isso com segurança, o indicador pode até parecer bonito no
relatório, mas não será confiável. Guias metodológicos brasileiros tratam a
confiabilidade da fonte como parte essencial da qualidade do indicador, porque
medir mal é quase tão ruim quanto não medir nada.
Depois da fórmula, entra a meta. A meta é o ponto de referência que permite dizer se o resultado está bom, ruim ou apenas
estável. Sem meta, o indicador existe, mas fica mudo. Imagine que uma
equipe descubra que seu tempo médio de resposta ao cliente é de 6 horas. Esse
número é bom ou ruim? Sozinho, não dá para saber. Tudo depende do que a equipe
pretende alcançar, do histórico anterior e do contexto da operação. A meta
ajuda exatamente nisso: ela dá sentido ao número. Ela responde à pergunta “onde
queremos chegar?”. Os materiais da administração pública brasileira tratam a
meta como um valor de referência que orienta o acompanhamento do desempenho e
ajuda a comparar resultado esperado e resultado obtido.
Mas aqui existe um erro clássico: criar
metas irreais, genéricas ou apenas “bonitas no papel”. Isso é mais comum do que
deveria. Às vezes a equipe define uma meta extremamente agressiva sem olhar
para a própria realidade. Em outros casos, cria uma meta tão frouxa que
praticamente já nasce cumprida. Nos dois cenários, o indicador perde valor.
Meta boa não é a mais dura nem a mais confortável. Meta boa é a que desafia sem
romper a lógica da operação. Ela precisa ser clara, plausível e relevante. Os
referenciais sobre desempenho recomendam exatamente isso: metas precisam ser
consistentes com os objetivos, com a capacidade de entrega da equipe e com os
dados disponíveis para acompanhamento.
Vamos imaginar uma equipe de suporte ao
aluno. Hoje, o tempo médio de resposta é de 18 horas. Definir uma meta de 2
horas para o próximo mês pode parecer ambicioso, mas talvez seja irresponsável
se a equipe não tiver estrutura para isso. Por outro lado, fixar a meta em 17
horas também não gera mudança relevante. Uma meta mais inteligente poderia ser
reduzir de 18 para 10 horas em dois meses, acompanhando o efeito das melhorias
no processo. Repare: a meta precisa ter força para mobilizar, mas também precisa
respeitar a realidade. Sem esse equilíbrio, ela vira fonte de frustração ou
formalidade vazia.
Além da fórmula e da meta, existe um
terceiro elemento decisivo: a periodicidade. Esse nome parece técnico,
mas a ideia é simples. Periodicidade é a frequência com que o indicador será
acompanhado: diariamente, semanalmente, quinzenalmente, mensalmente,
trimestralmente e assim por diante. E esse detalhe faz mais diferença do que
parece. Se a equipe acompanha um indicador com frequência inadequada, pode agir
tarde demais ou, no extremo oposto, entrar em ansiedade desnecessária por
variações pequenas e normais.
Um erro comum é achar que acompanhar mais vezes é sempre melhor. Não é. Alguns
indicadores fazem sentido no
acompanhamento diário, principalmente em operações muito dinâmicas, como
atendimento, produção ou logística. Outros funcionam melhor de forma semanal ou
mensal, porque precisam de um intervalo maior para mostrar tendência.
Indicadores como turnover, absenteísmo mais consolidado ou satisfação geral
podem perder sentido se forem observados de forma apressada demais. Os guias
metodológicos brasileiros destacam que a frequência de coleta e análise deve
estar alinhada à natureza do fenômeno observado e ao uso gerencial do
indicador.
Pense em um indicador como “taxa de
retrabalho”. Se a equipe olhar para ele a cada hora, talvez enxergue oscilações
sem importância. Mas, se observar semanalmente, pode perceber um padrão mais
útil. Agora imagine “tempo médio de fila” em um setor de atendimento ao vivo.
Nesse caso, esperar um mês para acompanhar seria tarde demais. Então a
periodicidade não é detalhe burocrático. Ela define o ritmo com que a equipe
observa a realidade e reage a ela.
Também é importante entender que fórmula,
meta e periodicidade precisam conversar entre si. Não adianta construir uma
fórmula excelente, mas acompanhar o indicador numa frequência que não combina
com a dinâmica do processo. Também não adianta ter uma meta bem definida se os
dados que alimentam o indicador são frágeis. Esses elementos formam um
conjunto. Quando um falha, o restante perde força. É por isso que materiais
técnicos sobre elaboração de indicadores costumam defender a descrição formal
do indicador, incluindo nome, conceito, finalidade, fórmula de cálculo, unidade
de medida, fonte, frequência de apuração e responsável.
Na vida real, essa descrição evita uma
série de problemas. Evita que o indicador mude de significado no meio do
caminho. Evita que um novo gestor interprete o número de outro jeito. Evita que
a equipe discuta percepção quando deveria discutir resultado. E,
principalmente, evita que o acompanhamento vire uma prática improvisada. Gestão
boa não depende de adivinhação. Depende de critérios claros.
Vamos a um exemplo completo. Imagine um time de operações que quer melhorar a pontualidade das entregas. O indicador escolhido é taxa de entrega no prazo. A fórmula é: entregas realizadas no prazo dividido pelo total de entregas, multiplicado por 100. A meta é alcançar 95%. A periodicidade escolhida é semanal, porque isso permite identificar desvios com rapidez sem gerar ruído excessivo. A fonte de dados será o sistema logístico. Pronto.
Agora existe um indicador que a equipe
entende, consegue calcular, sabe interpretar e pode usar para decidir. Se a
taxa cair para 88%, o time sabe que precisa investigar causas. Se subir de
forma consistente, sabe que as ações adotadas estão funcionando.
Agora compare isso com uma situação mal
definida. O time diz apenas que quer “melhorar a entrega”. Sem fórmula, sem
meta e sem periodicidade, qualquer conversa vira opinião. Um líder diz que
melhorou porque sente menos reclamações. Outro diz que piorou porque houve
atraso em um cliente importante. Um terceiro acha que está igual. Ninguém está
mentindo, mas ninguém está analisando com base comum. É exatamente para evitar
esse tipo de ruído que a estrutura do indicador precisa ser levada a sério.
Outro cuidado importante é não transformar
o processo em burocracia desnecessária. Algumas equipes, quando descobrem a
importância da boa definição, exageram. Criam fichas enormes, cheias de
detalhes, para indicadores que nunca serão realmente usados. Isso também é
erro. O ponto não é complicar. O ponto é dar clareza suficiente para que o
indicador funcione. Se a equipe é pequena, uma descrição simples e bem feita já
resolve muito. O essencial é que todos saibam o que está sendo medido, como,
com base em quais dados, com que meta e com que frequência.
No fundo, definir fórmula, meta e
periodicidade é um exercício de maturidade gerencial. É o momento em que a
equipe para de falar de desempenho de forma genérica e começa a criar um
acompanhamento mais sério, mais confiável e mais útil. Sem isso, o KPI vira um
número frágil. Com isso, ele passa a ser uma ferramenta real de gestão.
Ao final desta aula, a ideia mais importante é esta: um indicador só ganha valor quando deixa de ser uma intenção vaga e passa a ter definição clara. A fórmula mostra como calcular. A meta mostra o que se espera. A periodicidade mostra quando acompanhar. Quando esses três elementos estão bem definidos, a equipe deixa de apenas olhar números e começa, de fato, a entender o próprio desempenho.
Referências bibliográficas
BAHIA, Leandro Oliveira. Guia
referencial para construção e análise de indicadores. Brasília: Escola
Nacional de Administração Pública, 2021.
BRASIL. Guia metodológico para
indicadores. Brasília: Ministério do Planejamento, Desenvolvimento e
Gestão, 2018.
BRASIL. Orientações para construção e
implementação de indicadores. Brasília: Ministério da Economia, s.d.
BRASIL. Controladoria-Geral da União. Guia para elaboração
de indicadores de desempenho de processos. Brasília: CGU,
2020.
UCHÔA, Carlos Eduardo. Elaboração de
indicadores de desempenho institucional. Brasília: Escola Nacional de
Administração Pública, 2013.
Aula 3 — Como evitar indicadores inúteis
Quando uma equipe começa a usar
indicadores, existe um erro muito comum que quase sempre aparece logo no
início: a vontade de medir tudo. A intenção, em geral, é boa. A equipe quer
controlar melhor a rotina, acompanhar resultados e tomar decisões mais conscientes.
O problema é que, sem critério, essa vontade vira excesso. E excesso de
indicador não melhora a gestão. Muitas vezes, só aumenta a confusão. Guias
brasileiros sobre construção e análise de indicadores insistem justamente
nisso: o indicador precisa expressar algo realmente importante para o resultado
esperado e deve ser selecionado com cuidado, para não gerar custo de
acompanhamento sem utilidade prática.
Um indicador inútil nem sempre é absurdo à
primeira vista. Às vezes ele até parece inteligente, sofisticado ou “bem
técnico”. Mas, no dia a dia, ele não ajuda ninguém a entender melhor o
desempenho da equipe. Em outros casos, ele mede algo que até existe, mas não
tem relação real com o que a equipe precisa melhorar. E há situações ainda
piores: quando o indicador começa a empurrar a equipe para o comportamento
errado. Esse ponto é sério. Um indicador mal escolhido não é apenas inútil; ele
pode atrapalhar o trabalho. O próprio material metodológico do governo federal
alerta para o risco de apropriação incorreta da ferramenta e para a necessidade
de construir medidas que realmente expressem os resultados esperados.
Um dos primeiros sinais de que um KPI é ruim aparece quando ele mede esforço, mas não mede resultado. Imagine uma equipe que decide acompanhar apenas a quantidade de reuniões realizadas por semana. É um número? Sim. É fácil de contar? Sim. Mas ele diz, de fato, se a equipe está resolvendo melhor seus problemas, entregando melhor ou produzindo mais valor? Nem sempre. Fazer mais reuniões pode significar organização, mas também pode significar excesso de conversa e pouca solução. O mesmo vale para indicadores como número de e-mails enviados, quantidade de mensagens respondidas ou total de planilhas preenchidas. Esses dados podem até ter algum uso complementar, mas raramente deveriam ocupar o centro do acompanhamento da equipe. Os referenciais da ENAP e da CGU reforçam que o foco do indicador deve estar nos efeitos desejados e na utilidade
gerencial da informação.
Outro erro muito comum é escolher
indicadores porque eles são fáceis de coletar, e não porque eles são
importantes. Esse é um atalho perigoso. Muitas vezes o sistema já entrega
alguns números prontos, e a equipe, por comodidade, transforma esses números em
KPIs sem refletir se eles realmente ajudam a entender o desempenho. Só que
disponibilidade de dado não é critério suficiente para escolha de indicador. O
guia metodológico para indicadores do governo federal destaca que boas práticas
de formulação e seleção dependem de relevância, confiabilidade e utilidade, não
apenas de facilidade operacional.
Há também o caso dos indicadores vagos
demais. São aqueles que soam bonitos, modernos e estratégicos, mas ninguém
entende exatamente o que significam. Termos como “nível geral de excelência”,
“índice ampliado de performance” ou “grau de eficiência integrada” podem até
impressionar no papel, mas, se a equipe não souber explicar com clareza o que
está sendo medido, como se calcula e o que fazer com o resultado, o indicador
perde valor. A ENAP recomenda que os indicadores sejam descritos de forma a
minimizar dúvidas na coleta e na interpretação dos resultados. Quando isso não
acontece, o acompanhamento vira ruído.
Um indicador também se torna inútil quando
não gera nenhuma decisão. Esse é um teste simples e poderoso. Se o número sobe
ou desce e ninguém sabe o que fazer com isso, talvez ele não esteja servindo
para muita coisa. Um dos materiais da ENAP afirma de forma bastante direta que
indicadores apontam problemas, mas não os resolvem sozinhos; ainda assim, se um
indicador oscila e ninguém toma providência, o melhor pode ser descartá-lo,
porque a informação passa a gerar custo sem utilidade real. Isso é duro, mas é
correto. Não faz sentido insistir em acompanhar um dado que não orienta nenhuma
conversa útil.
Outro perigo está nos indicadores que estimulam comportamento distorcido. Esse é um dos erros mais importantes desta aula. Imagine uma equipe de atendimento que acompanha apenas a quantidade de chamados encerrados por dia. A tendência é que as pessoas passem a priorizar o fechamento rápido, mesmo quando o problema do cliente ainda não foi realmente resolvido. O volume sobe, o número parece ótimo, mas a qualidade do serviço piora. O indicador, nesse caso, não está apenas deixando de ajudar; ele está empurrando a equipe na direção errada. Guias de elaboração de indicadores alertam que a construção das medidas precisa considerar o
perigo está nos indicadores que
estimulam comportamento distorcido. Esse é um dos erros mais importantes desta
aula. Imagine uma equipe de atendimento que acompanha apenas a quantidade de
chamados encerrados por dia. A tendência é que as pessoas passem a priorizar o
fechamento rápido, mesmo quando o problema do cliente ainda não foi realmente
resolvido. O volume sobe, o número parece ótimo, mas a qualidade do serviço
piora. O indicador, nesse caso, não está apenas deixando de ajudar; ele está
empurrando a equipe na direção errada. Guias de elaboração de indicadores
alertam que a construção das medidas precisa considerar o contexto do processo
e os efeitos produzidos pela forma de mensuração.
Esse tipo de distorção acontece porque
nenhum indicador é neutro. O que a equipe escolhe medir passa uma mensagem
clara sobre o que considera importante. Se mede só velocidade, as pessoas
correm mais. Se mede só volume, produzem mais unidades. Se mede só custo,
começam a cortar recursos. O problema é que quase todo resultado relevante
depende de equilíbrio. Uma equipe precisa ser produtiva, mas também precisa
manter qualidade. Precisa ser rápida, mas sem aumentar retrabalho. Precisa
entregar mais, mas sem comprometer a experiência do usuário. Por isso, evitar
indicadores inúteis também significa evitar indicadores cegos, que olham apenas
um pedaço pequeno da realidade.
Há ainda um erro mais silencioso:
continuar acompanhando um indicador que já perdeu sentido. Isso acontece
bastante. Um KPI foi criado em determinado momento, ajudou durante um período,
mas o processo mudou, a meta mudou ou a prioridade da equipe mudou. Mesmo
assim, o indicador continua no painel apenas por hábito. Com o tempo, ele deixa
de orientar decisão, mas permanece consumindo energia, atenção e tempo de
atualização. Os materiais brasileiros sobre monitoramento deixam claro que os
indicadores precisam ser acompanhados criticamente, porque seus atributos e sua
utilidade podem não se manter ao longo do tempo.
Então, como evitar indicadores inúteis? O primeiro passo é fazer uma pergunta muito simples antes de adotar qualquer KPI: esse indicador está ligado a um resultado que realmente importa? Se a resposta for fraca ou confusa, o indicador já nasce suspeito. O segundo passo é perguntar: ele ajuda a tomar alguma decisão? Se o número variar e nada mudar na prática, provavelmente ele não merece tanto espaço. O terceiro passo é verificar se ele pode gerar comportamento distorcido. Se a equipe
tentar
melhorar esse indicador, que tipo de consequência pode aparecer? Essa pergunta
evita muita dor de cabeça. Os referenciais da ENAP, da CGU e do governo federal
convergem nesse ponto: indicador bom precisa ser relevante, confiável,
mensurável e útil ao acompanhamento gerencial.
Também ajuda muito separar indicadores
principais de indicadores complementares. Nem todo dado precisa virar KPI
central. Às vezes a equipe tem um ou dois indicadores realmente estratégicos e
alguns outros números de apoio, usados apenas para contextualizar a análise.
Esse arranjo costuma funcionar melhor do que tentar transformar todo dado em
prioridade. O material da ENAP sobre elaboração de indicadores inclusive chama
atenção para o risco de excesso de indicadores e para a necessidade de
selecionar os melhores para compor um sistema de medição coerente.
Outro cuidado importante é revisar os
indicadores periodicamente. Não basta criar e esquecer. A equipe precisa olhar
para eles e se perguntar, de tempos em tempos: ainda fazem sentido? continuam
sendo compreendidos? ainda ajudam a decidir? ainda estão alinhados ao objetivo
atual? Essa revisão não é sinal de erro. É sinal de maturidade. Indicador bom
não é o que dura para sempre. É o que serve bem enquanto a equipe precisa dele.
O monitoramento contínuo dos atributos do indicador, como validade, confiabilidade
e mensurabilidade, é recomendado em materiais brasileiros sobre o tema.
No fundo, evitar indicadores inúteis é
aprender a respeitar o tempo e a atenção da equipe. Toda vez que um número
entra no painel, ele passa a disputar espaço mental, conversa de reunião e
energia de acompanhamento. Por isso, ele precisa merecer esse espaço. Indicador
não é decoração de gestão. É ferramenta. E ferramenta ruim atrapalha mais do
que ajuda. Quando a equipe entende isso, passa a medir menos por impulso e mais
por intenção. Essa mudança parece pequena, mas melhora muito a qualidade da
gestão.
Ao final desta aula, a principal lição é simples: um indicador só vale a pena quando ajuda a enxergar melhor a realidade e apoiar uma ação melhor. Se ele mede o que não importa, se gera confusão, se não produz decisão ou se empurra a equipe para o comportamento errado, ele não está cumprindo sua função. Nesses casos, insistir nele é desperdício. Melhor ter poucos indicadores úteis do que muitos indicadores que só ocupam espaço.
Referências bibliográficas
BAHIA, Leandro Oliveira. Guia referencial para construção e análise de indicadores.
Brasília: Escola
Nacional de Administração Pública, 2021.
BRASIL. Guia metodológico para
indicadores. Brasília: Ministério do Planejamento, Desenvolvimento e
Gestão, 2018.
BRASIL. Controladoria-Geral da União. Guia
para elaboração de indicadores de desempenho de processos. Brasília: CGU,
2020.
UCHÔA, Carlos Eduardo. Elaboração de
indicadores de desempenho institucional. Brasília: Escola Nacional de
Administração Pública, 2013.
Estudo de caso — A equipe
que quis medir tudo e quase perdeu o controle do que realmente importava
A empresa Horizonte Serviços estava
vivendo um momento de crescimento. A demanda aumentava, novos clientes chegavam
e a direção começou a cobrar mais organização da equipe de operações. A
cobrança parecia justa: era preciso acompanhar melhor o desempenho para evitar
atrasos, erros e desgaste interno. Então surgiu a decisão que, no papel,
parecia excelente: criar indicadores para monitorar a equipe.
O problema é que a implementação começou
da pior forma possível.
Na primeira reunião, o líder disse que a
equipe precisava “ter mais controle”. Todos concordaram. Mas ninguém parou para
responder a pergunta mais básica: controle de quê, exatamente? Sem essa
clareza, a conversa virou uma chuva de sugestões soltas. Uma pessoa queria
medir quantidade de tarefas concluídas. Outra queria medir quantidade de
e-mails respondidos. Outra achava importante medir número de reuniões feitas.
Teve até quem sugerisse medir quantas vezes o sistema era acessado por dia. Em
menos de uma hora, a equipe tinha criado uma lista enorme de números para
acompanhar. Parecia profissional. Na prática, era bagunça disfarçada de gestão.
O primeiro erro foi esse: a equipe começou
pelos números, e não pelo resultado que queria melhorar. Em vez de perguntar
“qual problema mais atrapalha nosso desempenho hoje?”, começou perguntando “o
que dá para medir?”. Isso inverteu toda a lógica.
No mês seguinte, a empresa já tinha um
painel cheio de indicadores. O problema é que quase ninguém sabia explicar por
que aqueles números estavam ali. O time acompanhava volume de tarefas
concluídas, total de ligações feitas, número de mensagens internas trocadas,
quantidade de planilhas atualizadas e tempo médio de login no sistema. Era
tanta informação que, em vez de clareza, surgiu cansaço. As reuniões ficaram
mais longas, mais confusas e menos úteis. Todo mundo via os números, mas
ninguém conseguia dizer com segurança o que realmente estava melhorando.
A situação começou a
ficar mais séria
quando apareceu um efeito colateral clássico: os indicadores começaram a moldar
o comportamento da equipe de forma errada. Como o número mais cobrado era
“quantidade de tarefas concluídas”, muita gente passou a priorizar tarefas
menores e mais rápidas só para aumentar o volume final do dia. O painel
mostrava crescimento de produtividade. Mas, nos bastidores, os problemas
importantes continuavam parados. As tarefas mais complexas eram adiadas porque
“estragavam o número”. Ou seja, o indicador estava incentivando exatamente o
comportamento errado.
Ao mesmo tempo, outro KPI acompanhava o
“tempo médio de atendimento das demandas”. A intenção parecia boa: acelerar a
operação. Só que, na prática, a equipe começou a encurtar processos sem o
cuidado necessário. Resultado: o tempo caiu, mas o retrabalho subiu. Alguns
clientes precisavam pedir correções, e certas entregas voltavam com erro. A
empresa tinha conseguido ficar mais rápida no papel e pior na realidade.
Foi aí que a coordenação percebeu que não
estava faltando esforço. Estava faltando critério.
A primeira mudança foi parar de olhar para
o painel como se todo número tivesse o mesmo valor. A liderança reuniu a equipe
e fez uma pergunta muito mais inteligente: qual é o principal resultado que
esta área precisa entregar bem? Depois de bastante conversa, a resposta
ficou clara: a prioridade não era fazer mais tarefas nem parecer mais veloz. A
prioridade era entregar demandas com qualidade e dentro do prazo.
Essa definição mudou tudo.
Com o resultado principal finalmente
claro, a equipe conseguiu reorganizar a lógica dos indicadores. Em vez de
acompanhar qualquer dado disponível, passou a escolher indicadores diretamente
ligados a esse resultado. Foram definidos três KPIs principais: percentual
de entregas no prazo, índice de retrabalho e tempo médio de
conclusão por tipo de demanda. Agora sim fazia sentido. O primeiro mostrava
se os prazos estavam sendo cumpridos. O segundo mostrava se a qualidade estava
se sustentando. O terceiro ajudava a entender a eficiência sem ignorar a
complexidade do trabalho.
Mas o acerto não parou aí. A equipe também
percebeu que não bastava escolher o indicador; era preciso defini-lo direito.
Antes, cada pessoa entendia os números de um jeito. Então passaram a formalizar
melhor cada KPI. Para cada indicador, registraram nome, objetivo, fórmula,
fonte dos dados, responsável pelo acompanhamento, meta e periodicidade.
Esse passo resolveu um segundo erro comum do
passo resolveu um segundo erro comum
do módulo 2: indicador sem definição clara. Antes, por exemplo, “tarefas
concluídas” incluía qualquer atividade, de qualquer tamanho, sem distinção.
Agora, o time entendia exatamente o que cada indicador media e como era
calculado. Isso reduziu ruído, discussão desnecessária e interpretação torta.
Depois veio a revisão das metas. E aqui
apareceu outro erro que estava atrapalhando tudo: algumas metas eram irreais,
outras não serviam para nada. O indicador de prazo, por exemplo, estava com
meta de 100% das entregas no prazo. Na teoria, parecia ótimo. Na prática,
gerava pressão artificial e escondia a complexidade real da operação. A equipe
substituiu essa meta por algo mais consistente e alcançável, sem ser frouxo. O
objetivo passou a ser atingir 95% de entregas no prazo em três meses, com
redução gradual do retrabalho. Isso deu mais seriedade ao acompanhamento.
Também ajustaram a periodicidade. Antes,
alguns indicadores eram discutidos todos os dias, o que gerava ansiedade e
reação exagerada a pequenas oscilações. Outros eram vistos com tanta demora que
já não serviam para corrigir nada. Depois da revisão, a equipe decidiu
acompanhar prazo e volume semanalmente, e retrabalho quinzenalmente, para ter
leitura mais estável. Isso trouxe ritmo e maturidade para a análise.
Com o novo modelo, as reuniões mudaram
completamente. Antes, o encontro era um desfile de números sem direção. Agora,
a conversa tinha foco. Quando o percentual de entregas no prazo caía, a equipe
investigava causas concretas. Quando o retrabalho subia, analisava em que etapa
os erros estavam nascendo. Quando o tempo médio aumentava, verificava se isso
vinha de maior complexidade das demandas ou de gargalos internos. O indicador
deixou de ser um enfeite de reunião e virou ferramenta de decisão.
O mais interessante é que o desempenho
real começou a melhorar justamente quando a equipe reduziu a quantidade de
números e aumentou a qualidade do acompanhamento. Em dois meses, o índice de
retrabalho caiu. Em três meses, a taxa de entrega no prazo melhorou. E, talvez
mais importante que isso, a equipe passou a entender melhor o próprio trabalho.
As pessoas deixaram de correr atrás de volume cego e passaram a enxergar o que
realmente fazia diferença no resultado final.
Erros comuns mostrados no caso
O primeiro erro foi escolher o que medir com base no que era fácil contar, e não no que era importante acompanhar. Esse é um erro clássico. Dado disponível não é
automaticamente KPI útil.
O segundo erro foi tentar medir tudo ao
mesmo tempo. O resultado foi excesso de informação, perda de foco e reuniões
improdutivas.
O terceiro erro foi adotar indicadores que
premiavam comportamento distorcido. Quando a equipe passou a ser cobrada por
quantidade de tarefas concluídas, começou a privilegiar tarefas rápidas em vez
das mais importantes.
O quarto erro foi usar indicadores sem
definição clara. Sem fórmula, sem critério e sem fonte bem definida, cada
número virava interpretação.
O quinto erro foi estabelecer metas ruins.
Algumas eram irreais, outras frouxas. Em ambos os casos, o acompanhamento
perdia valor.
O sexto erro foi definir periodicidade sem
lógica. Acompanhar tudo o tempo todo gera ansiedade; acompanhar tarde demais
impede correção de rota.
Como evitar esses erros
A forma correta de construir indicadores é
muito mais simples do que parece, mas exige disciplina. Primeiro, a equipe
precisa definir com clareza o resultado que deseja melhorar. Depois, precisa
escolher poucos indicadores realmente ligados a esse resultado. Em seguida,
deve definir cada KPI com precisão: fórmula, fonte, meta, responsável e
periodicidade. E, por fim, precisa revisar se o indicador está ajudando a
decidir ou apenas ocupando espaço.
Também é essencial fazer uma pergunta
incômoda, mas necessária: se a equipe tentar melhorar esse indicador, que
comportamento isso vai incentivar? Essa pergunta evita muitos desastres. Um
KPI aparentemente bom pode ser péssimo se empurrar o time para atalhos, pressa
burra ou priorização errada.
Lição principal do estudo de caso
O módulo 2 ensina uma verdade que muita
gente ignora: não basta criar indicadores; é preciso construí-los com lógica.
Indicador bom nasce do resultado desejado, tem definição clara, meta realista,
frequência adequada e utilidade prática. Quando isso não acontece, a equipe não
ganha controle. Ganha ruído.
No caso da Horizonte Serviços, a virada
aconteceu quando a equipe parou de medir por impulso e começou a medir com
intenção. Esse é o centro do módulo 2: escolher melhor, definir melhor e
acompanhar melhor.
Reflexão final
Vale a pena olhar para a realidade de
qualquer equipe e perguntar:
Os indicadores atuais mostram o que realmente importa?
As metas fazem sentido ou são só números jogados?
A periodicidade ajuda na gestão ou só gera estresse?
Os KPIs incentivam o comportamento certo ou o comportamento mais conveniente?
Se essas respostas forem fracas, o problema não está
necessariamente nas pessoas. Muitas vezes, está no modelo de acompanhamento que foi mal construído.
Acesse materiais, apostilas e vídeos em mais de 3000 cursos, tudo isso gratuitamente!
Matricule-se AgoraAcesse materiais, apostilas e vídeos em mais de 3000 cursos, tudo isso gratuitamente!
Matricule-se Agora