Portal IDEA

Princípios Básicos de KPIs Indicadores de Desempenho de Equipes

PRINCÍPIOS BÁSICOS DE KPIs

INDICADORES DE DESEMPENHO DE EQUIPES

 

Módulo 2 — Como criar KPIs úteis para equipes 

Aula 1 — O que medir em uma equipe 

 

Quando uma equipe começa a falar sobre indicadores, uma das primeiras dúvidas que aparece é muito simples e muito importante ao mesmo tempo: afinal, o que vale a pena medir? Essa pergunta parece óbvia, mas muita gente responde da forma errada. Em vez de começar pelo que realmente importa, começa pelo que é mais fácil contar. E é aí que nascem boa parte dos indicadores inúteis. Os guias brasileiros sobre construção de indicadores deixam claro que a definição do que medir precisa partir do resultado que se deseja alcançar e da realidade do processo ou da organização, e não apenas da disponibilidade de dados.

Na prática, isso quer dizer o seguinte: antes de escolher qualquer KPI, a equipe precisa entender com honestidade o que está tentando melhorar. Se essa etapa for ignorada, o risco é grande de acompanhar números bonitos, mas vazios. Por exemplo, uma equipe pode medir quantidade de mensagens enviadas, número de reuniões feitas ou total de relatórios produzidos e ainda assim continuar sem saber se está atendendo melhor, entregando com mais qualidade ou resolvendo os problemas certos. Medir atividade não é o mesmo que medir resultado. Essa diferença parece pequena, mas muda completamente a utilidade do indicador.

Vamos pensar em uma situação comum. Imagine uma equipe de atendimento. Se o maior problema dessa equipe é a demora na resposta ao cliente, faz sentido medir algo como tempo médio de resposta, percentual de atendimentos respondidos dentro do prazo ou taxa de resolução no primeiro contato. Agora, se o problema principal é a baixa qualidade das respostas, talvez seja mais útil medir retrabalho, reincidência de dúvidas ou satisfação do usuário. Perceba o raciocínio: o indicador não nasce sozinho. Ele nasce a partir de um problema, de uma necessidade e de um resultado desejado. Essa lógica aparece de forma consistente nos referenciais brasileiros sobre medição de desempenho, que tratam os indicadores como instrumentos de acompanhamento voltados à gestão e à tomada de decisão.

Esse ponto é essencial para quem está começando, porque existe uma armadilha muito comum: achar que toda equipe deve medir as mesmas coisas. Não deve. Uma equipe comercial, uma equipe pedagógica, uma equipe administrativa, uma equipe de logística e uma equipe de suporte

ponto é essencial para quem está começando, porque existe uma armadilha muito comum: achar que toda equipe deve medir as mesmas coisas. Não deve. Uma equipe comercial, uma equipe pedagógica, uma equipe administrativa, uma equipe de logística e uma equipe de suporte têm rotinas diferentes, objetivos diferentes e problemas diferentes. Por isso, os indicadores também mudam. O que faz sentido em um setor pode ser irrelevante em outro. Medir bem não é copiar indicadores prontos sem pensar. Medir bem é escolher, dentro da realidade da equipe, aquilo que realmente ajuda a enxergar se o trabalho está produzindo o efeito esperado.

Uma forma didática de entender isso é imaginar que cada equipe precisa responder a uma pergunta central. A equipe de vendas quer saber se está convertendo melhor. A equipe de atendimento quer saber se está resolvendo de forma mais ágil e eficaz. A equipe de operações quer saber se está entregando com mais eficiência e menos erro. A equipe pedagógica quer saber se o aluno está sendo melhor acompanhado. A equipe administrativa quer saber se os fluxos estão mais organizados, mais rápidos e mais confiáveis. Quando essa pergunta central fica clara, os indicadores começam a aparecer com muito mais naturalidade.

Vamos pegar alguns exemplos simples. Em uma equipe de atendimento, pode fazer sentido medir tempo médio de resposta, taxa de solução no primeiro contato e índice de satisfação. Em uma equipe de operações, pode ser útil acompanhar produtividade, tempo de ciclo, percentual de entrega no prazo e retrabalho. Em uma equipe comercial, taxa de conversão, ticket médio e receita por vendedor podem ser indicadores relevantes. Já em uma equipe de recursos humanos, podem ser importantes indicadores como tempo de fechamento de vaga, turnover, absenteísmo ou adesão a treinamentos. Repare que, em todos esses casos, os indicadores nascem de uma pergunta concreta sobre desempenho. Eles não surgem do nada e nem dá vontade de “ter números”. Surgem da necessidade de entender melhor os resultados.

Também é importante perceber que existe uma diferença entre o que é fácil medir e o que é importante medir. Muitas equipes caem na tentação de acompanhar apenas aquilo que o sistema já entrega pronto. Isso parece prático, mas pode ser perigoso. Um dado fácil de obter não é automaticamente um bom indicador. Às vezes ele está disponível porque é simples de registrar, mas não diz quase nada sobre o sucesso real da equipe. É o caso de indicadores como “quantidade

de acompanhar apenas aquilo que o sistema já entrega pronto. Isso parece prático, mas pode ser perigoso. Um dado fácil de obter não é automaticamente um bom indicador. Às vezes ele está disponível porque é simples de registrar, mas não diz quase nada sobre o sucesso real da equipe. É o caso de indicadores como “quantidade de e-mails enviados” ou “número de reuniões realizadas”. Esses dados até podem ter algum valor complementar em certos contextos, mas dificilmente serão os melhores para mostrar se a equipe está alcançando aquilo que importa de verdade.

Outra questão importante é que nem tudo precisa ser medido ao mesmo tempo. Esse é um erro bastante comum em equipes iniciantes. Quando as pessoas descobrem o poder dos indicadores, às vezes querem transformar toda a rotina em painel, gráfico e acompanhamento. O resultado costuma ser excesso de informação, cansaço e perda de foco. Os referenciais brasileiros sobre indicadores alertam justamente para a necessidade de selecionar medidas relevantes, evitando sistemas de medição grandes demais e pouco úteis. A equipe não precisa de vinte indicadores se três ou quatro já ajudam a entender o essencial.

Por isso, escolher o que medir exige critério. Um bom começo é observar quatro perguntas. Primeiro: qual é o principal resultado esperado da equipe? Segundo: qual problema mais atrapalha esse resultado hoje? Terceiro: que medida mostraria com mais clareza se estamos melhorando? Quarto: conseguimos acompanhar esse dado com consistência? Essas perguntas ajudam a filtrar o impulso de medir qualquer coisa e orientam a equipe para aquilo que realmente pode apoiar uma decisão.

Vamos imaginar agora uma equipe de logística que está sofrendo com atrasos. Se ela decidir medir apenas o número total de entregas feitas por dia, talvez enxergue produtividade, mas não enxergue pontualidade. Nesse caso, um indicador mais útil seria percentual de entregas realizadas no prazo. Se, além disso, muitos pedidos chegam errados, pode ser importante medir também o índice de devolução por erro ou a taxa de retrabalho no envio. Repare como os indicadores vão sendo escolhidos a partir dos problemas reais da operação. O objetivo não é ter muitos dados. O objetivo é ter as informações certas para agir melhor.

Esse raciocínio vale também para equipes pequenas. Muita gente pensa que indicadores são assunto apenas para empresas grandes ou estruturas complexas. Isso não é verdade. Mesmo uma equipe pequena precisa de clareza sobre o que está

tentando alcançar. E quanto menor a equipe, mais importante costuma ser medir com inteligência, porque o tempo e a energia são limitados. Um pequeno grupo pode se beneficiar muito de indicadores simples, desde que eles façam sentido. Um painel básico com poucos números bem escolhidos já pode melhorar bastante a forma como a equipe enxerga seu trabalho.

Outro ponto importante é lembrar que o que se mede influencia o comportamento da equipe. Isso precisa ser levado a sério. Quando uma equipe escolhe um indicador, ela está, de certa forma, dizendo o que considera importante. Se mede apenas velocidade, as pessoas podem correr e errar mais. Se mede apenas volume, podem produzir muito e entregar mal. Se mede apenas qualidade, talvez fiquem lentas demais. Por isso, a escolha do indicador precisa considerar também seus efeitos na prática. Um bom KPI não deve empurrar a equipe para um comportamento distorcido. Ele precisa equilibrar foco e bom senso.

No fundo, aprender o que medir é aprender a olhar para a equipe com mais profundidade. Não basta perguntar “que número temos?”. A pergunta mais útil é: “que número nos ajuda a entender se estamos melhorando no que importa?”. Essa mudança de pergunta já transforma a lógica da gestão. Em vez de colecionar dados, a equipe começa a construir um acompanhamento mais inteligente, mais enxuto e mais útil.

Ao final desta aula, a ideia principal que deve ficar é muito clara: indicadores bons não nascem da pressa, nem da moda, nem da facilidade de coleta. Eles nascem da compreensão do resultado desejado. Primeiro a equipe entende o que quer melhorar. Depois identifica os problemas que mais atrapalham esse resultado. Só então escolhe o que medir. Quando essa ordem é respeitada, os KPIs começam a fazer sentido de verdade. E é justamente aí que deixam de ser números soltos e passam a ser ferramentas reais de gestão.

Referências bibliográficas

BAHIA, Leandro Oliveira. Guia referencial para construção e análise de indicadores. Brasília: Escola Nacional de Administração Pública, 2021.

BRASIL. Controladoria-Geral da União. Guia para elaboração de indicadores de desempenho de processos. Brasília: CGU, 2020.

BRASIL. Ministério da Gestão e da Inovação em Serviços Públicos. Guia metodológico para indicadores. Brasília: MGI, 2018.

UCHÔA, Carlos Eduardo. Elaboração de indicadores de desempenho institucional: apostila de exercícios. Brasília: Escola Nacional de Administração Pública, 2013.


Aula 2 — Como definir fórmula, meta e

periodicidade

 

Quando uma equipe escolhe um indicador, muita gente pensa que a parte difícil acabou. Só que, na prática, esse é só o começo. Um indicador sem fórmula bem definida, sem meta clara e sem periodicidade adequada costuma virar fonte de confusão. Cada pessoa entende de um jeito, os números mudam de significado ao longo do tempo e, no fim, ninguém confia muito no que está sendo acompanhado. Os guias brasileiros sobre construção de indicadores são bem firmes nesse ponto: um indicador só ajuda de verdade quando sua definição está clara, seus componentes são conhecidos e sua leitura pode ser feita de forma consistente.

A fórmula é o que dá estrutura ao indicador. Ela mostra, de forma objetiva, como aquele número será calculado. Sem fórmula, o indicador fica solto, quase como uma opinião disfarçada de dado. Imagine uma equipe que decide acompanhar “produtividade do atendimento”, mas não define exatamente o que isso significa. Uma pessoa pode achar que produtividade é quantidade de atendimentos por dia. Outra pode entender que é tempo médio por atendimento. Outra pode pensar em taxa de resolução. Perceba o problema: todo mundo fala do mesmo indicador, mas cada um enxerga uma coisa diferente. É por isso que a fórmula é tão importante. Ela transforma uma ideia ampla em uma medida concreta.

Na prática, uma boa fórmula precisa ser simples o suficiente para ser compreendida e robusta o suficiente para ser útil. Se for complicada demais, a equipe não incorpora o indicador na rotina. Se for vaga demais, perde credibilidade. Por exemplo, “taxa de entrega no prazo” pode ser calculada como: número de entregas realizadas no prazo dividido pelo total de entregas, multiplicado por 100. Isso é claro. Qualquer pessoa da equipe consegue entender o que entra na conta e o que sai dela. Já uma fórmula mal definida gera discussão desnecessária, retrabalho e desconfiança.

Outro ponto importante é que a fórmula não vive sozinha. Ela precisa vir acompanhada da definição de fonte de dados. Em outras palavras: de onde saem as informações que alimentam o indicador? Se ninguém souber isso com segurança, o indicador pode até parecer bonito no relatório, mas não será confiável. Guias metodológicos brasileiros tratam a confiabilidade da fonte como parte essencial da qualidade do indicador, porque medir mal é quase tão ruim quanto não medir nada.

Depois da fórmula, entra a meta. A meta é o ponto de referência que permite dizer se o resultado está bom, ruim ou apenas

estável. Sem meta, o indicador existe, mas fica mudo. Imagine que uma equipe descubra que seu tempo médio de resposta ao cliente é de 6 horas. Esse número é bom ou ruim? Sozinho, não dá para saber. Tudo depende do que a equipe pretende alcançar, do histórico anterior e do contexto da operação. A meta ajuda exatamente nisso: ela dá sentido ao número. Ela responde à pergunta “onde queremos chegar?”. Os materiais da administração pública brasileira tratam a meta como um valor de referência que orienta o acompanhamento do desempenho e ajuda a comparar resultado esperado e resultado obtido.

Mas aqui existe um erro clássico: criar metas irreais, genéricas ou apenas “bonitas no papel”. Isso é mais comum do que deveria. Às vezes a equipe define uma meta extremamente agressiva sem olhar para a própria realidade. Em outros casos, cria uma meta tão frouxa que praticamente já nasce cumprida. Nos dois cenários, o indicador perde valor. Meta boa não é a mais dura nem a mais confortável. Meta boa é a que desafia sem romper a lógica da operação. Ela precisa ser clara, plausível e relevante. Os referenciais sobre desempenho recomendam exatamente isso: metas precisam ser consistentes com os objetivos, com a capacidade de entrega da equipe e com os dados disponíveis para acompanhamento.

Vamos imaginar uma equipe de suporte ao aluno. Hoje, o tempo médio de resposta é de 18 horas. Definir uma meta de 2 horas para o próximo mês pode parecer ambicioso, mas talvez seja irresponsável se a equipe não tiver estrutura para isso. Por outro lado, fixar a meta em 17 horas também não gera mudança relevante. Uma meta mais inteligente poderia ser reduzir de 18 para 10 horas em dois meses, acompanhando o efeito das melhorias no processo. Repare: a meta precisa ter força para mobilizar, mas também precisa respeitar a realidade. Sem esse equilíbrio, ela vira fonte de frustração ou formalidade vazia.

Além da fórmula e da meta, existe um terceiro elemento decisivo: a periodicidade. Esse nome parece técnico, mas a ideia é simples. Periodicidade é a frequência com que o indicador será acompanhado: diariamente, semanalmente, quinzenalmente, mensalmente, trimestralmente e assim por diante. E esse detalhe faz mais diferença do que parece. Se a equipe acompanha um indicador com frequência inadequada, pode agir tarde demais ou, no extremo oposto, entrar em ansiedade desnecessária por variações pequenas e normais.

Um erro comum é achar que acompanhar mais vezes é sempre melhor. Não é. Alguns

indicadores fazem sentido no acompanhamento diário, principalmente em operações muito dinâmicas, como atendimento, produção ou logística. Outros funcionam melhor de forma semanal ou mensal, porque precisam de um intervalo maior para mostrar tendência. Indicadores como turnover, absenteísmo mais consolidado ou satisfação geral podem perder sentido se forem observados de forma apressada demais. Os guias metodológicos brasileiros destacam que a frequência de coleta e análise deve estar alinhada à natureza do fenômeno observado e ao uso gerencial do indicador.

Pense em um indicador como “taxa de retrabalho”. Se a equipe olhar para ele a cada hora, talvez enxergue oscilações sem importância. Mas, se observar semanalmente, pode perceber um padrão mais útil. Agora imagine “tempo médio de fila” em um setor de atendimento ao vivo. Nesse caso, esperar um mês para acompanhar seria tarde demais. Então a periodicidade não é detalhe burocrático. Ela define o ritmo com que a equipe observa a realidade e reage a ela.

Também é importante entender que fórmula, meta e periodicidade precisam conversar entre si. Não adianta construir uma fórmula excelente, mas acompanhar o indicador numa frequência que não combina com a dinâmica do processo. Também não adianta ter uma meta bem definida se os dados que alimentam o indicador são frágeis. Esses elementos formam um conjunto. Quando um falha, o restante perde força. É por isso que materiais técnicos sobre elaboração de indicadores costumam defender a descrição formal do indicador, incluindo nome, conceito, finalidade, fórmula de cálculo, unidade de medida, fonte, frequência de apuração e responsável.

Na vida real, essa descrição evita uma série de problemas. Evita que o indicador mude de significado no meio do caminho. Evita que um novo gestor interprete o número de outro jeito. Evita que a equipe discuta percepção quando deveria discutir resultado. E, principalmente, evita que o acompanhamento vire uma prática improvisada. Gestão boa não depende de adivinhação. Depende de critérios claros.

Vamos a um exemplo completo. Imagine um time de operações que quer melhorar a pontualidade das entregas. O indicador escolhido é taxa de entrega no prazo. A fórmula é: entregas realizadas no prazo dividido pelo total de entregas, multiplicado por 100. A meta é alcançar 95%. A periodicidade escolhida é semanal, porque isso permite identificar desvios com rapidez sem gerar ruído excessivo. A fonte de dados será o sistema logístico. Pronto.

Agora existe um indicador que a equipe entende, consegue calcular, sabe interpretar e pode usar para decidir. Se a taxa cair para 88%, o time sabe que precisa investigar causas. Se subir de forma consistente, sabe que as ações adotadas estão funcionando.

Agora compare isso com uma situação mal definida. O time diz apenas que quer “melhorar a entrega”. Sem fórmula, sem meta e sem periodicidade, qualquer conversa vira opinião. Um líder diz que melhorou porque sente menos reclamações. Outro diz que piorou porque houve atraso em um cliente importante. Um terceiro acha que está igual. Ninguém está mentindo, mas ninguém está analisando com base comum. É exatamente para evitar esse tipo de ruído que a estrutura do indicador precisa ser levada a sério.

Outro cuidado importante é não transformar o processo em burocracia desnecessária. Algumas equipes, quando descobrem a importância da boa definição, exageram. Criam fichas enormes, cheias de detalhes, para indicadores que nunca serão realmente usados. Isso também é erro. O ponto não é complicar. O ponto é dar clareza suficiente para que o indicador funcione. Se a equipe é pequena, uma descrição simples e bem feita já resolve muito. O essencial é que todos saibam o que está sendo medido, como, com base em quais dados, com que meta e com que frequência.

No fundo, definir fórmula, meta e periodicidade é um exercício de maturidade gerencial. É o momento em que a equipe para de falar de desempenho de forma genérica e começa a criar um acompanhamento mais sério, mais confiável e mais útil. Sem isso, o KPI vira um número frágil. Com isso, ele passa a ser uma ferramenta real de gestão.

Ao final desta aula, a ideia mais importante é esta: um indicador só ganha valor quando deixa de ser uma intenção vaga e passa a ter definição clara. A fórmula mostra como calcular. A meta mostra o que se espera. A periodicidade mostra quando acompanhar. Quando esses três elementos estão bem definidos, a equipe deixa de apenas olhar números e começa, de fato, a entender o próprio desempenho.

Referências bibliográficas

BAHIA, Leandro Oliveira. Guia referencial para construção e análise de indicadores. Brasília: Escola Nacional de Administração Pública, 2021.

BRASIL. Guia metodológico para indicadores. Brasília: Ministério do Planejamento, Desenvolvimento e Gestão, 2018.

BRASIL. Orientações para construção e implementação de indicadores. Brasília: Ministério da Economia, s.d.

BRASIL. Controladoria-Geral da União. Guia para elaboração

de indicadores de desempenho de processos. Brasília: CGU, 2020.

UCHÔA, Carlos Eduardo. Elaboração de indicadores de desempenho institucional. Brasília: Escola Nacional de Administração Pública, 2013.

 

Aula 3 — Como evitar indicadores inúteis

 

Quando uma equipe começa a usar indicadores, existe um erro muito comum que quase sempre aparece logo no início: a vontade de medir tudo. A intenção, em geral, é boa. A equipe quer controlar melhor a rotina, acompanhar resultados e tomar decisões mais conscientes. O problema é que, sem critério, essa vontade vira excesso. E excesso de indicador não melhora a gestão. Muitas vezes, só aumenta a confusão. Guias brasileiros sobre construção e análise de indicadores insistem justamente nisso: o indicador precisa expressar algo realmente importante para o resultado esperado e deve ser selecionado com cuidado, para não gerar custo de acompanhamento sem utilidade prática.

Um indicador inútil nem sempre é absurdo à primeira vista. Às vezes ele até parece inteligente, sofisticado ou “bem técnico”. Mas, no dia a dia, ele não ajuda ninguém a entender melhor o desempenho da equipe. Em outros casos, ele mede algo que até existe, mas não tem relação real com o que a equipe precisa melhorar. E há situações ainda piores: quando o indicador começa a empurrar a equipe para o comportamento errado. Esse ponto é sério. Um indicador mal escolhido não é apenas inútil; ele pode atrapalhar o trabalho. O próprio material metodológico do governo federal alerta para o risco de apropriação incorreta da ferramenta e para a necessidade de construir medidas que realmente expressem os resultados esperados.

Um dos primeiros sinais de que um KPI é ruim aparece quando ele mede esforço, mas não mede resultado. Imagine uma equipe que decide acompanhar apenas a quantidade de reuniões realizadas por semana. É um número? Sim. É fácil de contar? Sim. Mas ele diz, de fato, se a equipe está resolvendo melhor seus problemas, entregando melhor ou produzindo mais valor? Nem sempre. Fazer mais reuniões pode significar organização, mas também pode significar excesso de conversa e pouca solução. O mesmo vale para indicadores como número de e-mails enviados, quantidade de mensagens respondidas ou total de planilhas preenchidas. Esses dados podem até ter algum uso complementar, mas raramente deveriam ocupar o centro do acompanhamento da equipe. Os referenciais da ENAP e da CGU reforçam que o foco do indicador deve estar nos efeitos desejados e na utilidade

gerencial da informação.

Outro erro muito comum é escolher indicadores porque eles são fáceis de coletar, e não porque eles são importantes. Esse é um atalho perigoso. Muitas vezes o sistema já entrega alguns números prontos, e a equipe, por comodidade, transforma esses números em KPIs sem refletir se eles realmente ajudam a entender o desempenho. Só que disponibilidade de dado não é critério suficiente para escolha de indicador. O guia metodológico para indicadores do governo federal destaca que boas práticas de formulação e seleção dependem de relevância, confiabilidade e utilidade, não apenas de facilidade operacional.

Há também o caso dos indicadores vagos demais. São aqueles que soam bonitos, modernos e estratégicos, mas ninguém entende exatamente o que significam. Termos como “nível geral de excelência”, “índice ampliado de performance” ou “grau de eficiência integrada” podem até impressionar no papel, mas, se a equipe não souber explicar com clareza o que está sendo medido, como se calcula e o que fazer com o resultado, o indicador perde valor. A ENAP recomenda que os indicadores sejam descritos de forma a minimizar dúvidas na coleta e na interpretação dos resultados. Quando isso não acontece, o acompanhamento vira ruído.

Um indicador também se torna inútil quando não gera nenhuma decisão. Esse é um teste simples e poderoso. Se o número sobe ou desce e ninguém sabe o que fazer com isso, talvez ele não esteja servindo para muita coisa. Um dos materiais da ENAP afirma de forma bastante direta que indicadores apontam problemas, mas não os resolvem sozinhos; ainda assim, se um indicador oscila e ninguém toma providência, o melhor pode ser descartá-lo, porque a informação passa a gerar custo sem utilidade real. Isso é duro, mas é correto. Não faz sentido insistir em acompanhar um dado que não orienta nenhuma conversa útil.

Outro perigo está nos indicadores que estimulam comportamento distorcido. Esse é um dos erros mais importantes desta aula. Imagine uma equipe de atendimento que acompanha apenas a quantidade de chamados encerrados por dia. A tendência é que as pessoas passem a priorizar o fechamento rápido, mesmo quando o problema do cliente ainda não foi realmente resolvido. O volume sobe, o número parece ótimo, mas a qualidade do serviço piora. O indicador, nesse caso, não está apenas deixando de ajudar; ele está empurrando a equipe na direção errada. Guias de elaboração de indicadores alertam que a construção das medidas precisa considerar o

perigo está nos indicadores que estimulam comportamento distorcido. Esse é um dos erros mais importantes desta aula. Imagine uma equipe de atendimento que acompanha apenas a quantidade de chamados encerrados por dia. A tendência é que as pessoas passem a priorizar o fechamento rápido, mesmo quando o problema do cliente ainda não foi realmente resolvido. O volume sobe, o número parece ótimo, mas a qualidade do serviço piora. O indicador, nesse caso, não está apenas deixando de ajudar; ele está empurrando a equipe na direção errada. Guias de elaboração de indicadores alertam que a construção das medidas precisa considerar o contexto do processo e os efeitos produzidos pela forma de mensuração.

Esse tipo de distorção acontece porque nenhum indicador é neutro. O que a equipe escolhe medir passa uma mensagem clara sobre o que considera importante. Se mede só velocidade, as pessoas correm mais. Se mede só volume, produzem mais unidades. Se mede só custo, começam a cortar recursos. O problema é que quase todo resultado relevante depende de equilíbrio. Uma equipe precisa ser produtiva, mas também precisa manter qualidade. Precisa ser rápida, mas sem aumentar retrabalho. Precisa entregar mais, mas sem comprometer a experiência do usuário. Por isso, evitar indicadores inúteis também significa evitar indicadores cegos, que olham apenas um pedaço pequeno da realidade.

Há ainda um erro mais silencioso: continuar acompanhando um indicador que já perdeu sentido. Isso acontece bastante. Um KPI foi criado em determinado momento, ajudou durante um período, mas o processo mudou, a meta mudou ou a prioridade da equipe mudou. Mesmo assim, o indicador continua no painel apenas por hábito. Com o tempo, ele deixa de orientar decisão, mas permanece consumindo energia, atenção e tempo de atualização. Os materiais brasileiros sobre monitoramento deixam claro que os indicadores precisam ser acompanhados criticamente, porque seus atributos e sua utilidade podem não se manter ao longo do tempo.

Então, como evitar indicadores inúteis? O primeiro passo é fazer uma pergunta muito simples antes de adotar qualquer KPI: esse indicador está ligado a um resultado que realmente importa? Se a resposta for fraca ou confusa, o indicador já nasce suspeito. O segundo passo é perguntar: ele ajuda a tomar alguma decisão? Se o número variar e nada mudar na prática, provavelmente ele não merece tanto espaço. O terceiro passo é verificar se ele pode gerar comportamento distorcido. Se a equipe

tentar melhorar esse indicador, que tipo de consequência pode aparecer? Essa pergunta evita muita dor de cabeça. Os referenciais da ENAP, da CGU e do governo federal convergem nesse ponto: indicador bom precisa ser relevante, confiável, mensurável e útil ao acompanhamento gerencial.

Também ajuda muito separar indicadores principais de indicadores complementares. Nem todo dado precisa virar KPI central. Às vezes a equipe tem um ou dois indicadores realmente estratégicos e alguns outros números de apoio, usados apenas para contextualizar a análise. Esse arranjo costuma funcionar melhor do que tentar transformar todo dado em prioridade. O material da ENAP sobre elaboração de indicadores inclusive chama atenção para o risco de excesso de indicadores e para a necessidade de selecionar os melhores para compor um sistema de medição coerente.

Outro cuidado importante é revisar os indicadores periodicamente. Não basta criar e esquecer. A equipe precisa olhar para eles e se perguntar, de tempos em tempos: ainda fazem sentido? continuam sendo compreendidos? ainda ajudam a decidir? ainda estão alinhados ao objetivo atual? Essa revisão não é sinal de erro. É sinal de maturidade. Indicador bom não é o que dura para sempre. É o que serve bem enquanto a equipe precisa dele. O monitoramento contínuo dos atributos do indicador, como validade, confiabilidade e mensurabilidade, é recomendado em materiais brasileiros sobre o tema.

No fundo, evitar indicadores inúteis é aprender a respeitar o tempo e a atenção da equipe. Toda vez que um número entra no painel, ele passa a disputar espaço mental, conversa de reunião e energia de acompanhamento. Por isso, ele precisa merecer esse espaço. Indicador não é decoração de gestão. É ferramenta. E ferramenta ruim atrapalha mais do que ajuda. Quando a equipe entende isso, passa a medir menos por impulso e mais por intenção. Essa mudança parece pequena, mas melhora muito a qualidade da gestão.

Ao final desta aula, a principal lição é simples: um indicador só vale a pena quando ajuda a enxergar melhor a realidade e apoiar uma ação melhor. Se ele mede o que não importa, se gera confusão, se não produz decisão ou se empurra a equipe para o comportamento errado, ele não está cumprindo sua função. Nesses casos, insistir nele é desperdício. Melhor ter poucos indicadores úteis do que muitos indicadores que só ocupam espaço.

Referências bibliográficas

BAHIA, Leandro Oliveira. Guia referencial para construção e análise de indicadores.

Brasília: Escola Nacional de Administração Pública, 2021.

BRASIL. Guia metodológico para indicadores. Brasília: Ministério do Planejamento, Desenvolvimento e Gestão, 2018.

BRASIL. Controladoria-Geral da União. Guia para elaboração de indicadores de desempenho de processos. Brasília: CGU, 2020.

UCHÔA, Carlos Eduardo. Elaboração de indicadores de desempenho institucional. Brasília: Escola Nacional de Administração Pública, 2013.

 

Estudo de caso — A equipe que quis medir tudo e quase perdeu o controle do que realmente importava

 

A empresa Horizonte Serviços estava vivendo um momento de crescimento. A demanda aumentava, novos clientes chegavam e a direção começou a cobrar mais organização da equipe de operações. A cobrança parecia justa: era preciso acompanhar melhor o desempenho para evitar atrasos, erros e desgaste interno. Então surgiu a decisão que, no papel, parecia excelente: criar indicadores para monitorar a equipe.

O problema é que a implementação começou da pior forma possível.

Na primeira reunião, o líder disse que a equipe precisava “ter mais controle”. Todos concordaram. Mas ninguém parou para responder a pergunta mais básica: controle de quê, exatamente? Sem essa clareza, a conversa virou uma chuva de sugestões soltas. Uma pessoa queria medir quantidade de tarefas concluídas. Outra queria medir quantidade de e-mails respondidos. Outra achava importante medir número de reuniões feitas. Teve até quem sugerisse medir quantas vezes o sistema era acessado por dia. Em menos de uma hora, a equipe tinha criado uma lista enorme de números para acompanhar. Parecia profissional. Na prática, era bagunça disfarçada de gestão.

O primeiro erro foi esse: a equipe começou pelos números, e não pelo resultado que queria melhorar. Em vez de perguntar “qual problema mais atrapalha nosso desempenho hoje?”, começou perguntando “o que dá para medir?”. Isso inverteu toda a lógica.

No mês seguinte, a empresa já tinha um painel cheio de indicadores. O problema é que quase ninguém sabia explicar por que aqueles números estavam ali. O time acompanhava volume de tarefas concluídas, total de ligações feitas, número de mensagens internas trocadas, quantidade de planilhas atualizadas e tempo médio de login no sistema. Era tanta informação que, em vez de clareza, surgiu cansaço. As reuniões ficaram mais longas, mais confusas e menos úteis. Todo mundo via os números, mas ninguém conseguia dizer com segurança o que realmente estava melhorando.

A situação começou a

ficar mais séria quando apareceu um efeito colateral clássico: os indicadores começaram a moldar o comportamento da equipe de forma errada. Como o número mais cobrado era “quantidade de tarefas concluídas”, muita gente passou a priorizar tarefas menores e mais rápidas só para aumentar o volume final do dia. O painel mostrava crescimento de produtividade. Mas, nos bastidores, os problemas importantes continuavam parados. As tarefas mais complexas eram adiadas porque “estragavam o número”. Ou seja, o indicador estava incentivando exatamente o comportamento errado.

Ao mesmo tempo, outro KPI acompanhava o “tempo médio de atendimento das demandas”. A intenção parecia boa: acelerar a operação. Só que, na prática, a equipe começou a encurtar processos sem o cuidado necessário. Resultado: o tempo caiu, mas o retrabalho subiu. Alguns clientes precisavam pedir correções, e certas entregas voltavam com erro. A empresa tinha conseguido ficar mais rápida no papel e pior na realidade.

Foi aí que a coordenação percebeu que não estava faltando esforço. Estava faltando critério.

A primeira mudança foi parar de olhar para o painel como se todo número tivesse o mesmo valor. A liderança reuniu a equipe e fez uma pergunta muito mais inteligente: qual é o principal resultado que esta área precisa entregar bem? Depois de bastante conversa, a resposta ficou clara: a prioridade não era fazer mais tarefas nem parecer mais veloz. A prioridade era entregar demandas com qualidade e dentro do prazo.

Essa definição mudou tudo.

Com o resultado principal finalmente claro, a equipe conseguiu reorganizar a lógica dos indicadores. Em vez de acompanhar qualquer dado disponível, passou a escolher indicadores diretamente ligados a esse resultado. Foram definidos três KPIs principais: percentual de entregas no prazo, índice de retrabalho e tempo médio de conclusão por tipo de demanda. Agora sim fazia sentido. O primeiro mostrava se os prazos estavam sendo cumpridos. O segundo mostrava se a qualidade estava se sustentando. O terceiro ajudava a entender a eficiência sem ignorar a complexidade do trabalho.

Mas o acerto não parou aí. A equipe também percebeu que não bastava escolher o indicador; era preciso defini-lo direito. Antes, cada pessoa entendia os números de um jeito. Então passaram a formalizar melhor cada KPI. Para cada indicador, registraram nome, objetivo, fórmula, fonte dos dados, responsável pelo acompanhamento, meta e periodicidade.

Esse passo resolveu um segundo erro comum do

passo resolveu um segundo erro comum do módulo 2: indicador sem definição clara. Antes, por exemplo, “tarefas concluídas” incluía qualquer atividade, de qualquer tamanho, sem distinção. Agora, o time entendia exatamente o que cada indicador media e como era calculado. Isso reduziu ruído, discussão desnecessária e interpretação torta.

Depois veio a revisão das metas. E aqui apareceu outro erro que estava atrapalhando tudo: algumas metas eram irreais, outras não serviam para nada. O indicador de prazo, por exemplo, estava com meta de 100% das entregas no prazo. Na teoria, parecia ótimo. Na prática, gerava pressão artificial e escondia a complexidade real da operação. A equipe substituiu essa meta por algo mais consistente e alcançável, sem ser frouxo. O objetivo passou a ser atingir 95% de entregas no prazo em três meses, com redução gradual do retrabalho. Isso deu mais seriedade ao acompanhamento.

Também ajustaram a periodicidade. Antes, alguns indicadores eram discutidos todos os dias, o que gerava ansiedade e reação exagerada a pequenas oscilações. Outros eram vistos com tanta demora que já não serviam para corrigir nada. Depois da revisão, a equipe decidiu acompanhar prazo e volume semanalmente, e retrabalho quinzenalmente, para ter leitura mais estável. Isso trouxe ritmo e maturidade para a análise.

Com o novo modelo, as reuniões mudaram completamente. Antes, o encontro era um desfile de números sem direção. Agora, a conversa tinha foco. Quando o percentual de entregas no prazo caía, a equipe investigava causas concretas. Quando o retrabalho subia, analisava em que etapa os erros estavam nascendo. Quando o tempo médio aumentava, verificava se isso vinha de maior complexidade das demandas ou de gargalos internos. O indicador deixou de ser um enfeite de reunião e virou ferramenta de decisão.

O mais interessante é que o desempenho real começou a melhorar justamente quando a equipe reduziu a quantidade de números e aumentou a qualidade do acompanhamento. Em dois meses, o índice de retrabalho caiu. Em três meses, a taxa de entrega no prazo melhorou. E, talvez mais importante que isso, a equipe passou a entender melhor o próprio trabalho. As pessoas deixaram de correr atrás de volume cego e passaram a enxergar o que realmente fazia diferença no resultado final.

Erros comuns mostrados no caso

O primeiro erro foi escolher o que medir com base no que era fácil contar, e não no que era importante acompanhar. Esse é um erro clássico. Dado disponível não é

automaticamente KPI útil.

O segundo erro foi tentar medir tudo ao mesmo tempo. O resultado foi excesso de informação, perda de foco e reuniões improdutivas.

O terceiro erro foi adotar indicadores que premiavam comportamento distorcido. Quando a equipe passou a ser cobrada por quantidade de tarefas concluídas, começou a privilegiar tarefas rápidas em vez das mais importantes.

O quarto erro foi usar indicadores sem definição clara. Sem fórmula, sem critério e sem fonte bem definida, cada número virava interpretação.

O quinto erro foi estabelecer metas ruins. Algumas eram irreais, outras frouxas. Em ambos os casos, o acompanhamento perdia valor.

O sexto erro foi definir periodicidade sem lógica. Acompanhar tudo o tempo todo gera ansiedade; acompanhar tarde demais impede correção de rota.

Como evitar esses erros

A forma correta de construir indicadores é muito mais simples do que parece, mas exige disciplina. Primeiro, a equipe precisa definir com clareza o resultado que deseja melhorar. Depois, precisa escolher poucos indicadores realmente ligados a esse resultado. Em seguida, deve definir cada KPI com precisão: fórmula, fonte, meta, responsável e periodicidade. E, por fim, precisa revisar se o indicador está ajudando a decidir ou apenas ocupando espaço.

Também é essencial fazer uma pergunta incômoda, mas necessária: se a equipe tentar melhorar esse indicador, que comportamento isso vai incentivar? Essa pergunta evita muitos desastres. Um KPI aparentemente bom pode ser péssimo se empurrar o time para atalhos, pressa burra ou priorização errada.

Lição principal do estudo de caso

O módulo 2 ensina uma verdade que muita gente ignora: não basta criar indicadores; é preciso construí-los com lógica. Indicador bom nasce do resultado desejado, tem definição clara, meta realista, frequência adequada e utilidade prática. Quando isso não acontece, a equipe não ganha controle. Ganha ruído.

No caso da Horizonte Serviços, a virada aconteceu quando a equipe parou de medir por impulso e começou a medir com intenção. Esse é o centro do módulo 2: escolher melhor, definir melhor e acompanhar melhor.

Reflexão final

Vale a pena olhar para a realidade de qualquer equipe e perguntar:
Os indicadores atuais mostram o que realmente importa?
As metas fazem sentido ou são só números jogados?
A periodicidade ajuda na gestão ou só gera estresse?
Os KPIs incentivam o comportamento certo ou o comportamento mais conveniente?

Se essas respostas forem fracas, o problema não está

necessariamente nas pessoas. Muitas vezes, está no modelo de acompanhamento que foi mal construído.

Quer acesso gratuito a mais materiais como este?

Acesse materiais, apostilas e vídeos em mais de 3000 cursos, tudo isso gratuitamente!

Matricule-se Agora