INTRODUÇÃO
AO USO DO CHATGPT EM NEGÓCIOS
Módulo 1 — Começando do jeito certo: o que
é, o que não é e como evitar erros básicos
Aula 1.1 — ChatGPT no trabalho:
expectativas realistas
Quando alguém começa a usar o ChatGPT no
trabalho, a primeira tentação é tratá-lo como se fosse uma pessoa muito
inteligente do time: “ele sabe”, “ele entende”, “ele vai decidir comigo”. E é
aí que a maioria se frustra — ou pior, se coloca em risco. O ChatGPT é
excelente para organizar pensamento, acelerar rascunhos e aumentar a
produtividade em tarefas de linguagem, mas ele não é um “oráculo” e não
deve ser usado como “fonte da verdade” sem verificação. A mentalidade certa,
para iniciantes, é simples: pense nele como um copiloto. Ele ajuda a
você ir mais rápido e mais longe, mas quem está no controle (e responde pelo
resultado) é você.
Na prática, isso significa trocar a
pergunta “ele está certo?” por duas perguntas mais úteis: “isso faz sentido
no meu contexto?” e “como eu verifico o que importa?”. Um dos erros
mais comuns no uso de modelos de linguagem é confiar em respostas bem escritas
como se fossem necessariamente corretas. Existe um fenômeno conhecido como “alucinação”
(o modelo pode produzir informação falsa ou não confirmada com aparência
convincente). É por isso que, no ambiente de negócios, o uso mais seguro para
iniciantes é começar pelo que o ChatGPT faz melhor: estruturar, reescrever,
resumir, listar opções, sugerir perguntas, criar variações de tom e formato.
São tarefas em que você consegue checar rapidamente se o resultado “bate” com a
realidade.
Outro ponto essencial é entender que o
ChatGPT não “adivinha” o que você quer. Ele responde com base no texto que você
fornece. Se você pede “me ajude a escrever um e-mail para um cliente” sem
contexto, ele vai entregar um e-mail genérico — e o problema não é a
ferramenta; é o pedido. Quanto mais você conseguir explicar quem é o
público, qual é o objetivo, qual é o tom, quais são as restrições e o que não
pode ser dito, melhor fica a saída. Para iniciantes, essa é a virada de
chave: você não está “pedindo um milagre”; você está delegando uma etapa do
trabalho (um rascunho, uma estrutura, um resumo) com critérios claros.
Agora, a parte que muita gente ignora e que derruba projetos: responsabilidade e transparência. Em negócios, você não pode tratar o texto gerado como se fosse automaticamente “pronto para enviar”. Há riscos de ruído com cliente, promessas indevidas, omissões importantes e até
inconsistências com políticas internas. Além disso, existe um
cuidado simples que evita confusão e problemas de reputação: não apresentar
como humano algo que foi gerado por IA sem deixar isso claro, quando a situação
exigir transparência. Os termos de uso da OpenAI trazem orientações que vão
nessa linha, reforçando que a responsabilidade de uso é do usuário e que
existem limites e regras para evitar uso enganoso ou inadequado.
Para deixar isso didático, pense em três
“zonas” de uso no dia a dia. Na zona verde, ficam tarefas de baixo
risco: reescrever um e-mail, ajustar tom, criar um resumo de uma ata, listar
ideias para uma campanha, organizar um passo a passo de processo já conhecido,
criar uma checklist de verificação. Na zona amarela, ficam tarefas que
exigem validação ativa: comparar opções de estratégia, sugerir respostas para
objeções comerciais, montar um texto com dados (porque dados podem estar
errados), criar recomendações com números, escrever comunicados sensíveis. E na
zona vermelha, ficam usos que você não deve fazer desse jeito: colocar
dados confidenciais, pedir para “inventar” evidências, produzir conteúdo que
pareça um parecer jurídico/contábil “final”, ou usar a resposta como base para
decisão crítica sem revisão.
Uma maneira humana de explicar isso para
iniciantes é: o ChatGPT é ótimo em linguagem e fraco em garantia.
Ele escreve bem, mas não promete estar certo. Então o seu processo de trabalho
precisa incluir uma etapa curta de controle de qualidade. Algo como: “Ok, tenho
um rascunho. Agora eu vou: (1) checar fatos, (2) remover promessas, (3) adaptar
para a realidade do cliente, (4) garantir que o tom é o meu.” Esse hábito
separa o uso profissional do uso ingênuo.
É por isso que empresas que obtiveram resultado real com IA tendem a colocar o ChatGPT em papéis que amplificam o humano, em vez de “substituir pensamento”. Em atendimento, por exemplo, a ferramenta pode ajudar a reduzir tempo de resposta quando existe um processo e limites claros. A Klarna divulgou que seu assistente de IA lidou com grande parte dos chats de atendimento em seu primeiro mês, com ganhos de eficiência — mas o valor está justamente em tratar a IA como parte do fluxo, não como “verdade absoluta”.
No fim das contas, a expectativa realista para iniciantes é esta: você vai usar o ChatGPT para fazer melhor e mais rápido aquilo que você já sabe fazer, principalmente nas etapas de rascunho, organização e comunicação. E você vai criar um hábito de revisão curta
para evitar erros “bonitos”, mas perigosos. O ganho de produtividade vem menos do “texto perfeito” e mais do método: pedir bem, iterar, revisar e publicar com responsabilidade. Se você fizer isso, o ChatGPT vira uma ferramenta que reduz atrito — e não um risco escondido no seu processo.
Referências bibliográficas
Módulo 1 – Aula 1.2: O prompt básico que
funciona (e por que ele funciona)
Se você já abriu o ChatGPT e escreveu algo
como “faz um e-mail para um cliente” e recebeu um texto bonitinho, mas
genérico, você acabou de descobrir a regra número um desta aula: o ChatGPT
não lê sua mente. Ele trabalha com o que você coloca na conversa. Quando o
pedido vem vazio, ele preenche as lacunas com “padrões” — e padrão, em
negócios, costuma significar: sem a sua voz, sem o seu contexto e, às vezes,
com riscos escondidos (promessas indevidas, tom errado, detalhes inventados). A
boa notícia é que isso não é um problema “da ferramenta”; é um problema de
instrução. E instrução dá para aprender.
A maioria das pessoas acham que “prompt
bom” é um texto longo e cheio de firula. Não é. Um prompt bom é um briefing
curto e claro, como você faria com um colega competente que precisa
entregar algo ainda hoje. Na prática, você quer dar quatro coisas: Contexto,
Tarefa, Formato e Critérios. Quando essas peças aparecem, a qualidade sobe
de forma previsível, porque o modelo consegue seguir instruções de maneira mais
literal e consistente quando você é específico. Essa orientação aparece nas
próprias recomendações da OpenAI: ser claro, específico e dar contexto/exemplos
melhora muito o resultado.
Vamos traduzir isso para o jeito humano de trabalhar. Imagine que você pede para alguém do seu time: “faz um relatório”. A pessoa vai responder: “de quê? para quem? com qual objetivo? em que formato? com quais dados?”. O prompt básico bem feito já embute essas respostas. E isso vale para qualquer tarefa: e-mail, proposta, resumo de
reunião, texto de
anúncio, roteiro de atendimento, FAQ, política interna. Em vez de “faz X”, você
faz um pedido que contenha: quem você é, o que você quer, como
deve vir a entrega e o que é proibido ou obrigatório.
Um modelo simples (que funciona muito bem
para iniciantes) é este, em linguagem natural mesmo:
1) Contexto:
quem é você, qual é o cenário e quem vai ler.
2) Tarefa: o que exatamente você quer que seja produzido.
3) Formato: como você quer receber (tópicos, tabela, passo a passo,
e-mail curto).
4) Critérios: tom, tamanho, restrições, informações que não podem
faltar, palavras que devem ser evitadas.
Perceba que isso não é “mágica de IA”. É o
básico do mundo real: briefing. A diferença é que, com o ChatGPT, se
você não fizer briefing, ele não tem como buscar o que você não deu. As
orientações da OpenAI e da Microsoft para construção de prompts seguem essa
linha: especificar contexto, instrução clara, formato e restrições tende a
reduzir ambiguidade e melhorar consistência.
Agora vem a parte que muda o jogo: critério
é mais importante que criatividade. Um prompt com critério diz o que é
“bom” e o que é “ruim”. Por exemplo: “tom direto, sem jargão, sem prometer
prazo, no máximo 120 palavras, incluir próximos passos”. Isso é ouro, porque
faz o ChatGPT parar de “enfeitar” e começar a obedecer. E quando você precisa
de algo mais confiável (menos “textão”), o formato ajuda muito: pedir tabela,
checklist, ou bullets força a resposta a ficar mais objetiva.
Vamos a um exemplo bem comum no trabalho:
e-mail de follow-up para cliente.
Em vez de:
“Escreva um e-mail para o cliente.”
Você pode usar algo assim (curto, mas
completo):
“Sou analista comercial. Preciso enviar um follow-up para um cliente que pediu
proposta na semana passada e ainda não respondeu. O objetivo é retomar a
conversa sem ser insistente. Escreva um e-mail com: (1) saudação, (2) lembrete
objetivo do que foi enviado, (3) uma pergunta simples para avançar, (4)
fechamento cordial. Tom: profissional e humano, sem pressão. Máx. 120 palavras.
Evite frases genéricas como ‘espero que esteja bem’.”
Repare como você “amarrou” a resposta:
contexto (analista), situação (proposta enviada), objetivo (retomar), formato
(quatro partes), critérios (tom, tamanho, o que evitar). O resultado tende a
ficar melhor não porque o modelo ficou “mais inteligente”, mas porque você
deixou menos espaço para ele inventar um caminho.
Outro uso prático, muito frequente, é resumo de reunião. Aqui entra um detalhe
que iniciantes ignoram: o ChatGPT é
excelente em organizar texto, mas você precisa entregar a matéria-prima. Você
cola as anotações (ou os pontos principais) e pede um resumo com decisões e
próximos passos. Se você não tiver as anotações, ele vai “criar” um resumo do
nada — e aí você mesmo plantou a semente do erro. Uma forma segura de pedir é:
“Vou colar abaixo minhas anotações de uma
reunião. Transforme em uma ata objetiva com: decisões, pendências, responsáveis
e prazos (se existirem nas notas). Se algum dado não estiver presente, marque
como ‘não informado’ em vez de inventar.”
Esse tipo de instrução (“se não souber,
diga que não sabe”) é uma prática simples que reduz alucinações e deixa a
resposta mais confiável. E isso conversa com uma preocupação maior de risco em
IA generativa: gerenciar confiabilidade e reduzir erros no uso real,
tema que aparece em materiais de gestão de risco como os do NIST.
Uma terceira peça importante desta aula é
aprender a iterar sem se perder. Muita gente acha que precisa acertar o
prompt perfeito de primeira. Não precisa. Pense como uma conversa de trabalho:
você pede uma versão 1, dá feedback, pede ajustes. O segredo é dar feedback do
tipo certo. Em vez de “ficou ruim”, diga o que deve mudar: “encurte”, “tire
adjetivos”, “mais direto”, “inclua um exemplo”, “troque o tom para mais
consultivo”, “remova qualquer promessa”, “crie três opções e recomende a
melhor”. Essa prática de refinar instruções é coerente com as recomendações
oficiais de prompting: clareza, decomposição e exemplos tornam o comportamento
mais previsível.
Também vale entender um conceito simples: papéis.
Em várias orientações técnicas, aparece a ideia de separar “instruções gerais”
(tom, estilo, função) de “tarefa específica” (o que fazer agora). Em sala, você
pode ensinar isso sem tecnicismo: “primeiro eu digo quem você vai ser nesta
tarefa; depois eu digo o que você vai fazer”. A própria documentação de
prompting da OpenAI recomenda colocar orientações gerais de tom/função em um
bloco de instruções e manter detalhes da tarefa e exemplos de forma organizada.
Para fechar, vamos transformar a aula em
habilidade. Um iniciante não precisa decorar teoria; precisa sair com um
“jeito” de pedir. Então, a regra prática desta aula é:
· Se a resposta veio genérica, faltou
contexto.
· Se a resposta veio longa demais,
faltou limite e formato.
· Se a resposta veio “bonita” mas
arriscada, faltou critério e aviso de não inventar.
· Se a resposta veio
a resposta veio errada, você
precisa dar dados e mandar apontar lacunas.
Você vai notar que, em negócios, o melhor uso do ChatGPT não é “me dê a resposta final”, e sim “me ajude a construir um rascunho bom e revisável”. Quando você domina esse prompt básico, o ChatGPT vira uma ferramenta de trabalho de verdade: acelera o que já é seu, sem tomar o controle do que não deveria.
Referências bibliográficas
· OPENAI. Guia de prompting (documentação
e guias oficiais de prompting da OpenAI). OpenAI, versão consultada em 26
fev. 2026.
· OPENAI. Guia de prompting do Cookbook
(boas práticas de instruções claras, contexto, exemplos e estrutura de prompt).
OpenAI, versão consultada em 26 fev. 2026.
· MICROSOFT. Técnicas de engenharia de
prompts (Azure OpenAI / Microsoft Learn). Microsoft, versão consultada em
26 fev. 2026.
· NIST – Instituto Nacional de Padrões e
Tecnologia (EUA). Perfil de IA generativa para o Gerenciamento de Riscos em
IA (NIST AI 600-1). NIST, versão consultada em 26 fev. 2026.
Aula 1.3 — Segurança e ética no básico: o
que não colocar no chat + revisão humana
Quando falamos em “usar ChatGPT no
trabalho”, é fácil cair numa conversa meio abstrata sobre tecnologia. Só que,
na prática, a aula 1.3 é sobre uma coisa bem concreta: você está lidando com
informação. E informação, em negócios, tem dono, tem contexto, tem risco e,
muitas vezes, tem dados pessoais. Então, antes de você “aprender mais
prompts”, você precisa aprender a regra que evita a maior parte das dores de
cabeça: nem tudo que é útil para você escrever é apropriado para você enviar
para uma IA. Isso vale especialmente quando você está com pressa — porque
pressa é o cenário perfeito para mandar sem pensar aquilo que não deveria ter
saído do seu computador.
Vamos começar pelo que mais derruba iniciantes: a ideia de que “se eu não estou colocando uma senha, está tudo bem”. Não é assim. Há um universo de informações que, mesmo sem parecer “segredo”, pode causar problema: nome completo de cliente, telefone, e-mail, CPF, endereço, número de contrato, valores de proposta, detalhes de negociação, informações internas de processo, dados de funcionários, reclamações de atendimento, prints de sistema, relatórios. Pela LGPD, dado pessoal é qualquer informação relacionada a pessoa natural identificada ou identificável — ou seja, “não precisa ser CPF” para virar dado pessoal. A lei se aplica a tratamento de dados pessoais por pessoa física ou jurídica, inclusive nos meios digitais.
é
qualquer informação relacionada a pessoa natural identificada ou identificável
— ou seja, “não precisa ser CPF” para virar dado pessoal. A lei se aplica a
tratamento de dados pessoais por pessoa física ou jurídica, inclusive nos meios
digitais.
Aqui entra a pergunta que todo mundo
deveria fazer antes de colar qualquer coisa no chat: “Se isso vazasse, daria
problema?” Se a resposta for “sim” ou “talvez”, você não cola. Você anonimiza.
E anonimizar não é só trocar o nome da pessoa por “Cliente X” e deixar o resto
inteiro. É remover ou generalizar o que identifica: cidade, cargo muito
específico, números de pedido, datas exatas, valores raros, links internos,
nomes de sistemas, qualquer coisa que permita identificar. A forma didática de
ensinar isso é como se você estivesse preparando um caso para uma sala de aula:
o objetivo é manter a essência do problema, não a identidade das pessoas.
Um jeito simples (e muito prático) de
anonimizar é criar uma “versão limpa” do texto antes de pedir ajuda. Por
exemplo, em atendimento: em vez de colar a conversa inteira, você pode
reescrever assim: “Cliente pessoa física, produto X, reclamação sobre prazo,
tom irritado, quer cancelamento. Quero uma resposta empática, objetiva,
oferecendo solução dentro da política.” Você preserva o contexto necessário e
tira o que não precisa estar ali. Isso é maturidade profissional: não é
paranoia, é higiene de informação.
A segunda armadilha é ética, mas também é
reputacional e comercial: usar o ChatGPT para escrever algo que você não
revisa e que sai com a sua assinatura. O problema não é “usar IA”; o
problema é terceirizar responsabilidade. A ferramenta pode escrever um
texto que parece excelente e ainda assim estar errado, exagerado, prometendo
demais ou omisso. E em negócios, texto não é só “texto”: ele vira compromisso,
evidência, expectativa. É por isso que, nesta aula, a revisão humana não é um
detalhe — é o núcleo. Você precisa adotar um hábito rápido de revisão: checar
fatos, remover qualquer promessa que você não pode cumprir, ajustar tom e
garantir que o texto representa o que a empresa realmente faz.
Nessa mesma linha, existe um cuidado que muita gente ignora: não enganar o leitor. Dependendo do contexto, apresentar um texto como “totalmente humano” quando foi gerado por IA pode gerar desconfiança e desgaste (principalmente em documentos sensíveis, comunicação institucional e materiais com responsabilidade técnica). Os próprios termos de uso da OpenAI apontam limites
ependendo do contexto,
apresentar um texto como “totalmente humano” quando foi gerado por IA pode
gerar desconfiança e desgaste (principalmente em documentos sensíveis,
comunicação institucional e materiais com responsabilidade técnica). Os
próprios termos de uso da OpenAI apontam limites e proíbem usos enganosos e
condutas que causem dano ou violem regras. O objetivo aqui não é transformar
tudo em um aviso gigante de IA — é ensinar bom senso: se a situação exige
transparência, seja transparente; e, em qualquer caso, assuma que você é o
autor responsável pela versão final.
Agora, vamos para um ponto que parece
“chato”, mas é onde nascem problemas legais de verdade: dados pessoais e
conformidade. Se você trabalha com leads, alunos, clientes ou
colaboradores, você provavelmente está lidando com dados pessoais o tempo todo.
A LGPD existe justamente para disciplinar esse tratamento, pedindo finalidade,
necessidade, segurança e respeito aos direitos do titular. Em uma aula
introdutória, o que o aluno precisa guardar é: “eu só uso dados pessoais quando
eu preciso; eu não espalho dados; eu protejo acesso; eu registro o mínimo; e eu
sei para que estou usando”. E se a pessoa está dentro de uma empresa, isso se
conecta com políticas internas e com o papel de controlador/operador — tema que
a ANPD trata em materiais orientativos.
Também é importante falar de ética de um
jeito realista: não é só “ser bonzinho”. Ética no uso de IA é, muitas vezes, não
usar a ferramenta como atalho para práticas ruins. Por exemplo: “invente
dados”, “crie evidências”, “escreva como se eu tivesse feito algo que eu não
fiz”, “faça um parecer jurídico final”. Isso é pedir para dar errado. O curso
deve ensinar que a IA é boa para rascunhar e organizar — e que decisões, pareceres
e comunicações de alto impacto precisam de validação, fonte e, quando necessário,
especialista.
E tem mais: mesmo quando você não está
lidando com dados sensíveis, você pode estar lidando com viés. Modelos
podem reforçar estereótipos, sugerir abordagens inadequadas ou produzir
linguagem que não combina com inclusão e diversidade. Em negócios, isso vira
risco de imagem e de cultura. A postura certa é: sempre que o texto for sobre
pessoas (seleção, feedback, reclamações, atendimento difícil), você pede ao
ChatGPT para apontar vieses potenciais e sugerir uma versão mais neutra e
respeitosa. Isso torna o uso mais seguro, mais humano e, ironicamente, mais
“profissional”.
Por fim, vale deixar um recado didático que
funciona muito bem com iniciantes: o ChatGPT é uma ferramenta de escrita e raciocínio assistido — não é um cofre e não é um juiz. Ele ajuda você a pensar e comunicar melhor, mas não substitui responsabilidade, políticas e bom senso. Se você ensinar duas coisas nesta aula e o aluno realmente internalizar, já valeu: (1) “não colo informações sensíveis; eu anonimizo”, e (2) “eu sempre reviso e assumo o texto final”. Isso reduz drasticamente risco e aumenta a qualidade do uso no dia a dia.
Referências bibliográficas
Estudo de caso do Módulo
1 — “A semana em que o ChatGPT quase virou problema”
Na segunda-feira de manhã, a Camila
(comercial) chega animada: “Agora vai. Vou usar ChatGPT pra acelerar tudo.” Ela
está atrasada com follow-ups, tem uma proposta grande parada e o gerente pediu
um e-mail “curto e firme” para destravar a negociação. Em cinco minutos ela
abre o ChatGPT e digita, sem pensar muito: “Escreva um e-mail para o cliente
cobrando retorno da proposta.” O texto vem pronto, educado, bonito… e
completamente genérico. Pior: inclui uma frase do tipo “garantimos entrega
em 7 dias” — coisa que a empresa não garante.
Camila quase envia assim mesmo. Não por
má-fé. Por pressa e porque o texto “parece profissional”. Esse é o Erro 1 do
módulo: confundir boa escrita com verdade. Modelos
generativos podem soar convincentes mesmo quando preenchem lacunas com
suposições. É um risco reconhecido em discussões de gestão de risco para IA
generativa, que tratam de falhas como conteúdo incorreto ou não confiável e a
necessidade de controles.
Ela respira e lembra do combinado da equipe: “IA é rascunho,
não é envio”. Volta para a conversa e faz do jeito
certo:
O resultado melhora na hora. Só essa mudança evita o vício mais comum: pedir “qualquer coisa” e receber “qualquer coisa”.
Terça-feira: o “prompt mágico” que virou
retrabalho
Na terça, o Rafael (marketing) quer
criar uma sequência de posts para uma campanha. Ele pede: “Crie 10 posts
para Instagram sobre nosso produto.” Sai uma lista enorme, cheia de frases
genéricas (“transforme sua rotina”, “soluções inovadoras”) e com promessas que
o produto não cumpre. A equipe ri, mas o problema é real: aquilo não serve e
ainda pode virar publicidade enganosa se for para o ar sem revisão.
O que faltou não foi “criatividade”.
Faltou briefing. Ele refaz com 6 linhas:
E adiciona uma frase que parece simples,
mas muda tudo:
“Se alguma informação estiver faltando, faça perguntas antes de escrever.”
O ChatGPT para e pergunta o que precisa
(provas, diferenciais, condições). A campanha sai mais enxuta e mais segura.
Lição da Aula 1.2:
prompt bom é “briefing de colega”, não ritual. Estruture: Contexto → Tarefa
→ Formato → Critérios.
Quarta-feira: o maior erro — colar coisa
que não deveria
Na quarta, explode um atendimento
complicado. A Juliana (suporte) quer responder um cliente irritado e,
para “ganhar tempo”, copia e cola a conversa inteira no chat: nome completo,
telefone, número do pedido, endereço, e um print do sistema com mais dados. Ela
não percebe, mas acabou de fazer o Erro 2 mais perigoso do módulo:
tratar o chat como se fosse um bloco de notas interno.
Mesmo sem entrar em detalhes técnicos, o
ponto é direto: dado pessoal é dado pessoal, e a LGPD define tratamento
de dados pessoais e se aplica ao ambiente digital.
Ou seja: “eu só queria ajuda para escrever” não é desculpa para expor
informação identificável.
A supervisora corta na hora e ensina o
procedimento que vira padrão da empresa:
1. Não
cole dados identificáveis.
2. Anonimize:
“Cliente A”, “Pedido B”, “Cidade X”.
3. Resuma
a situação em vez de colar tudo.
4.
Peça
resposta com limites: “sem admitir culpa, sem prometer exceção, oferecer
alternativas previstas na política”.
A Juliana refaz: “Cliente A está irritado
com prazo; quer cancelamento; política prevê X e Y; tom deve ser empático e
objetivo.” A resposta fica ótima e, mais importante, ela aprendeu o que
realmente vale: higiene de informação.
Lição da Aula 1.3: se “vazasse”, daria problema? Então não entra. Anonimize sempre.
Quinta-feira: o risco invisível — parecer
“curso oficial” e confundir marca
Na quinta, a equipe pedagógica (sim,
vocês) começa a desenhar a divulgação do curso e alguém sugere um banner: “Curso
Oficial ChatGPT” com um logo parecido e frases como “certificação”. Isso é
pedir para tomar notificação, reclamação e desgaste. Diretrizes de marca da
OpenAI existem justamente para evitar confusão de endosso e uso indevido de
marca.
O ajuste correto é simples e bem mais
seguro:
Lição extra (conecta com o módulo 1): transparência evita dor de cabeça. Você não precisa “parecer oficial” para vender bem; precisa parecer sério.
O que deu errado (e como evitar) — mapa do
Módulo 1
Erro comum 1: tratar o ChatGPT como “fonte
da verdade”.
Como evitar: use como copiloto; peça rascunhos; revise; peça para listar
dúvidas e suposições; valide fatos. Risco e necessidade de controles aparecem
em guias de gestão de risco de IA generativa.
Erro comum 2: pedir genérico e esperar
resposta específica.
Como evitar: sempre usar Contexto → Tarefa → Formato → Critérios.
Se faltar dado, mande o modelo perguntar antes de escrever.
Erro comum 3: colar dados
pessoais/confidenciais.
Como evitar: anonimização e resumo; LGPD se aplica ao tratamento de
dados pessoais em meios digitais.
Erro comum 4: divulgar como se fosse
“oficial” ou usar marca de forma confusa.
Como evitar: linguagem de independência e respeito às diretrizes de
marca.
Mini roteiro prático
Escolha uma situação real do trabalho e
aplique estas 3 perguntas:
1. Isso
tem dado pessoal ou informação sensível?
o Se
sim, anonimize antes. (LGPD)
2. Meu
pedido tem contexto suficiente?
o Se
não, escreva 4 linhas (Contexto/Tarefa/Formato/Critérios).
3. Eu
enviaria isso sem ler?
o Se a resposta for “sim”, você está usando errado. IA é rascunho.
Referências bibliográficas
Acesse materiais, apostilas e vídeos em mais de 3000 cursos, tudo isso gratuitamente!
Matricule-se AgoraAcesse materiais, apostilas e vídeos em mais de 3000 cursos, tudo isso gratuitamente!
Matricule-se Agora