INTRODUÇÃO AOS MODELOS DE LINGUAGEM DE LARGA ESCALA (LLM)
MÓDULO 2 — Como
conversar direito com LLM: prompt, contexto e qualidade
Aula 1 — Prompting
básico que funciona
Quando a gente começa a usar um LLM, a
tendência natural é falar com ele como se fosse uma pessoa muito inteligente e
muito rápida. E isso não está totalmente errado — o problema é que, se você
conversa de um jeito vago, ele responde de um jeito vago. Se você pede algo
pela metade, ele completa o resto do jeito que parecer mais provável. É por
isso que, nesta aula, a proposta é simples e prática: aprender a escrever
prompts que realmente funcionam, sem mágica e sem “frases secretas”. Um bom
prompt não é um encantamento; é só uma instrução bem-feita, com
contexto, objetivo e limites.
Pense no LLM como um assistente de escrita
que nunca viu sua empresa, seu projeto, seu público ou seu padrão de qualidade
— a não ser que você conte. Quando você diz apenas “faça um texto sobre X”, ele
vai pegar o que é mais comum sobre X e cuspir um texto genérico. Não é porque
ele é ruim; é porque você deu um pedido genérico. O modelo não tem como
adivinhar seu padrão de “bom”. Então, o primeiro passo para melhorar a
qualidade é tirar a conversa do campo do “adivinha aí” e levar para o campo do
“aqui está exatamente o que eu preciso”.
Um prompt eficiente costuma responder a
quatro perguntas: o que está acontecendo, o que eu quero, quais
são as regras e como eu quero receber. Em linguagem humana:
“contexto, objetivo, restrições e formato”. Você não precisa escrever isso como
um formulário rígido, mas precisa colocar essas peças de algum jeito. Se eu
digo: “Preciso de um e-mail”, falta quase tudo. E-mail para quem? Com qual tom?
Qual é o assunto? Qual é o objetivo? O que não pode ser dito? Qual tamanho? Sem
essas informações, o modelo vai inventar. Quando você coloca contexto e
limites, você reduz invenção, reduz retrabalho e aumenta consistência.
Vamos ver a diferença com um exemplo bem cotidiano. Prompt fraco: “Faça um comunicado sobre atrasos.” O LLM pode escrever algo elegante, mas pode soar frio, pode prometer coisas que você não pode cumprir, pode não mencionar o que é essencial. Agora um prompt melhor, mais realista: “Escreva um comunicado curto para alunos avisando que a aula ao vivo de hoje será remarcada por instabilidade técnica. Tom acolhedor, sem prometer ressarcimento, oferecendo novo horário e canal de suporte. Máximo 120 palavras.” Percebe a diferença? Você não “mandou ele escrever
melhor”; você explicou
o que é melhor no seu caso.
Outro ponto que muda o jogo é aprender a
pedir critério de qualidade. Muita gente pede “faça um texto persuasivo”
e depois fica frustrada porque o texto vem exagerado, cheio de promessa e
adjetivo. Uma forma mais madura de pedir é incluir critérios verificáveis. Por
exemplo: “Use linguagem simples, sem jargões, inclua 3 benefícios concretos,
evite promessas absolutas, finalize com uma chamada para ação discreta.” Isso
funciona porque você transformou “persuasivo” em coisas que dá para checar. E
isso é essencial: o LLM responde melhor quando você dá alvos claros, não
só adjetivos.
Também vale entender que, em prompt, menos
nem sempre é mais. Existe uma diferença entre ser conciso e ser incompleto. Ser
conciso é dar as informações necessárias sem enrolar. Ser incompleto é omitir o
que define o resultado. Em geral, o que mais pesa é: público-alvo, objetivo,
contexto e restrições. Se você colocar essas quatro coisas, a resposta já sobe
de nível. E se quiser subir mais um degrau, inclua exemplos. Exemplo é poderoso
porque o modelo aprende padrões. Se você dá um mini exemplo de “tom” ou de
“formato”, ele tende a seguir.
A propósito, exemplos têm um truque: não
precisam ser grandes. Às vezes um parágrafo curto já define tudo. Se você quer
respostas no estilo “professor humano e didático”, mostre dois ou três trechos
curtos do seu estilo. Se quer uma resposta em formato de checklist, mostre uma
checklist mini. Isso é melhor do que pedir “seja didático” e torcer para dar
certo. O modelo não lê sua mente; ele lê seu prompt.
Agora, vamos falar de um erro comum de
iniciante: tentar fazer tudo em um único prompt gigantesco. Você pede: “Crie um
curso completo com objetivos, ementa, slides, avaliação, posts de divulgação, e
ainda adapte para três públicos diferentes.” O LLM até responde, mas a chance
de vir superficial, contraditório ou genérico aumenta, porque ele precisa
manter muitas exigências ao mesmo tempo. Uma técnica melhor é quebrar o
trabalho em etapas: primeiro ele cria um esqueleto, depois você escolhe o
caminho, depois ele detalha aula por aula, depois ele revisa o tom e a
consistência. Prompt bom não é só “o texto do prompt”; é o processo de
conversar com o modelo para chegar num resultado sólido.
E tem um ponto que separa quem usa LLM com maturidade de quem só brinca: aprender a pedir o que você realmente precisa antes de pedir a resposta final. Em vez de “escreva o texto”, você pode pedir: “Faça 5
perguntas essenciais antes de escrever para evitar suposições.” Isso
evita que o modelo invente detalhes. Ou então: “Liste 3 abordagens possíveis e
me diga prós e contras de cada uma.” Assim você escolhe o rumo e só depois pede
a versão final. Parece mais lento, mas na prática é mais rápido, porque você reduz
retrabalho e aumenta a chance de acertar de primeira.
Para fechar a aula com algo bem prático,
guarde esta frase: prompt bom é aquele que reduz suposições. Se você
quer qualidade, não peça “seja bom”; dê contexto, regras e formato. Se você
quer segurança, force o modelo a dizer o que ele não sabe, a explicitar
suposições e a pedir dados que estão faltando. E se você quer consistência, dê
exemplos e critérios. É assim que você transforma um LLM de “gerador de texto
legal” em uma ferramenta realmente útil — do tipo que você confia para acelerar
trabalho, sem cair em armadilhas por causa de respostas bonitas.
Referências
bibliográficas (sem hiperlinks)
BROWN, Tom B. et al. Modelos de
linguagem são aprendizes de poucas amostras (Language Models are Few-Shot
Learners). Advances in Neural Information Processing Systems (NeurIPS),
2020.
JURAFSKY, Daniel; MARTIN, James H. Processamento
de Linguagem Natural: uma introdução (Speech and Language Processing). 3ª
ed. (rascunho/versão em evolução). 2023.
LIU, Pengfei et al. Pré-treinamento,
prompting e previsão: uma visão geral de métodos baseados em prompts em PLN
(Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in
Natural Language Processing). 2021.
REYNOLDS, Laria; McDONELL, Kyle. Prompt
Programming para Grandes Modelos de Linguagem: Além da Engenharia de Prompt
(Prompt Programming for Large Language Models: Beyond the Few-Shot Paradigm).
2021.
VASWANI, Ashish et al. Atenção é tudo o
que você precisa (Attention Is All You Need). Advances in Neural
Information Processing Systems (NeurIPS), 2017.
Aula
2 — Contexto, memória e “janela”: por que ele esquece coisas
Se na aula anterior você aprendeu a “falar melhor” com um LLM, nesta aula você vai entender por que, às vezes, mesmo com um bom prompt, ele se perde, contradiz o que disse antes ou “esquece” detalhes importantes. Isso não acontece porque o modelo é teimoso ou porque “não prestou atenção”. A explicação é mais simples — e mais útil: o LLM trabalha dentro de uma janela de contexto, como se estivesse lendo tudo o que está disponível na conversa naquele momento e, a partir disso, continuasse o texto. O que está dentro dessa
como se estivesse lendo tudo o que está
disponível na conversa naquele momento e, a partir disso, continuasse o texto.
O que está dentro dessa janela influencia o que ele consegue considerar; o que
está fora… praticamente deixa de existir para ele.
A melhor metáfora é pensar numa mesa de
trabalho. Você espalha papéis sobre a mesa e começa a escrever um relatório.
Você só consegue usar bem o que está visível e organizado ali. Se alguém
empilha os papéis no canto, ou tira alguns da mesa, você vai cometer erros,
porque não tem mais acesso àquelas informações. Com o LLM é parecido: ele “vê”
o que está no contexto atual e responde. Ele não tem uma memória humana
contínua que se sustenta sozinha; ele tem, no máximo, um histórico de texto que
é passado para ele como entrada — e isso tem limite.
Essa ideia de janela de contexto explica
por que conversas longas podem degradar. No começo, o modelo está com tudo
“fresco”: regras, objetivos, detalhes. Depois de muitas mensagens, o contexto
fica grande, aparecem tópicos paralelos, contradições, pequenas mudanças de
rumo. Em algum momento, parte do conteúdo inicial deixa de estar acessível (ou
fica “diluído” no meio de tanta coisa). A consequência é clássica: ele passa a
errar requisitos, confundir nomes, trocar datas, repetir instruções antigas ou
ignorar regras que você jurava que já estavam combinadas. Se você depende de
precisão e consistência, você precisa aprender a gerenciar contexto, não
só escrever prompts bonitos.
Aqui entra uma técnica simples e poderosa:
o recap (ou “recapitulação”). Funciona assim: de tempos em tempos, você
para a conversa e cria um bloco curto com o que realmente importa — regras,
objetivo, público, formato, restrições e qualquer dado essencial. É como dar ao
modelo uma “folha de briefing” atualizada. O ponto não é repetir tudo; é
selecionar o que é estrutural. E isso não é frescura: em trabalho real
(roteiro, curso, atendimento, planejamento), recap economiza horas de
retrabalho.
Por exemplo, imagine que você esteja criando um curso e, no meio do caminho, o modelo começa a sugerir aulas avançadas, cheio de termos técnicos e bibliografia complexa, quando a proposta era iniciante. Em vez de reclamar “você não está seguindo”, você injeta um recap: “Resumo do combinado: público iniciante, linguagem simples, exemplos do cotidiano, evitar matemática, cada módulo com estudo de caso, no máximo 3 tópicos por aula.” Muitas vezes, isso basta para “trazer de volta” a conversa para o trilho. Você
exemplo, imagine que você esteja
criando um curso e, no meio do caminho, o modelo começa a sugerir aulas
avançadas, cheio de termos técnicos e bibliografia complexa, quando a proposta
era iniciante. Em vez de reclamar “você não está seguindo”, você injeta um
recap: “Resumo do combinado: público iniciante, linguagem simples, exemplos do
cotidiano, evitar matemática, cada módulo com estudo de caso, no máximo 3
tópicos por aula.” Muitas vezes, isso basta para “trazer de volta” a conversa
para o trilho. Você está, na prática, reorganizando a mesa e colocando os
papéis essenciais à vista.
Outra estratégia que funciona muito bem é
separar “regras fixas” de “tarefas do momento”. Regras fixas são coisas como
tom, limites, formato, público, proibições (“não usar jargões”, “não prometer
resultados”, “não inventar fontes”). Tarefa do momento é o pedido atual
(“escreva a aula 2”, “crie uma atividade”, “revisar o texto”). Quando você
mistura tudo e vai empilhando instruções ao longo de 30 mensagens, o modelo
começa a falhar por excesso de carga. Quando você mantém um bloco curto de
regras fixas e depois pede tarefas específicas, o resultado fica mais
consistente e previsível.
A janela de contexto também explica um
fenômeno que irrita muita gente: o modelo “entra numa vibe” e não sai. Você
pede um texto formal, ele escreve formal. Depois você pede algo mais leve, e
ele continua formal. Não é birra: o contexto ainda está carregado com aquele
estilo. Por isso, às vezes, vale declarar explicitamente a mudança: “Agora mude
o tom para informal e curto, como mensagem de WhatsApp, no máximo 40 palavras.”
Você está alterando o “ambiente” de escrita. Se você só disser “faça mais leve”,
pode ser pouco.
E como fica o uso de documentos? Aqui o
detalhe é crucial: LLM não lê sua mente nem “adivinha” o conteúdo de um arquivo
que você não forneceu. Se você quer que ele trabalhe com um documento, você
precisa colocar o conteúdo no contexto — seja colando trechos, seja
resumindo e confirmando com ele, seja fornecendo pontos-chave. A melhor prática
para textos longos é trabalhar em camadas: primeiro você pede um resumo fiel do
trecho, depois confirma se o resumo está correto, e só então usa aquele resumo
como base para criar atividades, explicações e exemplos. Isso reduz um erro
clássico: o modelo inventar detalhes “para preencher” o que ele não recebeu.
Um cuidado adicional: quanto mais longa e desorganizada a informação que você joga no chat, maior a chance de ele se confundir.
Parece contraintuitivo, mas às vezes “dar tudo” atrapalha. O ideal é
fornecer o que é relevante e, quando necessário, orientar: “use somente as
informações do trecho abaixo”. Esse tipo de frase funciona como um limitador de
imaginação. Você está dizendo: “não extrapole”. Isso não garante perfeição, mas
diminui a chance de ele puxar conhecimento genérico e misturar com o seu material.
Agora vamos para um ponto prático que
parece pequeno, mas muda tudo: quando você precisa consistência, peça ao modelo
para criar e manter um dicionário de termos e um registro de decisões.
O dicionário é uma lista curta de como vocês vão chamar as coisas (ex.: “aluno”
e não “participante”, “aula” e não “lição”, “módulo” com 3 aulas). O registro
de decisões é um resumo do que já foi definido (estrutura do curso, carga
horária, tipo de avaliação, estilo do texto). Isso vira sua âncora. Quando o
modelo começar a variar termos ou mudar a estrutura, você aponta para o
dicionário e o registro — e ele volta a seguir o padrão. Sem isso, você acaba
revisando manualmente um monte de inconsistências que poderiam ser evitadas.
Há também uma diferença importante entre
“memória” no sentido humano e “memória” no sentido de produto. Algumas
ferramentas de chat têm recursos de memória e personalização, mas isso varia
por plataforma e não é algo em que você deve apostar para tarefas críticas. A
maneira mais segura de trabalhar é assumir que o que manda é o contexto
atual. Se é importante, precisa estar visível no prompt de algum modo. Se é
importante e recorrente, precisa estar no bloco de regras fixas ou no recap.
Essa postura é menos romântica, mas é profissional: você controla o processo,
em vez de depender de um comportamento que pode mudar de uma ferramenta para
outra.
Para fechar, aqui vai um checklist curto,
bem utilizável no dia a dia, para você não sofrer com esquecimento e
contradição:
1.
Conversa ficou longa? Faça um recap do combinado em 8–12 linhas.
2.
Mudou o estilo? Declare o novo tom e dê um micro exemplo.
3.
Vai usar documento? Cole o trecho relevante e diga “use apenas
isso”.
4.
Quer consistência? Crie dicionário de termos e registro de
decisões.
5.
Falta dado? Force o modelo a fazer perguntas antes de responder.
Quando você entende que o LLM é, em essência, um sistema que continua texto com base no que está disponível no contexto, você para de brigar com ele e começa a “dirigir” melhor. E dirigir bem não é falar mais bonito; é organizar
informação, reduzir suposições e manter o que importa sempre à vista. Isso é o que faz a ferramenta parecer “inteligente” de verdade no mundo real: não porque ela virou perfeita, mas porque você passou a trabalhar com ela do jeito certo.
Referências
bibliográficas
BROWN, Tom B. et al. Modelos de
linguagem são aprendizes de poucas amostras (Language Models are Few-Shot
Learners). Advances in Neural Information Processing Systems (NeurIPS),
2020.
JURAFSKY, Daniel; MARTIN, James H. Processamento
de Linguagem Natural: uma introdução (Speech and Language Processing). 3ª
ed. (rascunho/versão em evolução). 2023.
LIU, Pengfei et al. Pré-treinamento,
prompting e previsão: uma visão geral de métodos baseados em prompts em PLN
(Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in
Natural Language Processing). 2021.
WEISS, Gail; GLAZE, Ben; KERMACK, David;
WILSON, Mark. Transformers e a janela de contexto: implicações práticas para
sistemas de linguagem. Relatório técnico, 2022.
VASWANI, Ashish et al. Atenção é tudo o
que você precisa (Attention Is All You Need). Advances in Neural
Information Processing Systems (NeurIPS), 2017.
Aula
3 — Avaliação e checagem: como não cair na conversa bonita
Usar um LLM bem não é só “saber pedir”. É,
principalmente, saber avaliar a resposta. Porque o modelo escreve com
uma segurança que engana: ele pode estar certo, pode estar meio certo, ou pode
estar inventando — e o texto vai soar igualmente confiante nos três casos.
Nesta aula, o foco é aprender um jeito prático de checar qualidade sem virar
paranoico e sem precisar ser especialista em tudo. A meta é simples:
transformar o LLM em um aliado que acelera seu trabalho, não em uma fonte de
dor de cabeça.
O primeiro passo é aceitar uma verdade
pouco glamourosa: o LLM não foi feito para garantir verdade; foi feito para
gerar texto provável. Então, quando você lê uma resposta, você precisa separar
duas coisas que a gente mistura sem perceber: forma e fato. Forma
é estrutura, clareza, coesão, didática, tom. Fato é data, número, citação, lei,
estatística, nome de órgão, procedimento oficial. Em geral, o LLM manda muito
bem na forma e pode falhar feio no fato. Isso significa que a sua checagem deve
ser dirigida: você não precisa duvidar de tudo, mas precisa duvidar com força
do que é verificável.
Uma maneira prática de começar é usar uma pergunta-guia antes de confiar: “Se isso estiver errado, qual é o estrago?”. Se o estrago é pequeno — um rascunho de
e-mail, uma ideia para aula, uma reescrita
de texto — dá para seguir com revisão leve. Se o estrago é grande — saúde,
jurídico, finanças, políticas internas, comunicação pública delicada — você
muda a regra do jogo: a resposta vira um rascunho que precisa de validação
externa. Esse filtro de risco é o que impede você de tratar o LLM como
“oráculo” em situações em que você não pode errar.
Depois do filtro de risco, vem o filtro de completude.
Respostas ruins não são só “erradas”; muitas vezes são respostas que parecem
completas, mas estão cheias de buracos. Um modelo pode te dar um plano
“perfeito” para um projeto sem perguntar orçamento, prazo, público, recursos,
restrições legais. Quando você vê uma resposta assim, o problema não é o texto;
é que ela foi construída sobre suposições escondidas. Por isso, um dos melhores
hábitos é exigir que o LLM mostre as suposições. Um comando que funciona
bem é: “Liste as principais suposições que você fez e o que mudaria se elas
estiverem erradas.” Isso costuma revelar rápido o quanto a resposta está no
terreno do chute.
Outra técnica simples é pedir para o modelo
se “auto auditar”. Ele não é infalível, mas é bom em apontar pontos fracos
quando você pede explicitamente. Você pode usar perguntas como: “Quais são os
possíveis erros desta resposta?”, “O que está faltando para ter certeza?”,
“Quais partes devem ser verificadas em fontes oficiais?”. Perceba que você não
está pedindo para ele “ter certeza”; você está pedindo para ele indicar onde a
certeza é impossível. Isso já reduz muito o risco de você engolir informação duvidosa.
E tem uma estratégia que melhora ainda
mais: pedir duas respostas com abordagens diferentes. Por exemplo: “Me
dê uma versão conservadora e uma versão ousada” ou “Me dê duas hipóteses
concorrentes e diga como eu testaria qual é a correta”. Quando o modelo é
obrigado a gerar alternativas, ele tende a sair do modo “uma resposta fechada e
confiante” e entrar num modo mais analítico. Isso é especialmente útil em
planejamento e tomada de decisão, porque te dá opções e critérios, em vez de
uma conclusão única que pode estar baseada em suposições.
Agora vamos falar do que mais causa desastre na realidade: referências e números. Se o LLM citar leis, artigos, estatísticas e “dados de pesquisa”, trate com desconfiança automática. Não porque ele esteja sempre errado, mas porque ele pode “montar” algo que parece real. O padrão saudável é: sempre que a resposta incluir dados concretos que você pretende
usar como base, você deve: (1) pedir a origem, (2) checar em
fonte confiável, (3) comparar com pelo menos uma segunda fonte quando o tema
for importante. Se você não tem tempo para verificar, então você não tem tempo
para usar aquilo como fato — simples assim.
Um ponto que pouca gente percebe é que a
checagem também depende de como você pediu. Se o seu prompt foi aberto e
vago, a resposta tende a ser mais imaginativa. Se você quer precisão, você tem
que construir o pedido de um jeito que premie a precisão. Exemplos: “Se você
não souber, diga que não sabe”; “Não invente referências”; “Responda apenas com
o que for sustentado pelo texto que vou colar”; “Mostre onde você está
inferindo e onde você está afirmando”. Isso é especialmente útil quando você
trabalha com documentos: você cola o trecho e diz “use somente esse trecho”. A
chance de extrapolação cai.
Vamos transformar isso num checklist que
você consegue aplicar em dois minutos, sem drama:
1.
Risco: se estiver errado, dá problema sério?
2.
Tipo de saída: é texto (forma) ou é fato (verificação)?
3.
Suposições: o que ele assumiu sem você pedir?
4.
Lacunas: que informação faltou para responder direito?
5.
Verificação: que trechos exigem fonte externa?
6.
Alternativas: existe outra forma plausível de responder?
7.
Ação: o que eu faço agora com isso (rascunhar, revisar, checar,
descartar)?
O mais importante desse checklist é o
último item. Muita gente termina a conversa com o LLM e fica com aquela
sensação de “ok, agora eu sei”. Só que saber não é ter um plano. A saída do
modelo deve virar uma ação concreta: “vou reescrever com minhas palavras”, “vou
checar esses três pontos no site oficial”, “vou pedir mais dados antes de
decidir”, “vou mandar para revisão humana”. Sem essa etapa, você fica com um
texto bonito e uma falsa sensação de conclusão.
Para fechar a aula com um exemplo bem real:
imagine que o LLM escreveu um texto sobre um tema e incluiu “dados de pesquisa”
e “tendências do mercado”. Se você vai usar isso em um material público, a sua
postura madura é: manter a estrutura (porque ele escreve bem), mas substituir
os dados por fontes verificadas — ou remover números que você não checou. Você
não precisa jogar tudo fora. Você precisa separar o que ele faz bem (forma) do
que precisa de auditoria (fatos). Esse é o uso profissional.
No fim, avaliar respostas de LLM é um pouco como revisar o trabalho de um estagiário muito rápido e muito confiante: ele pode te salvar
fim, avaliar respostas de LLM é um pouco como revisar o trabalho de um estagiário muito rápido e muito confiante: ele pode te salvar tempo, mas você não assina sem revisar o que importa. E quando você aprende a revisar com método — risco, suposições, verificação — você sai do modo “usuário impressionado” e entra no modo “usuário no controle”. É aí que a ferramenta começa a valer de verdade.
Referências
bibliográficas
BENDER, Emily M.; GEBRU, Timnit;
McMILLAN-MAJOR, Angelina; SHMITCHELL, Shmargaret. Sobre os perigos de
papagaios estocásticos: modelos de linguagem podem ser grandes demais?. Conferência
ACM sobre Justiça, Responsabilidade e Transparência (FAccT), 2021.
BROWN, Tom B. et al. Modelos de
linguagem são aprendizes de poucas amostras (Language Models are Few-Shot
Learners). Advances in Neural Information Processing Systems (NeurIPS),
2020.
JURAFSKY, Daniel; MARTIN, James H. Processamento
de Linguagem Natural: uma introdução (Speech and Language Processing). 3ª
ed. (rascunho/versão em evolução). 2023.
KAHNEMAN, Daniel. Rápido e devagar: duas
formas de pensar. Rio de Janeiro: Objetiva, 2012.
O’NEIL, Cathy. Armas de destruição
matemática: como o Big Data aumenta a desigualdade e ameaça a democracia.
São Paulo: Editora Rua do Sabão, 2016.
RUSSELL, Stuart; NORVIG, Peter. Inteligência
Artificial (Artificial Intelligence: A Modern Approach). 4ª ed. Rio de
Janeiro: LTC, 2021.
Estudo de caso do Módulo 2
Título: “O curso que
ficou ótimo… e inútil”
Foco do módulo: prompt bem-feito, gestão de contexto e checagem de
qualidade.
Contexto
A equipe da Academia Horizonte
(plataforma de cursos livres) decide lançar rápido um curso chamado “Produtividade
com IA no trabalho”. Para ganhar tempo, resolvem criar quase tudo com LLM:
ementa, aulas, exercícios, e-mails de divulgação e até um FAQ de suporte.
O prazo é curto, a equipe é pequena e a
tentação é grande: “se o LLM escreve bonito, é só pedir e publicar”.
O resultado inicial parece excelente. Texto
fluido, bem-organizado, com cara profissional. Só que em duas semanas começam
as reclamações:
Eles não tinham um problema de escrita. Tinham um problema de processo.
Parte 1 — Erro
comum: prompt vago gera curso genérico
A equipe começa com:
Prompt: “Crie um curso completo sobre
produtividade com IA, com 6 módulos.”
O LLM entrega o que é mais provável: um
curso “padrão internet”, cheio de tópicos amplos, sem identidade, sem público
definido, com frases bonitas e conteúdo raso.
Consequência
Como evitar (a
regra)
Prompt precisa conter: público + objetivo + restrições + formato + critério
de sucesso.
Versão corrigida
(exemplo)
“Crie um curso livre para iniciantes brasileiros, voltado a profissionais
administrativos (RH, secretaria, financeiro), com linguagem simples, exemplos
de rotina de escritório. Objetivo: reduzir tempo em tarefas de texto e
organização, com checagem e ética. Formato: 3 módulos, 3 aulas cada, cada aula
com uma prática de 10 minutos. Proibido: jargão técnico, promessas absolutas,
depender de ferramentas pagas.”
Parte 2 — Erro
comum: “um prompt gigante resolve tudo”
Depois do genérico, eles tentam o oposto:
um prompt enorme pedindo ementa, roteiro, slides, exercícios, avaliação, posts
e e-mails em uma tacada.
O LLM entrega muita coisa… superficial e
inconsistente.
Consequência
Como evitar (a
regra)
Trabalhar em etapas curtas:
1.
Estrutura do curso (só esqueleto)
2.
Detalhamento de cada aula
3.
Exercícios alinhados
4.
Revisão de tom e coerência
5.
Auditoria final (checagem de riscos, promessas, dados)
Isso parece mais trabalhoso, mas na prática reduz retrabalho e evita publicar lixo bem escrito.
Parte 3 — Erro
comum: perder o controle da janela de contexto
No começo, eles definem o tom: “linguagem
simples, exemplos brasileiros, nada técnico”.
Só que a conversa com o LLM fica longa. Em
algum ponto, o modelo começa a:
A equipe não percebe na hora, porque o
texto continua “bonito”.
Consequência
Como evitar (a
regra)
Usar recaps curtos e “regras fixas”:
Recap pronto
(modelo)
“Resumo do combinado: curso para iniciantes, linguagem simples, exemplos
brasileiros, evitar termos técnicos, sem promessas absolutas, cada aula com
prática de 10 min, cada módulo com estudo de caso.”
Parte 4 — Erro
comum: não exigir perguntas antes de responder
Em uma aula sobre “escrever e-mails com
IA”, o LLM sugere um modelo de e-mail de cobrança “padrão”.
Só que a empresa do aluno tem um tom
específico e regras internas. O texto fica inadequado e até agressivo em alguns
casos.
Consequência
Como evitar (a
regra)
Antes de produzir uma peça final, exigir que o modelo pergunte o essencial.
Prompt de controle
“Antes de escrever, faça 5 perguntas obrigatórias (público, tom, objetivo,
restrições, contexto). Só escreva depois que eu responder.”
Parte 5 — Erro
comum: aceitar “fatos” sem checar
Na página de vendas e em uma aula, o LLM
escreve:
Nada foi verificado. Algumas referências
nem existem.
Consequência
Como evitar (a
regra)
Separar:
Prompt de auditoria
“Marque qualquer número, porcentagem, lei, órgão, pesquisa ou citação. Para
cada item, diga: ‘precisa de fonte’ ou ‘não verificável com segurança’. Não
invente fonte.”
Virada: como a
Academia Horizonte consertou (o método final)
Eles criam um fluxo padrão para todo
conteúdo gerado com LLM:
1) Briefing
obrigatório (antes de qualquer prompt)
2) Produção em
blocos
3) Gestão de
contexto
4) Auditoria final
Resultado: o curso fica menos “perfeito” na superfície, mas muito mais útil, aplicável e
confiável. Reembolso cai, satisfação sobe, e a equipe para de apagar incêndio.
Erros comuns do
Módulo 2 (resumo direto)
1.
Prompt vago → saída genérica
2.
Prompt gigante → inconsistência e superficialidade
3.
Conversa longa sem recap → esquecimento e contradições
4.
Não exigir perguntas → suposições perigosas
5. Aceitar “fatos” sem fonte → perda de credibilidade e risco
Acesse materiais, apostilas e vídeos em mais de 3000 cursos, tudo isso gratuitamente!
Matricule-se AgoraAcesse materiais, apostilas e vídeos em mais de 3000 cursos, tudo isso gratuitamente!
Matricule-se Agora