Portal IDEA

Introdução aos Modelos de Linguagem de Larga Escala (LLM)

INTRODUÇÃO AOS MODELOS DE LINGUAGEM DE LARGA ESCALA (LLM)

 

MÓDULO 2 — Como conversar direito com LLM: prompt, contexto e qualidade 

Aula 1 — Prompting básico que funciona

  

Quando a gente começa a usar um LLM, a tendência natural é falar com ele como se fosse uma pessoa muito inteligente e muito rápida. E isso não está totalmente errado — o problema é que, se você conversa de um jeito vago, ele responde de um jeito vago. Se você pede algo pela metade, ele completa o resto do jeito que parecer mais provável. É por isso que, nesta aula, a proposta é simples e prática: aprender a escrever prompts que realmente funcionam, sem mágica e sem “frases secretas”. Um bom prompt não é um encantamento; é só uma instrução bem-feita, com contexto, objetivo e limites.

Pense no LLM como um assistente de escrita que nunca viu sua empresa, seu projeto, seu público ou seu padrão de qualidade — a não ser que você conte. Quando você diz apenas “faça um texto sobre X”, ele vai pegar o que é mais comum sobre X e cuspir um texto genérico. Não é porque ele é ruim; é porque você deu um pedido genérico. O modelo não tem como adivinhar seu padrão de “bom”. Então, o primeiro passo para melhorar a qualidade é tirar a conversa do campo do “adivinha aí” e levar para o campo do “aqui está exatamente o que eu preciso”.

Um prompt eficiente costuma responder a quatro perguntas: o que está acontecendo, o que eu quero, quais são as regras e como eu quero receber. Em linguagem humana: “contexto, objetivo, restrições e formato”. Você não precisa escrever isso como um formulário rígido, mas precisa colocar essas peças de algum jeito. Se eu digo: “Preciso de um e-mail”, falta quase tudo. E-mail para quem? Com qual tom? Qual é o assunto? Qual é o objetivo? O que não pode ser dito? Qual tamanho? Sem essas informações, o modelo vai inventar. Quando você coloca contexto e limites, você reduz invenção, reduz retrabalho e aumenta consistência.

Vamos ver a diferença com um exemplo bem cotidiano. Prompt fraco: “Faça um comunicado sobre atrasos.” O LLM pode escrever algo elegante, mas pode soar frio, pode prometer coisas que você não pode cumprir, pode não mencionar o que é essencial. Agora um prompt melhor, mais realista: “Escreva um comunicado curto para alunos avisando que a aula ao vivo de hoje será remarcada por instabilidade técnica. Tom acolhedor, sem prometer ressarcimento, oferecendo novo horário e canal de suporte. Máximo 120 palavras.” Percebe a diferença? Você não “mandou ele escrever

melhor”; você explicou o que é melhor no seu caso.

Outro ponto que muda o jogo é aprender a pedir critério de qualidade. Muita gente pede “faça um texto persuasivo” e depois fica frustrada porque o texto vem exagerado, cheio de promessa e adjetivo. Uma forma mais madura de pedir é incluir critérios verificáveis. Por exemplo: “Use linguagem simples, sem jargões, inclua 3 benefícios concretos, evite promessas absolutas, finalize com uma chamada para ação discreta.” Isso funciona porque você transformou “persuasivo” em coisas que dá para checar. E isso é essencial: o LLM responde melhor quando você dá alvos claros, não só adjetivos.

Também vale entender que, em prompt, menos nem sempre é mais. Existe uma diferença entre ser conciso e ser incompleto. Ser conciso é dar as informações necessárias sem enrolar. Ser incompleto é omitir o que define o resultado. Em geral, o que mais pesa é: público-alvo, objetivo, contexto e restrições. Se você colocar essas quatro coisas, a resposta já sobe de nível. E se quiser subir mais um degrau, inclua exemplos. Exemplo é poderoso porque o modelo aprende padrões. Se você dá um mini exemplo de “tom” ou de “formato”, ele tende a seguir.

A propósito, exemplos têm um truque: não precisam ser grandes. Às vezes um parágrafo curto já define tudo. Se você quer respostas no estilo “professor humano e didático”, mostre dois ou três trechos curtos do seu estilo. Se quer uma resposta em formato de checklist, mostre uma checklist mini. Isso é melhor do que pedir “seja didático” e torcer para dar certo. O modelo não lê sua mente; ele lê seu prompt.

Agora, vamos falar de um erro comum de iniciante: tentar fazer tudo em um único prompt gigantesco. Você pede: “Crie um curso completo com objetivos, ementa, slides, avaliação, posts de divulgação, e ainda adapte para três públicos diferentes.” O LLM até responde, mas a chance de vir superficial, contraditório ou genérico aumenta, porque ele precisa manter muitas exigências ao mesmo tempo. Uma técnica melhor é quebrar o trabalho em etapas: primeiro ele cria um esqueleto, depois você escolhe o caminho, depois ele detalha aula por aula, depois ele revisa o tom e a consistência. Prompt bom não é só “o texto do prompt”; é o processo de conversar com o modelo para chegar num resultado sólido.

E tem um ponto que separa quem usa LLM com maturidade de quem só brinca: aprender a pedir o que você realmente precisa antes de pedir a resposta final. Em vez de “escreva o texto”, você pode pedir: “Faça 5

perguntas essenciais antes de escrever para evitar suposições.” Isso evita que o modelo invente detalhes. Ou então: “Liste 3 abordagens possíveis e me diga prós e contras de cada uma.” Assim você escolhe o rumo e só depois pede a versão final. Parece mais lento, mas na prática é mais rápido, porque você reduz retrabalho e aumenta a chance de acertar de primeira.

Para fechar a aula com algo bem prático, guarde esta frase: prompt bom é aquele que reduz suposições. Se você quer qualidade, não peça “seja bom”; dê contexto, regras e formato. Se você quer segurança, force o modelo a dizer o que ele não sabe, a explicitar suposições e a pedir dados que estão faltando. E se você quer consistência, dê exemplos e critérios. É assim que você transforma um LLM de “gerador de texto legal” em uma ferramenta realmente útil — do tipo que você confia para acelerar trabalho, sem cair em armadilhas por causa de respostas bonitas.

Referências bibliográficas (sem hiperlinks)

BROWN, Tom B. et al. Modelos de linguagem são aprendizes de poucas amostras (Language Models are Few-Shot Learners). Advances in Neural Information Processing Systems (NeurIPS), 2020.

JURAFSKY, Daniel; MARTIN, James H. Processamento de Linguagem Natural: uma introdução (Speech and Language Processing). 3ª ed. (rascunho/versão em evolução). 2023.

LIU, Pengfei et al. Pré-treinamento, prompting e previsão: uma visão geral de métodos baseados em prompts em PLN (Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing). 2021.

REYNOLDS, Laria; McDONELL, Kyle. Prompt Programming para Grandes Modelos de Linguagem: Além da Engenharia de Prompt (Prompt Programming for Large Language Models: Beyond the Few-Shot Paradigm). 2021.

VASWANI, Ashish et al. Atenção é tudo o que você precisa (Attention Is All You Need). Advances in Neural Information Processing Systems (NeurIPS), 2017.


Aula 2 — Contexto, memória e “janela”: por que ele esquece coisas

 

Se na aula anterior você aprendeu a “falar melhor” com um LLM, nesta aula você vai entender por que, às vezes, mesmo com um bom prompt, ele se perde, contradiz o que disse antes ou “esquece” detalhes importantes. Isso não acontece porque o modelo é teimoso ou porque “não prestou atenção”. A explicação é mais simples — e mais útil: o LLM trabalha dentro de uma janela de contexto, como se estivesse lendo tudo o que está disponível na conversa naquele momento e, a partir disso, continuasse o texto. O que está dentro dessa

como se estivesse lendo tudo o que está disponível na conversa naquele momento e, a partir disso, continuasse o texto. O que está dentro dessa janela influencia o que ele consegue considerar; o que está fora… praticamente deixa de existir para ele.

A melhor metáfora é pensar numa mesa de trabalho. Você espalha papéis sobre a mesa e começa a escrever um relatório. Você só consegue usar bem o que está visível e organizado ali. Se alguém empilha os papéis no canto, ou tira alguns da mesa, você vai cometer erros, porque não tem mais acesso àquelas informações. Com o LLM é parecido: ele “vê” o que está no contexto atual e responde. Ele não tem uma memória humana contínua que se sustenta sozinha; ele tem, no máximo, um histórico de texto que é passado para ele como entrada — e isso tem limite.

Essa ideia de janela de contexto explica por que conversas longas podem degradar. No começo, o modelo está com tudo “fresco”: regras, objetivos, detalhes. Depois de muitas mensagens, o contexto fica grande, aparecem tópicos paralelos, contradições, pequenas mudanças de rumo. Em algum momento, parte do conteúdo inicial deixa de estar acessível (ou fica “diluído” no meio de tanta coisa). A consequência é clássica: ele passa a errar requisitos, confundir nomes, trocar datas, repetir instruções antigas ou ignorar regras que você jurava que já estavam combinadas. Se você depende de precisão e consistência, você precisa aprender a gerenciar contexto, não só escrever prompts bonitos.

Aqui entra uma técnica simples e poderosa: o recap (ou “recapitulação”). Funciona assim: de tempos em tempos, você para a conversa e cria um bloco curto com o que realmente importa — regras, objetivo, público, formato, restrições e qualquer dado essencial. É como dar ao modelo uma “folha de briefing” atualizada. O ponto não é repetir tudo; é selecionar o que é estrutural. E isso não é frescura: em trabalho real (roteiro, curso, atendimento, planejamento), recap economiza horas de retrabalho.

Por exemplo, imagine que você esteja criando um curso e, no meio do caminho, o modelo começa a sugerir aulas avançadas, cheio de termos técnicos e bibliografia complexa, quando a proposta era iniciante. Em vez de reclamar “você não está seguindo”, você injeta um recap: “Resumo do combinado: público iniciante, linguagem simples, exemplos do cotidiano, evitar matemática, cada módulo com estudo de caso, no máximo 3 tópicos por aula.” Muitas vezes, isso basta para “trazer de volta” a conversa para o trilho. Você

exemplo, imagine que você esteja criando um curso e, no meio do caminho, o modelo começa a sugerir aulas avançadas, cheio de termos técnicos e bibliografia complexa, quando a proposta era iniciante. Em vez de reclamar “você não está seguindo”, você injeta um recap: “Resumo do combinado: público iniciante, linguagem simples, exemplos do cotidiano, evitar matemática, cada módulo com estudo de caso, no máximo 3 tópicos por aula.” Muitas vezes, isso basta para “trazer de volta” a conversa para o trilho. Você está, na prática, reorganizando a mesa e colocando os papéis essenciais à vista.

Outra estratégia que funciona muito bem é separar “regras fixas” de “tarefas do momento”. Regras fixas são coisas como tom, limites, formato, público, proibições (“não usar jargões”, “não prometer resultados”, “não inventar fontes”). Tarefa do momento é o pedido atual (“escreva a aula 2”, “crie uma atividade”, “revisar o texto”). Quando você mistura tudo e vai empilhando instruções ao longo de 30 mensagens, o modelo começa a falhar por excesso de carga. Quando você mantém um bloco curto de regras fixas e depois pede tarefas específicas, o resultado fica mais consistente e previsível.

A janela de contexto também explica um fenômeno que irrita muita gente: o modelo “entra numa vibe” e não sai. Você pede um texto formal, ele escreve formal. Depois você pede algo mais leve, e ele continua formal. Não é birra: o contexto ainda está carregado com aquele estilo. Por isso, às vezes, vale declarar explicitamente a mudança: “Agora mude o tom para informal e curto, como mensagem de WhatsApp, no máximo 40 palavras.” Você está alterando o “ambiente” de escrita. Se você só disser “faça mais leve”, pode ser pouco.

E como fica o uso de documentos? Aqui o detalhe é crucial: LLM não lê sua mente nem “adivinha” o conteúdo de um arquivo que você não forneceu. Se você quer que ele trabalhe com um documento, você precisa colocar o conteúdo no contexto — seja colando trechos, seja resumindo e confirmando com ele, seja fornecendo pontos-chave. A melhor prática para textos longos é trabalhar em camadas: primeiro você pede um resumo fiel do trecho, depois confirma se o resumo está correto, e só então usa aquele resumo como base para criar atividades, explicações e exemplos. Isso reduz um erro clássico: o modelo inventar detalhes “para preencher” o que ele não recebeu.

Um cuidado adicional: quanto mais longa e desorganizada a informação que você joga no chat, maior a chance de ele se confundir.

Parece contraintuitivo, mas às vezes “dar tudo” atrapalha. O ideal é fornecer o que é relevante e, quando necessário, orientar: “use somente as informações do trecho abaixo”. Esse tipo de frase funciona como um limitador de imaginação. Você está dizendo: “não extrapole”. Isso não garante perfeição, mas diminui a chance de ele puxar conhecimento genérico e misturar com o seu material.

Agora vamos para um ponto prático que parece pequeno, mas muda tudo: quando você precisa consistência, peça ao modelo para criar e manter um dicionário de termos e um registro de decisões. O dicionário é uma lista curta de como vocês vão chamar as coisas (ex.: “aluno” e não “participante”, “aula” e não “lição”, “módulo” com 3 aulas). O registro de decisões é um resumo do que já foi definido (estrutura do curso, carga horária, tipo de avaliação, estilo do texto). Isso vira sua âncora. Quando o modelo começar a variar termos ou mudar a estrutura, você aponta para o dicionário e o registro — e ele volta a seguir o padrão. Sem isso, você acaba revisando manualmente um monte de inconsistências que poderiam ser evitadas.

Há também uma diferença importante entre “memória” no sentido humano e “memória” no sentido de produto. Algumas ferramentas de chat têm recursos de memória e personalização, mas isso varia por plataforma e não é algo em que você deve apostar para tarefas críticas. A maneira mais segura de trabalhar é assumir que o que manda é o contexto atual. Se é importante, precisa estar visível no prompt de algum modo. Se é importante e recorrente, precisa estar no bloco de regras fixas ou no recap. Essa postura é menos romântica, mas é profissional: você controla o processo, em vez de depender de um comportamento que pode mudar de uma ferramenta para outra.

Para fechar, aqui vai um checklist curto, bem utilizável no dia a dia, para você não sofrer com esquecimento e contradição:

1.     Conversa ficou longa? Faça um recap do combinado em 8–12 linhas.

2.     Mudou o estilo? Declare o novo tom e dê um micro exemplo.

3.     Vai usar documento? Cole o trecho relevante e diga “use apenas isso”.

4.     Quer consistência? Crie dicionário de termos e registro de decisões.

5.     Falta dado? Force o modelo a fazer perguntas antes de responder.

Quando você entende que o LLM é, em essência, um sistema que continua texto com base no que está disponível no contexto, você para de brigar com ele e começa a “dirigir” melhor. E dirigir bem não é falar mais bonito; é organizar

informação, reduzir suposições e manter o que importa sempre à vista. Isso é o que faz a ferramenta parecer “inteligente” de verdade no mundo real: não porque ela virou perfeita, mas porque você passou a trabalhar com ela do jeito certo.

Referências bibliográficas

BROWN, Tom B. et al. Modelos de linguagem são aprendizes de poucas amostras (Language Models are Few-Shot Learners). Advances in Neural Information Processing Systems (NeurIPS), 2020.

JURAFSKY, Daniel; MARTIN, James H. Processamento de Linguagem Natural: uma introdução (Speech and Language Processing). 3ª ed. (rascunho/versão em evolução). 2023.

LIU, Pengfei et al. Pré-treinamento, prompting e previsão: uma visão geral de métodos baseados em prompts em PLN (Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing). 2021.

WEISS, Gail; GLAZE, Ben; KERMACK, David; WILSON, Mark. Transformers e a janela de contexto: implicações práticas para sistemas de linguagem. Relatório técnico, 2022.

VASWANI, Ashish et al. Atenção é tudo o que você precisa (Attention Is All You Need). Advances in Neural Information Processing Systems (NeurIPS), 2017.


Aula 3 — Avaliação e checagem: como não cair na conversa bonita

 

Usar um LLM bem não é só “saber pedir”. É, principalmente, saber avaliar a resposta. Porque o modelo escreve com uma segurança que engana: ele pode estar certo, pode estar meio certo, ou pode estar inventando — e o texto vai soar igualmente confiante nos três casos. Nesta aula, o foco é aprender um jeito prático de checar qualidade sem virar paranoico e sem precisar ser especialista em tudo. A meta é simples: transformar o LLM em um aliado que acelera seu trabalho, não em uma fonte de dor de cabeça.

O primeiro passo é aceitar uma verdade pouco glamourosa: o LLM não foi feito para garantir verdade; foi feito para gerar texto provável. Então, quando você lê uma resposta, você precisa separar duas coisas que a gente mistura sem perceber: forma e fato. Forma é estrutura, clareza, coesão, didática, tom. Fato é data, número, citação, lei, estatística, nome de órgão, procedimento oficial. Em geral, o LLM manda muito bem na forma e pode falhar feio no fato. Isso significa que a sua checagem deve ser dirigida: você não precisa duvidar de tudo, mas precisa duvidar com força do que é verificável.

Uma maneira prática de começar é usar uma pergunta-guia antes de confiar: “Se isso estiver errado, qual é o estrago?”. Se o estrago é pequeno — um rascunho de

e-mail, uma ideia para aula, uma reescrita de texto — dá para seguir com revisão leve. Se o estrago é grande — saúde, jurídico, finanças, políticas internas, comunicação pública delicada — você muda a regra do jogo: a resposta vira um rascunho que precisa de validação externa. Esse filtro de risco é o que impede você de tratar o LLM como “oráculo” em situações em que você não pode errar.

Depois do filtro de risco, vem o filtro de completude. Respostas ruins não são só “erradas”; muitas vezes são respostas que parecem completas, mas estão cheias de buracos. Um modelo pode te dar um plano “perfeito” para um projeto sem perguntar orçamento, prazo, público, recursos, restrições legais. Quando você vê uma resposta assim, o problema não é o texto; é que ela foi construída sobre suposições escondidas. Por isso, um dos melhores hábitos é exigir que o LLM mostre as suposições. Um comando que funciona bem é: “Liste as principais suposições que você fez e o que mudaria se elas estiverem erradas.” Isso costuma revelar rápido o quanto a resposta está no terreno do chute.

Outra técnica simples é pedir para o modelo se “auto auditar”. Ele não é infalível, mas é bom em apontar pontos fracos quando você pede explicitamente. Você pode usar perguntas como: “Quais são os possíveis erros desta resposta?”, “O que está faltando para ter certeza?”, “Quais partes devem ser verificadas em fontes oficiais?”. Perceba que você não está pedindo para ele “ter certeza”; você está pedindo para ele indicar onde a certeza é impossível. Isso já reduz muito o risco de você engolir informação duvidosa.

E tem uma estratégia que melhora ainda mais: pedir duas respostas com abordagens diferentes. Por exemplo: “Me dê uma versão conservadora e uma versão ousada” ou “Me dê duas hipóteses concorrentes e diga como eu testaria qual é a correta”. Quando o modelo é obrigado a gerar alternativas, ele tende a sair do modo “uma resposta fechada e confiante” e entrar num modo mais analítico. Isso é especialmente útil em planejamento e tomada de decisão, porque te dá opções e critérios, em vez de uma conclusão única que pode estar baseada em suposições.

Agora vamos falar do que mais causa desastre na realidade: referências e números. Se o LLM citar leis, artigos, estatísticas e “dados de pesquisa”, trate com desconfiança automática. Não porque ele esteja sempre errado, mas porque ele pode “montar” algo que parece real. O padrão saudável é: sempre que a resposta incluir dados concretos que você pretende

usar como base, você deve: (1) pedir a origem, (2) checar em fonte confiável, (3) comparar com pelo menos uma segunda fonte quando o tema for importante. Se você não tem tempo para verificar, então você não tem tempo para usar aquilo como fato — simples assim.

Um ponto que pouca gente percebe é que a checagem também depende de como você pediu. Se o seu prompt foi aberto e vago, a resposta tende a ser mais imaginativa. Se você quer precisão, você tem que construir o pedido de um jeito que premie a precisão. Exemplos: “Se você não souber, diga que não sabe”; “Não invente referências”; “Responda apenas com o que for sustentado pelo texto que vou colar”; “Mostre onde você está inferindo e onde você está afirmando”. Isso é especialmente útil quando você trabalha com documentos: você cola o trecho e diz “use somente esse trecho”. A chance de extrapolação cai.

Vamos transformar isso num checklist que você consegue aplicar em dois minutos, sem drama:

1.     Risco: se estiver errado, dá problema sério?

2.     Tipo de saída: é texto (forma) ou é fato (verificação)?

3.     Suposições: o que ele assumiu sem você pedir?

4.     Lacunas: que informação faltou para responder direito?

5.     Verificação: que trechos exigem fonte externa?

6.     Alternativas: existe outra forma plausível de responder?

7.     Ação: o que eu faço agora com isso (rascunhar, revisar, checar, descartar)?

O mais importante desse checklist é o último item. Muita gente termina a conversa com o LLM e fica com aquela sensação de “ok, agora eu sei”. Só que saber não é ter um plano. A saída do modelo deve virar uma ação concreta: “vou reescrever com minhas palavras”, “vou checar esses três pontos no site oficial”, “vou pedir mais dados antes de decidir”, “vou mandar para revisão humana”. Sem essa etapa, você fica com um texto bonito e uma falsa sensação de conclusão.

Para fechar a aula com um exemplo bem real: imagine que o LLM escreveu um texto sobre um tema e incluiu “dados de pesquisa” e “tendências do mercado”. Se você vai usar isso em um material público, a sua postura madura é: manter a estrutura (porque ele escreve bem), mas substituir os dados por fontes verificadas — ou remover números que você não checou. Você não precisa jogar tudo fora. Você precisa separar o que ele faz bem (forma) do que precisa de auditoria (fatos). Esse é o uso profissional.

No fim, avaliar respostas de LLM é um pouco como revisar o trabalho de um estagiário muito rápido e muito confiante: ele pode te salvar

fim, avaliar respostas de LLM é um pouco como revisar o trabalho de um estagiário muito rápido e muito confiante: ele pode te salvar tempo, mas você não assina sem revisar o que importa. E quando você aprende a revisar com método — risco, suposições, verificação — você sai do modo “usuário impressionado” e entra no modo “usuário no controle”. É aí que a ferramenta começa a valer de verdade.

Referências bibliográficas

BENDER, Emily M.; GEBRU, Timnit; McMILLAN-MAJOR, Angelina; SHMITCHELL, Shmargaret. Sobre os perigos de papagaios estocásticos: modelos de linguagem podem ser grandes demais?. Conferência ACM sobre Justiça, Responsabilidade e Transparência (FAccT), 2021.

BROWN, Tom B. et al. Modelos de linguagem são aprendizes de poucas amostras (Language Models are Few-Shot Learners). Advances in Neural Information Processing Systems (NeurIPS), 2020.

JURAFSKY, Daniel; MARTIN, James H. Processamento de Linguagem Natural: uma introdução (Speech and Language Processing). 3ª ed. (rascunho/versão em evolução). 2023.

KAHNEMAN, Daniel. Rápido e devagar: duas formas de pensar. Rio de Janeiro: Objetiva, 2012.

O’NEIL, Cathy. Armas de destruição matemática: como o Big Data aumenta a desigualdade e ameaça a democracia. São Paulo: Editora Rua do Sabão, 2016.

RUSSELL, Stuart; NORVIG, Peter. Inteligência Artificial (Artificial Intelligence: A Modern Approach). 4ª ed. Rio de Janeiro: LTC, 2021.


Estudo de caso do Módulo 2

 

Título: “O curso que ficou ótimo… e inútil”
Foco do módulo: prompt bem-feito, gestão de contexto e checagem de qualidade.

Contexto

A equipe da Academia Horizonte (plataforma de cursos livres) decide lançar rápido um curso chamado “Produtividade com IA no trabalho”. Para ganhar tempo, resolvem criar quase tudo com LLM: ementa, aulas, exercícios, e-mails de divulgação e até um FAQ de suporte.

O prazo é curto, a equipe é pequena e a tentação é grande: “se o LLM escreve bonito, é só pedir e publicar”.

O resultado inicial parece excelente. Texto fluido, bem-organizado, com cara profissional. Só que em duas semanas começam as reclamações:

  • “O curso é genérico demais.”
  • “Uma aula contradiz a outra.”
  • “Tem exemplos que não fazem sentido no Brasil.”
  • “Tem regras e dados ‘inventados’.”
  • “As atividades não batem com o que foi ensinado.”

Eles não tinham um problema de escrita. Tinham um problema de processo.

Parte 1 — Erro comum: prompt vago gera curso genérico

A equipe começa com:

Prompt: “Crie um curso completo sobre

produtividade com IA, com 6 módulos.”

O LLM entrega o que é mais provável: um curso “padrão internet”, cheio de tópicos amplos, sem identidade, sem público definido, com frases bonitas e conteúdo raso.

Consequência

  • O curso não conversa com a realidade do público.
  • Parece “qualquer curso” que existe por aí.
  • Alto reembolso por frustração (e pior: aluno falando mal em público).

Como evitar (a regra)
Prompt precisa conter: público + objetivo + restrições + formato + critério de sucesso.

Versão corrigida (exemplo)
“Crie um curso livre para iniciantes brasileiros, voltado a profissionais administrativos (RH, secretaria, financeiro), com linguagem simples, exemplos de rotina de escritório. Objetivo: reduzir tempo em tarefas de texto e organização, com checagem e ética. Formato: 3 módulos, 3 aulas cada, cada aula com uma prática de 10 minutos. Proibido: jargão técnico, promessas absolutas, depender de ferramentas pagas.”

Parte 2 — Erro comum: “um prompt gigante resolve tudo”

Depois do genérico, eles tentam o oposto: um prompt enorme pedindo ementa, roteiro, slides, exercícios, avaliação, posts e e-mails em uma tacada.

O LLM entrega muita coisa… superficial e inconsistente.

Consequência

  • Repetição de conteúdo entre aulas.
  • Contradições (“sempre peça fontes” vs “confie no modelo quando…”, etc.).
  • Exercícios que pedem coisas não ensinadas.

Como evitar (a regra)
Trabalhar em etapas curtas:

1.     Estrutura do curso (só esqueleto)

2.     Detalhamento de cada aula

3.     Exercícios alinhados

4.     Revisão de tom e coerência

5.     Auditoria final (checagem de riscos, promessas, dados)

Isso parece mais trabalhoso, mas na prática reduz retrabalho e evita publicar lixo bem escrito.

Parte 3 — Erro comum: perder o controle da janela de contexto

No começo, eles definem o tom: “linguagem simples, exemplos brasileiros, nada técnico”.

Só que a conversa com o LLM fica longa. Em algum ponto, o modelo começa a:

  • usar termos avançados (“embeddings”, “RAG”, “fine-tuning”)
  • citar leis e siglas aleatórias
  • sugerir ferramentas caras e inacessíveis

A equipe não percebe na hora, porque o texto continua “bonito”.

Consequência

  • Curso perde o público (iniciante não entende).
  • Alunos acham que são “burros” e desistem.
  • Conteúdo fica incoerente com a promessa de marketing.

Como evitar (a regra)
Usar recaps curtos e “regras fixas”:

  • a cada 6–10 interações, colar um “Resumo do combinado”
  • manter um bloco fixo no início: público, tom, restrições, estrutura

Recap pronto (modelo)
“Resumo do combinado: curso para iniciantes, linguagem simples, exemplos brasileiros, evitar termos técnicos, sem promessas absolutas, cada aula com prática de 10 min, cada módulo com estudo de caso.”

Parte 4 — Erro comum: não exigir perguntas antes de responder

Em uma aula sobre “escrever e-mails com IA”, o LLM sugere um modelo de e-mail de cobrança “padrão”.

Só que a empresa do aluno tem um tom específico e regras internas. O texto fica inadequado e até agressivo em alguns casos.

Consequência

  • Aluno aplica no trabalho e cria atrito real.
  • A escola ganha fama de “curso que dá modelos perigosos”.

Como evitar (a regra)
Antes de produzir uma peça final, exigir que o modelo pergunte o essencial.

Prompt de controle
“Antes de escrever, faça 5 perguntas obrigatórias (público, tom, objetivo, restrições, contexto). Só escreva depois que eu responder.”

Parte 5 — Erro comum: aceitar “fatos” sem checar

Na página de vendas e em uma aula, o LLM escreve:

  • “Estudos mostram que IA aumenta produtividade em 40%”
  • “A lei X garante isso”
  • “Segundo pesquisa da instituição Y…”

Nada foi verificado. Algumas referências nem existem.

Consequência

  • Risco de propaganda enganosa e reputação.
  • Alunos mais críticos expõem o erro.
  • Conteúdo perde credibilidade imediatamente.

Como evitar (a regra)
Separar:

  • LLM para forma (estrutura, clareza, redação)
  • Fontes reais para fatos (dados, leis, citações)

Prompt de auditoria
“Marque qualquer número, porcentagem, lei, órgão, pesquisa ou citação. Para cada item, diga: ‘precisa de fonte’ ou ‘não verificável com segurança’. Não invente fonte.”

Virada: como a Academia Horizonte consertou (o método final)

Eles criam um fluxo padrão para todo conteúdo gerado com LLM:

1) Briefing obrigatório (antes de qualquer prompt)

  • público, nível, objetivo, restrições, tom, duração, exemplos, limites legais/compliance

2) Produção em blocos

  • primeiro esqueleto → depois detalha → depois cria exercícios → depois revisa

3) Gestão de contexto

  • recap periódico + dicionário de termos (para manter consistência)

4) Auditoria final

  • checagem de promessas
  • checagem de dados e “fatos”
  • alinhamento do exercício com a aula
  • revisão humana antes de publicar

Resultado: o curso fica menos “perfeito” na superfície, mas muito mais útil, aplicável e

confiável. Reembolso cai, satisfação sobe, e a equipe para de apagar incêndio.

Erros comuns do Módulo 2 (resumo direto)

1.     Prompt vago → saída genérica

2.     Prompt gigante → inconsistência e superficialidade

3.     Conversa longa sem recap → esquecimento e contradições

4.     Não exigir perguntas → suposições perigosas

5.     Aceitar “fatos” sem fonte → perda de credibilidade e risco

Quer acesso gratuito a mais materiais como este?

Acesse materiais, apostilas e vídeos em mais de 3000 cursos, tudo isso gratuitamente!

Matricule-se Agora