INTRODUÇÃO
À IA GENERATIVA
MÓDULO 1 — Fundamentos e “o que isso faz de verdade”
Aula 1 — O que é IA Generativa
Quando as pessoas ouvem “IA generativa”, é
comum imaginarem uma máquina pensando como um ser humano, entendendo tudo,
formando opiniões e criando ideias “do nada”. Essa imagem é sedutora — e é
justamente por isso que ela atrapalha. Para aprender de verdade, a primeira
coisa é baixar a expectativa para o nível certo: IA generativa não é
consciência, não é mente, não é criatividade humana. É uma tecnologia muito
potente para gerar conteúdo (texto, imagem, áudio, código) a partir de
padrões que ela aprendeu ao analisar grandes volumes de dados.
O termo “generativa” vem do que ela
entrega: ela gera. Em vez de apenas classificar (“isso é spam ou não?”)
ou prever uma categoria (“esse cliente vai cancelar?”), ela produz algo novo:
um parágrafo, um resumo, um roteiro, uma resposta, uma imagem, uma tabela, uma
lista. Só que “novo” aqui não significa “inédito como uma invenção humana”.
Significa “novo como combinação plausível” de pedaços de linguagem e padrões
que ela aprendeu. É como alguém que leu milhões de páginas e, ao ser
perguntado, monta uma resposta com base no que costuma fazer sentido naquele
tipo de pergunta — às vezes acertando em cheio, às vezes errando com a maior
tranquilidade do mundo.
Para entender o básico sem se perder em
detalhes técnicos, imagine o seguinte: você está digitando no celular e o
teclado sugere a próxima palavra. A IA generativa é uma versão muito mais
avançada desse mesmo princípio: ela calcula qual é a próxima palavra (ou
próximo pedaço de palavra) mais provável, dada a sequência anterior e o
contexto que você forneceu. Isso não quer dizer que ela “só adivinha palavras”
de forma boba. Quer dizer que, ao fazer essa previsão repetidas vezes, ela
consegue construir respostas longas e aparentemente coerentes, porque aprendeu
padrões profundos de linguagem, lógica informal e estilos de escrita. Em outras
palavras: ela é excelente em parecer segura e bem articulada, o que é
ótimo quando ela está certa — e perigoso quando ela está errada.
Aqui entra um ponto-chave da aula: a IA generativa não é uma enciclopédia confiável. Ela pode até saber muita coisa, mas não “consulta” o mundo como você consulta um site, e não tem, por padrão, um compromisso com a verdade. O compromisso dela é com a coerência linguística e com a resposta que “combina” com o seu pedido. Se você pergunta algo objetivo (“Qual é a data de uma lei?”,
e com a resposta que “combina” com o seu pedido. Se você
pergunta algo objetivo (“Qual é a data de uma lei?”, “Qual é o número exato de
um estudo?”, “Quais são as fontes de tal estatística?”), a IA pode responder de
um jeito que parece perfeito — e ainda assim inventar um dado, misturar
referências ou atribuir um resultado a um autor errado. Esse fenômeno é
conhecido como “alucinação”, mas o nome pode enganar: não é delírio no sentido
humano; é apenas a consequência de um sistema que gera texto plausível sem
garantia de verificação.
Então, para que serve? Serve para acelerar
tarefas em que linguagem e estrutura são parte do trabalho: rascunhar textos,
organizar ideias, resumir conteúdos (com supervisão), criar versões
alternativas, adaptar tom, elaborar perguntas, simular diálogos, montar planos,
sugerir exemplos, comparar pontos de vista. Ela funciona muito bem como um assistente
de escrita e pensamento, desde que você assume que a responsabilidade final
é sua. Não é “terceirizar o cérebro”; é ganhar velocidade na parte repetitiva e
estrutural, sem abrir mão do senso crítico.
Agora, vamos separar duas famílias de IA
de um jeito simples. De um lado, modelos que classificam e preveem categorias:
reconhecimento de imagem (“tem um cachorro aqui?”), detecção de fraude,
recomendação de produtos, previsão de demanda. Do outro, a IA generativa: ela
produz texto, imagem, áudio ou código a partir de instruções. Essa distinção é
útil porque explica por que a IA generativa virou assunto em todo lugar: ela
aparece diretamente para o usuário final, conversa, escreve, responde, produz
materiais. Ela é menos invisível do que as IAs “por trás das cortinas”.
Para usar IA generativa bem, você precisa
dominar algumas palavras que parecem técnicas, mas são fáceis de entender na
prática. A primeira é prompt: é o pedido que você faz. Pode ser uma
pergunta, uma instrução, um texto para reescrever, um objetivo. O prompt é como
um briefing: quanto mais claro e completo, melhor tende a ser a resposta. A
segunda é contexto: é tudo o que você fornece para a IA entender o
cenário — público, objetivo, restrições, exemplos, dados relevantes. A terceira
é tokens, que são pedaços de texto (não exatamente palavras inteiras).
Isso importa porque há um limite de quanto a IA consegue “segurar” de
informação de uma vez. Se você joga um texto enorme e pede “resuma”, ela pode
perder partes, simplificar demais ou ignorar detalhes.
Aqui vai uma forma bem humana de enxergar: a IA generativa é
como um estagiário extremamente rápido, com ótima escrita,
que já leu muito, mas não tem vivência real e pode falar com confiança sobre
algo que não conferiu. Se você dá um briefing ruim, ela entrega algo genérico e
às vezes errado. Se você dá um briefing bom, ela entrega um rascunho excelente.
E se você pede “me dá números exatos” sem exigir fontes verificáveis, ela pode
improvisar. A ferramenta não é “boa” ou “má” por si só; ela amplifica o jeito
como você trabalha: com clareza, com método e com revisão, ela vira vantagem.
Sem isso, ela vira risco.
Vamos ver um exemplo simples que mostra
como o contexto muda tudo. Se você pedir: “Explique IA generativa”, a resposta
tende a ser genérica, porque o pedido é genérico. Agora, se você pedir:
“Explique IA generativa em 5 linhas para um adolescente que usa TikTok e gosta
de exemplos”, a IA muda o tom, usa analogias mais próximas do cotidiano e
simplifica termos. Se você pedir: “Explique IA generativa para um diretor
financeiro, com foco em riscos e benefícios para produtividade”, ela muda de
novo: fala de eficiência, governança, qualidade, risco de erro e privacidade.
Perceba a lógica: a IA não “entendeu a pessoa”; ela só seguiu pistas do seu
briefing para ajustar o estilo e o conteúdo.
E aqui vem um alerta didático que evita
muita dor de cabeça: IA generativa é ótima para texto bem formado, mas
isso não é sinônimo de texto verdadeiro. O cérebro humano tem um defeito
conhecido: quando algo é bem escrito e organizado, a gente tende a acreditar
mais. A IA explora esse defeito sem querer. Por isso, a regra de ouro para
iniciantes é: use a IA para estruturar e acelerar, mas trate como suspeito tudo
que seja fato específico (datas, leis, estatísticas, nomes de estudos,
citações). Nesses casos, a IA pode ajudar a apontar caminhos (“quais fontes eu
deveria consultar?”), mas a confirmação precisa vir de leitura e checagem.
O objetivo desta primeira aula não é fazer
você decorar termos, e sim ajustar seu “mapa mental” para o que a ferramenta
realmente é. Se você entende que ela é um gerador de conteúdo com base em
padrões, você para de exigir dela coisas que ela não garante — como “verdade
automática” — e começa a exigir o que ela faz bem: clareza, organização,
versões, exemplos, alternativas, estrutura. Você troca o papel de “usuário
passivo que acredita” pelo papel de “usuário ativo que dirige, revisa e
valida”.
Para fechar, uma ideia que ajuda muito: IA generativa não substitui pensamento; ela substitui o
“trabalho bruto” da escrita e da primeira versão. E primeira versão é, quase sempre, onde a gente perde mais tempo. Quando você usa IA do jeito certo, você não entrega o controle; você ganha uma base para melhorar mais rápido. A pergunta que guia o uso responsável não é “a IA está certa?”. É “como eu desenho o processo para que eu perceba quando ela estiver errada?”. Isso é maturidade digital: aproveitar a potência sem abrir mão do julgamento.
Referências bibliográficas
Aula 2 — Limites, erros e como não cair em
pegadinhas
Na aula anterior, ajustamos a expectativa:
IA generativa não é “mente”, é uma ferramenta poderosa de geração de linguagem.
Nesta aula, o foco é simples e meio desconfortável: ela erra. E pior —
muitas vezes ela erra bem escrito, com uma confiança que engana. Se você
aprende a usar IA sem aprender a lidar com esse detalhe, você vira o tipo de
pessoa que espalha erro com cara de certeza. A boa notícia é que existe método
para reduzir isso. Não é magia. É processo.
Vamos começar pelo problema mais comum: as
chamadas alucinações. Em termos práticos, é quando o modelo produz uma
afirmação plausível, mas falsa — por exemplo, inventa uma fonte, muda uma data,
atribui uma frase a alguém que nunca disse aquilo, ou cria estatísticas que
“parecem” reais. A própria OpenAI explica que isso acontece porque,
historicamente, os modelos são treinados e avaliados de um jeito que premia
o chute: em muitas métricas, uma resposta errada “vale mais” do que admitir
incerteza, então o sistema tende a responder mesmo quando não sabe.
Repare no ponto: o modelo não está “mentindo” como um humano mente. Ele está fazendo o que foi otimizado para fazer: não deixar o espaço em branco. E aí entra o
primeiro hábito que
você precisa criar: tratar a IA como um ótimo rascunhista, mas um péssimo
cartório. Ela pode escrever rápido, organizar ideias, propor alternativas, mas
quando o assunto é fato sensível — número, lei, artigo científico, nome
completo, data, diagnóstico, orientação jurídica/financeira — você precisa
aplicar freio e checagem.
Um jeito didático de entender é pensar em
“zonas de risco”:
Isso não é para te assustar. É para te dar
maturidade. A IA generativa é útil justamente quando você aprende a perguntar: “o
que aqui precisa ser verdade?” e “como eu vou verificar?”
A pegadinha número 1: “texto bom” não é
“texto verdadeiro”
O nosso cérebro tem um defeito clássico:
quando algo é fluente, bem estruturado e cheio de detalhes, parece mais
confiável. A IA produz exatamente esse tipo de texto. Então, o risco real não é
só ela errar; é você engolir sem perceber. Por isso, uma regra prática
que funciona bem para iniciantes é: toda vez que houver um dado específico,
exija o caminho da verificação. Não basta “me diga X”. Melhor é: “me diga X
e mostre de onde veio, e se você não tiver certeza, sinalize a incerteza”.
Essa ideia de valorizar a humildade não é
só “bonita”; é técnica. A OpenAI descreve explicitamente que é preferível o
modelo indicar incerteza ou pedir esclarecimentos do que responder com
confiança algo possivelmente incorreto. Em sala, isso vira um treino: você não
está só “tirando resposta” da IA. Você está ensinando a IA (e a si mesmo) um
estilo de trabalho em que errar com segurança custa caro.
A pegadinha número 2: referência falsa e
fonte “que não existe”
Outra armadilha comum é a IA criar
referências com cara acadêmica: título, autores, ano, revista… só que você
tenta achar e não encontra. Quando isso acontecer, trate como sinal vermelho
imediato. Se a tarefa exige citação, você tem duas saídas responsáveis:
1. usar
a IA apenas para listar palavras-chave, autores prováveis e linhas de
investigação (e você busca as fontes reais);
2. pedir explicitamente: “só use fontes verificáveis; se não
conseguir, diga que não
encontrou”.
E mesmo quando ela dá um link, você
precisa abrir e ler. Não é raro a IA citar uma página que existe, mas não
contém o que ela diz que contém.
A pegadinha número 3: desinformação “sem
intenção”
Existe um tipo de erro que é mais perigoso
do que o erro simples: é aquele que cai como uma luva em crenças prévias. Se
você já “quer” que uma informação seja verdadeira, a IA pode entregar
exatamente isso com aparência de confirmação. A UNESCO, ao discutir IA
generativa em educação e pesquisa, chama atenção para a necessidade de
capacidade humana e institucional para validar ferramentas e respostas —
porque, sem validação, a tendência é normalizar informação frágil e decisões
ruins.
Em termos bem concretos: IA pode virar uma fábrica de “respostas bonitas” que, na prática, aumentam ruído, erros e até desinformação. Isso vale para escola, trabalho, marketing, atendimento, tudo.
O que fazer, então? Um protocolo simples
de qualidade
A maioria das pessoas usa IA como se fosse
“Google que conversa”. A proposta aqui é outra: usar como um assistente
dentro de um processo. A seguir, um protocolo fácil de ensinar e fácil de
cobrar do aluno:
1) Antes de perguntar: defina o tipo de
saída
Pergunte a si mesmo: você quer ideias,
texto pronto, explicação, checagem, plano ou decisão?
Quando você não define isso, a IA tende a “encher linguiça” e improvisar.
Exemplo:
Em vez de “Explique LGPD”, prefira:
“Explique LGPD para um iniciante em 10 linhas e, depois, liste 5 pontos que eu
devo checar em fontes oficiais.”
2) Peça premissas e limites
Uma frase que muda o jogo:
“Liste suas premissas e o que você não sabe com certeza.”
Isso força a resposta a ficar mais honesta
e te dá pontos de verificação.
3) Exija formato verificável
Quando o conteúdo envolve fatos, peça:
4) Faça a “checagem mínima obrigatória”
Em contexto educacional e profissional,
vale uma regra simples:
Esse tipo de postura é coerente com uma lógica de gestão de risco aplicada a sistemas de IA: você identifica onde o dano potencial é maior e cria controles. Isso é a alma de frameworks de risco como o NIST AI RMF, que trata risco de IA como
aplicada a sistemas de IA: você identifica onde o dano potencial é maior e cria controles. Isso é a alma de frameworks de risco como o NIST AI RMF, que trata risco de IA como algo a ser mapeado, medido e gerenciado, e não “confiado por fé”.
Como melhorar o prompt sem virar
“engenheiro de prompt”
Você não precisa de linguagem técnica.
Precisa de clareza. Um prompt bom, para evitar respostas perigosamente erradas,
costuma ter quatro ingredientes:
1. Papel:
“Atue como meu tutor / revisor / analista.”
2. Tarefa:
“Explique / gere / revise / liste.”
3. Restrições:
“Se não souber, diga que não sabe. Não invente fontes.”
4. Formato
de saída: “Em bullets / tabela / passo a passo.”
Exemplo prático para iniciantes:
“Atue como revisor crítico. Eu vou tomar
uma decisão com base nisso, então seja cuidadoso. Explique o conceito de
alucinação em IA generativa em linguagem simples e dê 3 exemplos. Depois crie
uma checklist de verificação em 6 itens. Se houver algo incerto, sinalize.”
Esse tipo de pedido conversa diretamente com a ideia de reduzir “chutes confiantes” e criar espaço para o “não sei”, que a pesquisa da OpenAI aponta como parte do problema e da solução.
Um cuidado extra: quando IA entra em
processos reais (trabalho e governo)
Quando você sai do “estudo” e vai para
“uso real”, os riscos aumentam porque os efeitos atingem outras pessoas. Por
isso, iniciativas institucionais tendem a reforçar boas práticas de uso
responsável. No Brasil, o governo federal divulgou uma cartilha para orientar o
uso de IA generativa no serviço público, justamente com a intenção de apoiar o
entendimento e o uso responsável dessas ferramentas, com orientações práticas.
O recado implícito é: se até em ambiente
público existe a preocupação formal com cuidado, transparência e
responsabilidade, numa escola/plataforma isso deveria ser padrão —
principalmente porque o aluno iniciante tende a confiar demais.
E tem um ponto que você não pode ignorar: privacidade e dados pessoais. Mesmo quando o foco da aula é “erros e alucinações”, a prática de checagem quase sempre envolve exemplos reais. Só que exemplos reais, se forem mal descritos, podem expor pessoas. A orientação da UNESCO enfatiza que instituições precisam estar preparadas, inclusive no que diz respeito a privacidade e validação dos usos.
Fechamento didático: o aluno maduro não é
o que “acerta sempre”; é o que “erra com controle”
No fim das contas, usar IA bem não é “tirar nota boa” na primeira resposta.
fim das contas, usar IA bem não é
“tirar nota boa” na primeira resposta. É criar um jeito de trabalhar em que
você:
Se o aluno sai desta aula com uma única
habilidade nova, que seja esta: transformar a IA em uma ferramenta auditável.
Em vez de “me responda”, ele aprende a pedir “me responda e me diga como eu
verifico”. Isso não só reduz erro: aumenta autonomia.
E, se você quiser levar isso para um padrão mais sério (acadêmico ou institucional), existe até recomendação explícita de boas práticas e declaração de uso de IA em textos e pesquisas, como aparece em guias brasileiros recentes voltados à ética e responsabilidade no uso de IA generativa.
Referências bibliográficas
Aula 3 — Primeiros prompts úteis para
iniciantes
Se você já testou uma IA generativa,
provavelmente aconteceu uma destas duas coisas: ou ela te respondeu algo tão
genérico que deu preguiça, ou ela te respondeu algo tão convincente que você
quase esqueceu que ela pode estar errando. Nesta aula, a ideia é bem prática: aprender
a pedir. Prompt não é uma palavra chique para “pergunta”. Prompt é o seu briefing.
E briefing ruim gera entrega ruim — simples assim. Os guias oficiais de uso de
IA batem sempre na mesma tecla: clareza, contexto e formato de saída fazem
diferença enorme na qualidade do resultado.
Uma boa forma de começar é abandonar a fantasia de que “a IA vai entender o que eu quis dizer”. Às vezes ela entende, mas isso é sorte. Quando você depende da sorte, você perde tempo corrigindo depois. O que funciona melhor, principalmente para iniciantes, é pensar na IA como alguém novo no time: rápida, prestativa, mas que
precisa de instruções
claras. Por isso, o primeiro hábito desta aula é: não peça “faça isso” —
peça “faça isso deste jeito, para este público, com este objetivo, neste
formato”. Guias de prompting da OpenAI e do Microsoft Copilot recomendam
exatamente isso: ser direto, especificar o que você quer e controlar o formato
do resultado.
Agora, sem burocracia: você não precisa
decorar fórmula, mas ajuda ter um “esqueleto” mental. Um prompt bem completo
costuma ter cinco partes (você usa todas quando precisar; não é obrigatório
usar sempre):
1) Papel (quem você quer que a IA seja)
“Você é um tutor”, “você é um revisor”, “você é um designer instrucional”,
“você é um atendente”.
2) Tarefa (o que fazer)
“Explique”, “reescreva”, “crie um roteiro”, “resuma”, “monte perguntas”,
“compare opções”.
3) Contexto (o cenário)
Quem é o público? Qual é o objetivo? O que já existe? Quais restrições?
4) Critérios/limites (o que evitar e o que
priorizar)
“Não invente dados”, “use linguagem simples”, “não use jargões”, “se estiver
incerto, sinalize”.
5) Formato de saída (como entregar)
“Em bullets”, “em tabela”, “em passos”, “com título e subtítulos”, “com
exemplos”.
Isso não é “engenharia de prompt”. É
comunicação decente. E é exatamente o tipo de orientação que aparece em guias
de boas práticas: dizer claramente o que você quer, dar contexto e pedir o
formato.
O salto de qualidade: de “me dá uma
resposta” para “me entrega um resultado usável”
Vamos pegar um exemplo comum de iniciante.
Percebeu? Você não ficou “técnico”. Você
só parou de ser vago. E quando você faz isso, a IA tende a virar uma ferramenta
de trabalho, não um gerador de blá-blá-blá. Guias do Google (Gemini) e da
OpenAI tratam prompting como um processo iterativo: você pede, avalia, ajusta e
refina.
Outra virada importante: pedir a primeira
versão e já pedir a revisão
Muita gente perde tempo porque pede um texto, não gosta, e começa do zero. Melhor é pedir a primeira versão com regras e depois mandar a IA “se revisar” com critérios. Isso aparece com força em guias de prompting como prática de iteração e
refinamento.
Exemplo prático para aula:
“Crie uma explicação curta sobre IA
generativa para iniciantes (120 a 160 palavras). Depois, revise o seu
próprio texto e melhore:
1. deixe
mais claro,
2. corte
repetição,
3. inclua
uma analogia simples,
4. evite
promessas exageradas.”
Esse tipo de prompt é ótimo porque ensina
o aluno a conduzir o processo: primeiro gerar, depois lapidar.
Quando você quer consistência: use
exemplos (sem complicar)
Existe um truque poderoso e fácil: mostrar
um exemplo do tipo de resposta que você quer. Isso pode ser um minimodelo
de 4 ou 5 linhas. Muita documentação de prompting recomenda esse caminho porque
ele reduz ambiguidade e aumenta consistência.
Exemplo para criar perguntas de quiz:
“Crie 6 questões de múltipla escolha sobre
IA generativa para iniciantes.
Formato obrigatório:
Aqui você está “ensinando o formato” antes
do conteúdo. Isso evita que a IA invente um estilo e te obrigue a reorganizar
tudo depois.
Um detalhe que salva reputação: peça para
sinalizar incerteza e não inventar fonte
Na aula 2 a gente falou de erros e
“alucinações”. Nesta aula, isso entra como uma cláusula simples dentro do
prompt. Se a tarefa envolver fatos (datas, leis, estatísticas), inclua algo
como:
“Se você não tiver certeza, diga que não tem certeza. Não invente números nem
referências.”
Esse tipo de orientação aparece em
materiais oficiais como parte do esforço para reduzir respostas erradas
apresentadas com confiança.
Exercício guiado da aula (para o aluno
sentir a diferença)
A proposta é fazer o aluno perceber, na
prática, como um prompt melhora.
1. Peça:
“Explique IA generativa.”
2. Depois
peça: “Explique IA generativa para alguém que nunca estudou tecnologia, em 10
linhas, com uma analogia do cotidiano e 1 exemplo de uso no trabalho.”
3. Depois
peça: “Agora faça a mesma explicação, mas para um gestor que quer reduzir
custos e tem medo de erros. Inclua 3 riscos e 3 boas práticas.”
O aluno vai ver claramente que “prompt
bom” não é “prompt longo”. É prompt direcionado.
Fechamento: um kit de prompts que o
iniciante leva pronto
Para terminar a aula, faz sentido entregar
um “kit” de comandos reaproveitáveis, porque isso dá autonomia:
A mensagem final para o iniciante é bem direta: o poder da IA aumenta quando você assume o volante. Se você sabe dar contexto, pedir formato, impor limites e iterar, você transforma uma ferramenta “legalzinha” em algo realmente útil para estudo e trabalho — sem depender de tentativa e erro infinito.
Referências bibliográficas
Estudo de caso do Módulo
1
“O curso que quase virou problema — e
virou referência”
A Escola Horizonte (uma plataforma de
cursos livres) decidiu lançar rápido um curso chamado “Introdução à IA
Generativa”. O coordenador, Daniel, queria aproveitar a onda. A equipe era
pequena: Marina (conteúdo), Caio (marketing), Júlia (atendimento) e um
professor convidado (Rafa).
Eles tinham 10 dias para subir a página,
gravar as aulas e criar materiais. O que poderia dar errado?
Tudo o que você viu no Módulo 1.
Cena 1 — O texto perfeito… e falso
Marina pediu à IA:
“Crie uma descrição persuasiva do curso e
inclua dados recentes mostrando que IA aumenta produtividade em 40%.”
A IA devolveu um texto lindo, com números,
“pesquisas” e até nomes de relatórios. Marina colou na landing page.
Dois dias depois, um aluno comentou
publicamente:
“De onde saiu esse 40%? Não achei essa pesquisa em lugar nenhum.”
Marina tentou encontrar a tal fonte. Não
existia. A IA tinha inventado.
Erro comum #1: confundir escrita fluida
com verdade
O problema real: estatística inventada + promessa exagerada = risco de reclamação (consumidor) e perda de
credibilidade.
Como evitar
Prompt melhor
“Crie uma descrição persuasiva do curso
para iniciantes. Não use números ou estatísticas se não puder citar fonte
verificável. Se não houver fonte, não invente. Destaque benefícios sem prometer
resultados garantidos.”
Checklist rápido
Cena 2 — O professor confiante… e a
alucinação didática
Rafa gravou a aula 1 explicando “o que é
IA generativa” e pediu ajuda para criar um exemplo técnico:
“Me dê um exemplo simples de como o modelo
‘pensa’ por trás.”
A IA descreveu um processo com termos
técnicos errados (misturou conceitos de treinamento, inferência e banco de
dados como se fossem a mesma coisa). Rafa, não sendo especialista profundo,
aceitou o texto porque “parecia certo”.
Quando o curso abriu, um aluno da área de
TI comentou:
“Isso aí está errado. Você está dizendo que o modelo consulta um banco interno
de frases. Não é assim.”
Erro comum #2: usar a IA como fonte final
sem revisão
O problema real:
a IA “alucina” explicações plausíveis, principalmente em assuntos técnicos.
Como evitar (na prática)
Prompt melhor
“Explique como um modelo de linguagem gera
respostas para iniciantes, mas:
1. liste
as simplificações que você está fazendo;
2. aponte
o que NÃO é verdade (ex.: ‘não é um banco de frases’);
3. dê
uma analogia do cotidiano.”
Estratégia didática
Cena 3 — A página do curso “prometeu
demais”
Caio, do marketing, queria conversão.
Pediu à IA:
“Crie 10 chamadas para anúncios, com
gatilhos de urgência e promessa forte.”
Saiu coisa do tipo:
A página ficou chamativa. Também ficou
perigosa.
Júlia, do atendimento, começou a receber
mensagens:
“Esse curso garante emprego?”
“Vou sair sabendo programar IA?”
“É reconhecido pelo MEC?”
Erro comum #3:
comum #3: confundir curso
introdutório com promessa de transformação
O problema real:
propaganda cria expectativa irreal → reembolso, reclamação, reputação
arranhada.
Como evitar (na prática)
Prompt melhor
“Escreva chamadas de anúncio para um curso
introdutório de IA generativa para iniciantes.
Regras: não prometer emprego/renda/garantia de resultado.
Mostrar claramente o nível (básico), o público e o que o aluno vai conseguir
fazer ao final (tarefas práticas).”
Ajuste essencial na landing page
Cena 4 — O prompt vago que vira conteúdo
genérico
Na correria, Marina pediu:
“Crie um roteiro de aula sobre prompts.”
A IA gerou uma aula “enciclopédia”: longa,
genérica, cheia de termos, sem exemplos reais do público da escola. Era o tipo
de aula que o aluno esquece no dia seguinte.
Erro comum #4: prompt vago → saída
genérica
O problema real:
o curso fica com “cara de internet”, não com cara de professor.
Como evitar (na prática)
Prompt melhor
“Crie um roteiro de 20 minutos para
iniciantes sobre como escrever bons prompts.
Público: adultos sem formação técnica.
Objetivo: aprender a pedir com clareza e evitar respostas genéricas.
Incluir: 3 exemplos (trabalho, estudo e vida pessoal), 1 exercício guiado e 1
checklist final.
Tom: humano, didático, sem jargões.”
Cena 5 — O erro silencioso: privacidade no
exemplo
Para criar atividades, alguém colou no
chat um caso real de aluno com nome, cidade e detalhes pessoais para “ficar
mais realista”. A IA respondeu… e o texto ficou salvo no histórico do time.
Não houve “processo”, mas poderia ter
dado.
Erro comum #5: usar dados reais
desnecessários
O problema real:
exposição de dados pessoais sem necessidade.
Como evitar (na prática)
Prompt melhor
“Vou descrever um caso de forma anonimizada. Crie uma atividade didática sem solicitar nem inferir dados pessoais. Caso: [descrição genérica].”
Virada: o que eles mudaram (e o curso deu
certo)
Depois
desses tropeços, Daniel impôs um
padrão simples para qualquer material feito com IA:
Protocolo IDEA (3 passos)
1. Briefing
claro (público, objetivo, formato, limites)
2. Saída
auditável (sem números sem fonte; sinalizar incerteza;
premissas)
3. Revisão
humana (checagem do que é factual + adequação do tom)
E colocou no final do Módulo 1 uma prática
obrigatória:
1. deixar
mais específica e útil
2. reduzir
risco (checagem, aviso de incerteza, fontes)
Resultado: menos reclamação, mais satisfação e menos “aluno iludido”.
Acesse materiais, apostilas e vídeos em mais de 3000 cursos, tudo isso gratuitamente!
Matricule-se AgoraAcesse materiais, apostilas e vídeos em mais de 3000 cursos, tudo isso gratuitamente!
Matricule-se Agora