Portal IDEA

Introdução à IA Generativa

INTRODUÇÃO À IA GENERATIVA

 

MÓDULO 3 — Qualidade, ética, privacidade e aplicação no mundo real

Aula 7 — Privacidade, LGPD e dados sensíveis (na prática)

 

Quando falamos de privacidade em IA generativa, a maioria pensa em “não vazar senha” e pronto. Só que o problema real costuma ser bem mais banal — e por isso mesmo mais perigoso: é o hábito de colar informações reais em prompts para “dar contexto”. Nome de aluno, CPF num print, conversa de WhatsApp, histórico de atendimento, detalhes de saúde, endereço, reclamações, notas, boletos, dados de pagamento… A pessoa nem percebe que está montando um pacote completo de identificação. E aí a IA vira o meio pelo qual uma organização entrega dados pessoais para fora do processo normal de proteção.

A LGPD existe justamente para enquadrar isso. A lei deixa claro que regula o tratamento de dados pessoais “inclusive nos meios digitais” por empresas e órgãos públicos, com o objetivo de proteger liberdade, privacidade e o desenvolvimento da pessoa. Ou seja: se você está coletando, usando, armazenando, compartilhando ou processando dados de alunos e clientes (e está), isso é um assunto de rotina — não de “jurídico quando der problema”.

O ponto central desta aula é bem direto: IA não é desculpa para relaxar com dados. Pelo contrário: como ela facilita copiar e colar, ela aumenta o risco de você tratar dado pessoal no impulso. Por isso, a competência que o aluno precisa aprender aqui não é decorar artigos da lei, e sim criar um comportamento automático de segurança: “o que eu estou prestes a colocar no prompt é necessário? isso identifica alguém? eu posso anonimizar sem perder o valor do exercício?”

Antes de falar de técnica, vamos alinhar o básico do vocabulário. Dado pessoal é qualquer informação que identifique ou possa identificar uma pessoa. Dado pessoal sensível é uma categoria mais delicada (em geral ligada a riscos maiores de discriminação e dano). Na prática pedagógica, isso aparece muito quando alguém quer dar “um caso real”: aluno com ansiedade, problema de saúde, situação familiar, questões de religião, etc. Mesmo quando a intenção é boa, o cuidado precisa ser maior, porque o estrago de um vazamento pode ser enorme. A LGPD trata dados sensíveis com regras mais rígidas e expectativas de proteção mais altas.

Agora vem a parte que muda o jogo: a IA quase nunca precisa do dado real. Ela precisa do tipo de situação, não do nome, não do documento, não do endereço. Se você quer que a IA ajude a escrever um

e-mail para um aluno, você pode dizer “um aluno iniciante”, “uma turma de adultos”, “um responsável financeiro”, “um professor parceiro”. Se você quer criar um exercício de atendimento, você pode descrever a reclamação sem incluir identificação. A maior parte do valor didático vem do contexto comunicacional e do objetivo, não da identidade de alguém.

O erro comum é acreditar que anonimizar é “trocar o nome”. Isso é fraco. Anonimizar bem é remover ou generalizar qualquer pista que permita reidentificação: cidade pequena, cargo específico, evento muito particular, combinação de idade + bairro + escola + data, prints com foto, número de matrícula, e por aí vai. E aqui vai um teste simples que funciona: se eu mostrasse esse prompt para um colega, ele conseguiria adivinhar quem é? Se sim, não está anonimizado.

Nesta aula, vale ensinar um “protocolo curto” que o aluno memorize e use sem drama:

1.     Minimização: coloque só o necessário para a tarefa.

2.     Desidentificação: remova nomes, números, localizações e prints; substitua por papéis (“aluno”, “responsável”, “professor”).

3.     Generalização: troque detalhes únicos por categorias (“uma cidade do interior”, “um aluno de 20 e poucos anos”).

4.     Checagem de sensibilidade: se envolve saúde, finanças, criança/adolescente ou situação familiar — trate como alto risco.

5.     Versão pedagógica: se ainda precisar de realismo, invente dados coerentes, mas falsos (e avise que é fictício).

Esse tipo de comportamento é ainda mais importante quando a equipe usa IA em processos reais. Em 2025, o governo federal lançou uma cartilha para orientar o uso responsável de IA generativa no serviço público, justamente reforçando cuidados práticos, ética e governança. O recado é claro: mesmo com boa intenção, uso sem regra vira vulnerabilidade.

Além de privacidade, existe outro ponto que costuma ser ignorado por iniciantes: papéis e responsabilidades. Quem decide “por que” e “como” os dados são tratados normalmente é o controlador; quem executa tratamento em nome de alguém pode ser operador. A ANPD publicou guia orientativo para ajudar a identificar esses papéis e esclarecer atribuições (inclusive em versões atualizadas). Em linguagem simples: se você usa uma plataforma de IA de terceiros, você precisa entender o mínimo do jogo — quem está assumindo quais responsabilidades, quais dados vão para onde, e quais medidas existem para reduzir risco.

E aqui entra um ponto didático essencial: privacidade não é só “não

colocar dado no prompt”. É também cuidar do depois. Onde esse conteúdo fica? Quem tem acesso? Isso vai parar em um material do curso, em um slide, em um PDF, em um fórum? A aula precisa treinar o aluno para pensar no ciclo completo: entrada → processamento → saída → armazenamento → compartilhamento. A maior parte das cagadas acontece na saída: alguém gera um texto com caso real e publica num material, ou manda num grupo, ou usa numa aula gravada.

Para fechar com algo bem prático, proponha um exercício que dá choque de realidade. Pegue um prompt ruim e transforme em um prompt seguro.

Prompt ruim (como muita gente faz):
“Crie uma resposta para a aluna Maria Silva, CPF XXX, de Belo Horizonte, que disse que está com depressão e quer cancelar o curso porque perdeu o emprego.”

Prompt seguro (como deveria ser):
“Crie uma resposta empática e objetiva para uma aluna (dados fictícios) que relata estar passando por um momento emocional difícil e quer cancelar o curso. Contexto: curso online, política de cancelamento existente, objetivo é orientar próximos passos e oferecer suporte sem aconselhamento médico. Regras: não solicitar dados pessoais; não dar orientação clínica; manter tom humano e respeitoso; oferecer canais oficiais de atendimento.”

Repare que o segundo prompt entrega o mesmo valor didático com risco muito menor. Ele também evita outro problema: IA não deve fazer papel de profissional de saúde, advogado ou consultor financeiro em situações sensíveis. Você pode orientar o processo (“como pedir cancelamento”, “como procurar suporte”), mas não pode transformar o chatbot em “terapeuta”. Em termos de qualidade e responsabilidade, isso é maturidade.

Se o aluno absorver esta aula, ele sai com um ganho que vale mais do que qualquer “dica de prompt”: ele aprende que privacidade é um hábito operacional, não um texto de política no rodapé do site. A IA generativa só vai ser uma aliada em educação e trabalho se a gente tratar dado pessoal com a seriedade devida — e isso começa no jeito como você escreve um simples prompt.

Referências bibliográficas

  • BRASIL. Lei nº 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais — LGPD). Diário Oficial da União, Brasília, 2018.
  • BRASIL. Senado Federal. Lei geral de proteção de dados pessoais: Lei n. 13.709/2018. Brasília: Senado Federal, Coordenação de Edições Técnicas, 2024.
  • AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS (ANPD). Guia orientativo para definição dos agentes de
  • orientativo para definição dos agentes de tratamento e do encarregado (atualizações e comunicados). Brasília: ANPD, 2022.
  • BRASIL. Ministério da Gestão e da Inovação em Serviços Públicos (MGI); SERPRO. Cartilha: Inteligência Artificial Generativa no Serviço Público. Brasília: MGI/SERPRO, 2025.


Aula 8 — Direitos autorais e uso correto de fontes (sem dor de cabeça)

 

Quando alguém começa a produzir material didático com IA generativa, acontece uma coisa curiosa: o conteúdo “aparece” tão rápido que dá vontade de acreditar que ele também está “liberado”. Não está. A velocidade engana. Você pode gerar um texto em segundos, mas os riscos continuam bem humanos e bem antigos: plágio, uso indevido de obras de terceiros, cópia disfarçada, citação mal feita, fontes inventadas e, no fim, o tipo de problema que destrói reputação de curso: aluno descobrindo que a apostila é só um recorte de internet.

A Lei de Direitos Autorais brasileira (Lei nº 9.610/1998) é clara em uma coisa essencial: existe proteção jurídica para obras intelectuais, e isso vale para textos, imagens, materiais didáticos, apostilas, slides, vídeos, músicas, ilustrações — tudo o que você normalmente usa (ou tem vontade de usar) em um curso. Isso significa que “copiar e colar” um trecho grande de um livro, reproduzir um artigo inteiro, ou montar uma apostila baseada em material de terceiros sem autorização não vira correto só porque foi a IA que fez a colagem.

O primeiro erro comum do iniciante é achar que o problema é só “copiar igual”. Na prática, o problema também pode ser “copiar quase igual”. Se você pega um texto de alguém, muda algumas palavras, reorganiza frases e mantém a estrutura e a ideia do jeito original, você não criou algo novo de verdade — só maquiagem. A IA facilita esse tipo de maquiagem porque reescrever é uma das coisas que ela faz muito bem. Então o cuidado aqui é simples e direto: reescrita não é sinônimo de autoria. Você só vira autor quando você realmente cria uma explicação com sua linha, seu exemplo, sua organização e sua intenção didática.

O segundo erro é usar IA como se ela fosse uma máquina de bibliografia confiável. Ela pode sugerir livros reais, mas também pode inventar referências com aparência acadêmica. Se você coloca numa apostila “segundo estudo X” e o aluno não acha o estudo, você perde credibilidade na hora. É por isso que, nesta aula, a orientação não é “nunca use IA para fontes”. É: use IA para te ajudar a procurar, mas não

para te ajudar a procurar, mas não para declarar como verdadeiro o que você não verificou.

A saída prática é trabalhar com um método de produção que separa três camadas: ideias, fontes e texto final.

1.     Ideias (IA ajuda muito): você pede estrutura, tópicos, analogias, exemplos de sala de aula, perguntas frequentes.

2.     Fontes (você valida): você escolhe livros, guias e documentos confiáveis.

3.     Texto final (você assina): você escreve de forma autoral, usando as fontes como base e citando quando necessário.

Aqui entra o que costuma ser o ponto mais chato para iniciantes, mas que salva o projeto: citar e referenciar direito. No Brasil, a ABNT tem normas para isso. A NBR 10520 orienta a apresentação de citações em documentos e ajuda a padronizar como você coloca citação direta e indireta no corpo do texto. Já a NBR 6023 orienta como montar a lista de referências no final do material — o “RG” das suas fontes. Não é frescura: referência bem feita permite que qualquer pessoa confira o que você usou e reduz a chance de você parecer “inventado” ou descuidado.

Agora, vamos para o lado prático: o que você pode (e deve) fazer ao usar IA para produzir material didático sem se colocar em risco?

1) Use IA para estrutura, não para “copiar conteúdo de terceiros”
Peça: “crie um roteiro de aula”, “monte um sumário”, “gere 10 exemplos”, “crie atividades e perguntas”. Isso é ótimo porque estrutura não é “obra alheia”. O risco começa quando você pede: “resuma o capítulo 3 do livro X para virar minha apostila”. Aí você está usando a IA como copiadora. E copiadora é copiadora, com ou sem inteligência.

2) Quando usar fonte, use como fonte de verdade: leia e transforme
Se você baseou um trecho em um texto específico, você tem duas opções honestas:

  • citar e referenciar (quando a ideia é do autor);
  • ou transformar profundamente: criar uma explicação nova, com analogia própria, exemplo seu, e organização diferente — e mesmo assim, quando a ideia central é claramente de um autor, é elegante e seguro reconhecer.

3) Nunca peça “faça um texto no estilo do autor X” para material do curso
Mesmo quando isso não vira uma cópia literal, pode virar um resultado que parece “derivado” demais. E, didaticamente, ainda te empurra para um texto com cara de pastiche. Melhor: “escreva de forma didática, simples, com exemplos brasileiros, tom professoral”.

4) Crie um hábito editorial: tudo que é “afirmação factual” precisa de lastro
Se você afirma algo

objetivo (definição técnica, característica legal, dado histórico), você tem que conseguir apontar de onde veio. Isso vale dobrado em educação, porque o aluno aprende pelo seu material. Não dá para ensinar “checagem” e entregar texto sem checagem.

5) Defina uma regra para a equipe: IA pode ajudar, mas não pode ser a fonte final
Em instituições de ensino, esse cuidado aparece como recomendação internacional: a UNESCO discute a necessidade de orientar o uso da IA generativa com governança, inclusive por riscos ligados a conhecimento, ensino, avaliação e implicações de longo prazo. Traduzindo para o chão da escola: “se não dá para sustentar com fonte e revisão humana, não publica”.

Um ponto que ajuda muito o aluno iniciante é entender a diferença entre citação direta e citação indireta (paráfrase). Citação direta é copiar exatamente um trecho e colocar aspas (ou formatação própria), respeitando as regras. Citação indireta é explicar com suas palavras a ideia de alguém, citando a fonte mesmo assim. A NBR 10520 organiza esses usos e mostra por que isso dá credibilidade e rastreabilidade ao texto. Já a NBR 6023 fecha o ciclo: tudo que você citou precisa aparecer direitinho na lista final de referências.

Para encerrar a aula com um exercício que realmente muda comportamento, faça o aluno pegar um texto gerado por IA e “torná-lo publicável”. O passo a passo é:

1.     Identificar frases que parecem “verdade absoluta” (onde seria fácil a IA inventar).

2.     Trocar essas frases por formulações honestas (“em geral”, “costuma”, “depende”) ou buscar fonte real.

3.     Inserir uma ou duas referências confiáveis (livro, guia institucional, lei) e ajustar a escrita para ficar autoral.

4.     Passar um pente fino: remover clichês e promessas, incluir exemplo do cotidiano do aluno.

A grande lição é bem simples: IA acelera produção, mas não substitui autoria e responsabilidade. Se você usar IA como ferramenta de escrita e organização, você ganha produtividade sem comprometer ética. Se você usar IA como máquina de copiar e parecer erudito, você compra risco — e cedo ou tarde alguém percebe.

Referências bibliográficas

  • BRASIL. Lei nº 9.610, de 19 de fevereiro de 1998. Altera, atualiza e consolida a legislação sobre direitos autorais e dá outras providências. Diário Oficial da União, Brasília, 1998.
  • ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. ABNT NBR 10520: Informação e documentação — Citações em documentos — Apresentação. Rio de Janeiro:
  • ABNT, 2002.
  • ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. ABNT NBR 6023: Informação e documentação — Referências — Elaboração. Rio de Janeiro: ABNT, 2018.
  • UNESCO. Guia para a IA generativa na educação e na pesquisa. Paris: UNESCO, 2023.


Aula 9 — Construindo um projeto final: do problema ao prompt e ao processo

 

A esta altura do curso, você já entendeu duas verdades que muita gente ignora: a IA generativa acelera trabalho, mas não garante verdade; e “saber usar” não é só saber pedir, é saber controlar o resultado. Então a aula 9 é o ponto em que a brincadeira vira método. A ideia é sair do uso por impulso (“faz aí pra mim”) e entrar num jeito de trabalhar em que você consegue repetir, melhorar e auditar o que foi feito. É aqui que você para de ser usuário curioso e vira alguém que realmente sabe aplicar IA no mundo real — sem depender de sorte.

A primeira etapa do projeto final é escolher um problema que exista de verdade. Não precisa ser grandioso. Na prática, os melhores projetos de iniciante são aqueles que resolvem dor concreta: um FAQ que vive desatualizado, um roteiro de aula que sempre sai confuso, um e-mail de boas-vindas que ninguém lê, um roteiro de atendimento que cada pessoa faz de um jeito. Quanto mais real, melhor, porque você consegue medir se ficou bom. E medir é a palavra-chave desta aula.

Depois de escolher o problema, vem a pergunta que separa projeto de “texto bonito”: qual é a saída que eu quero no final? “Um texto” é vago. “Um FAQ com 12 perguntas e respostas curtas, organizado por tema, com aviso de limites e linguagem de iniciante” já é um produto. Quando você define o formato final, você dá direção para a IA e para você mesmo. Esse tipo de clareza é justamente o que aparece em guias de boas práticas de prompting: instruções específicas, contexto e formato de saída aumentam muito a chance de obter um resultado útil.

Com o produto definido, você monta um briefing curto — e aqui vale ser honesto: briefing curto não é briefing pobre. É briefing que só tem o que importa. Em geral, quatro itens resolvem: (1) público, (2) objetivo, (3) restrições, (4) estilo/forma. E restrições aqui não são “frescura”; são proteção. Por exemplo: “não inventar dados”, “se houver dúvida, sinalizar”, “não usar dados pessoais”, “não prometer resultados garantidos”. É o tipo de regra que faz seu projeto ser publicável, não só gerável.

Aí sim você escreve o Prompt v1. E o segredo do v1 é aceitar que ele é rascunho. Muita gente se

irrita porque quer acertar na primeira. Só que a vida real não funciona assim nem quando você escreve sozinho: você rascunha, ajusta, melhora. Com IA é igual — só que mais rápido. Em boas práticas, isso aparece como iteração: pedir, avaliar, refinar.

Agora vem a parte que dá maturidade: você não pede só “gere”. Você pede também “me ajude a avaliar”. Um passo simples e poderoso é pedir uma autocrítica estruturada: “apresente o resultado e depois liste pontos fracos, riscos e o que você precisou assumir”. Isso força a saída a ficar mais honesta e já te entrega uma lista de melhorias. E é aqui que o aluno começa a entender o que significa ter um processo e não só um prompt.

Na sequência, você cria um checklist de qualidade específico para o seu projeto. Checklist genérico ajuda, mas checklist específico transforma. Por exemplo, para um FAQ de curso, seu checklist pode incluir: linguagem acessível, respostas curtas, termos explicados, ausência de números sem fonte, coerência com política da escola, tom humano, e um bloco de “o curso não é”. Para um roteiro de aula, pode incluir: abertura com objetivo, exemplo prático, exercício guiado, recapitulação, e aviso de limitações. Isso conversa diretamente com a lógica de gestão de risco: mapear riscos, medir, gerenciar e governar. O NIST propõe exatamente essa mentalidade para sistemas de IA ao longo do ciclo de vida (mesmo quando você não está “programando IA”, você está usando IA num processo).

Com checklist em mãos, você faz o Prompt v2. Aqui você corrige os defeitos do v1 de forma objetiva, sem drama: “corte 30%”, “troque jargões por exemplos”, “adicione 3 situações reais”, “remova promessas”, “inclua um aviso de verificação para fatos”. E então você repete o ciclo até chegar num resultado que passa no checklist. Esse é o ponto: o aluno sai desta aula sabendo construir qualidade por método, não por inspiração.

Só que no módulo 3 existe um cuidado que você não pode ignorar no projeto final: privacidade e dados. Se o projeto envolve exemplos reais (alunos, clientes, atendimentos), você precisa trabalhar com minimização e anonimização. Além disso, em organizações, é importante entender responsabilidades básicas de tratamento de dados (controlador, operador, encarregado), e a ANPD publica material orientativo para ajudar a definir esses papéis e evitar confusão operacional. Não é para virar jurista; é para parar de agir como se dado pessoal fosse detalhe.

Outro ponto crítico é o uso responsável em educação.

Quando você usa IA para produzir material didático, você não está só “criando conteúdo”: você está influenciando aprendizagem, avaliação e comportamento. A UNESCO insiste que instituições precisam orientar o uso de IA generativa para proteger a agência humana e gerar benefícios reais, considerando implicações para ensino, aprendizagem e avaliação. Em português claro: não dá para entregar material que parece bom, mas ensina errado, distorce, ou passa confiança onde deveria passar cautela.

Para fechar a aula, o ideal é que o aluno entregue um pacote final simples, mas completo, que prove que ele domina processo:

1.     Brief do problema (público, objetivo, limites, formato).

2.     Prompt v1 + resultado.

3.     Avaliação (checklist + autocrítica + riscos).

4.     Prompt v2 + resultado final.

5.     Checklist final (o “padrão da casa” para repetir depois).

Se você reparar, isso é quase um “minissistema”: uma entrada bem definida, uma produção controlada e uma validação antes de publicar. É assim que IA vira ferramenta profissional. Sem isso, você só está produzindo texto e imagem em alta velocidade — e alta velocidade sem controle é só uma forma eficiente de errar.

Referências bibliográficas

  • UNESCO. Guia para a IA generativa na educação e na pesquisa. Paris: UNESCO, 2023.
  • NIST. Estrutura de Gestão de Riscos de Inteligência Artificial (AI Risk Management Framework — AI RMF 1.0). Gaithersburg: National Institute of Standards and Technology, 2023.
  • OPENAI. Melhores práticas de engenharia de prompts para o ChatGPT. OpenAI (Central de Ajuda), s.d.
  • ANPD. Guia orientativo para definições dos agentes de tratamento de dados pessoais e do encarregado. Brasília: Autoridade Nacional de Proteção de Dados, 2024–2025 (atualizações).
  • BRASIL. Lei nº 13.709, de 14 de agosto de 2018 (Lei Geral de Proteção de Dados Pessoais — LGPD). Diário Oficial da União, Brasília, 2018.

Estudo de caso do Módulo 3

 

“O curso que deu ‘quase certo’ — até aparecerem o e-mail do advogado e a denúncia de plágio”

A Escola Livre NovaTrilha tinha uma meta simples: profissionalizar o uso de IA no curso e “virar referência”. O módulo 3 ia ser o diferencial: privacidade, LGPD, direitos autorais e projeto final bem feito. Só que a equipe caiu na armadilha clássica: tratou governança como “burocracia” e deixou para o final.

O time era assim:

  • Carla (coordenação pedagógica),
  • Igor (conteúdo),
  • Bia (marketing),
  • Renato (suporte),
  • e um professor convidado, Fábio.

A pressa era real. E foi exatamente a pressa que abriu as brechas.

Cena 1 — “Só um exemplo real” (e vazou dado pessoal)

Para deixar as aulas mais “humanas”, Igor colou no chat um caso real de um aluno que pediu cancelamento. Ele colocou nome, cidade, detalhes da reclamação e um pedaço do histórico de atendimento. A IA gerou uma resposta bonita, e ele ainda aproveitou a resposta como exemplo na aula gravada.

Uma semana depois, o aluno reconheceu a situação (mesmo com nome trocado no vídeo, os detalhes eram óbvios) e reclamou formalmente.

Erro comum #1: anonimização fraca (trocar nome não resolve)

Impacto real: exposição desnecessária + risco LGPD + dano reputacional.

Como evitar (prático, sem teatrinho)

  • Minimização: colocar no prompt só o necessário para a tarefa.
  • Desidentificação real: remover qualquer combinação que permita reidentificar (cidade pequena, data, cargo, evento específico).
  • Exemplos fictícios: quando o objetivo é didático, invente um caso “típico” em vez de usar um caso real.

Padrão que funciona

“Vou descrever um caso fictício e anonimizado. Não peça nem gere dados pessoais. Crie uma resposta empática, objetiva e alinhada a uma política de cancelamento.”

Base legal e referência de governança: a LGPD regula tratamento de dados pessoais em meios digitais e exige cuidado com finalidade e necessidade (minimização).

Cena 2 — O “manual de privacidade” que não valia nada

Carla pediu para a IA “criar uma política de privacidade” para colocar na plataforma. A IA devolveu um texto genérico e cheio de frases bonitas. Ela publicou sem revisão.

Quando o problema do aluno apareceu, perceberam o óbvio: o texto não explicava o que era feito na prática, não tinha procedimento interno, nem definia papéis e responsabilidades.

Erro comum #2: política de prateleira (bonita, inútil)

Impacto real: na hora do problema, ninguém sabe o que fazer.

Como evitar

  • Separar documento em duas camadas:

1.     Política pública (para alunos),

2.     Procedimento interno (quem faz o quê, prazos, fluxo de resposta, registro).

  • Definir papéis (controlador/operador/encarregado) e como o time aciona o encarregado.

A ANPD tem guia orientativo justamente para ajudar a definir agentes de tratamento e encarregado, e ele foi atualizado em 23/01/2025.

Cena 3 — A apostila “original” … que era só reescrita (e deu plágio)

Para ganhar tempo, Igor pediu:

“Resuma e

reescreva os principais capítulos de um livro famoso sobre IA para virar apostila.”

A IA reescreveu bem. Ficou com cara de texto novo. Mas o encadeamento e vários trechos eram reconhecíveis.

Um professor universitário que comprou o curso identificou a fonte e mandou mensagem: “isso é derivado demais, parece plágio por paráfrase”. Em seguida, veio uma notificação extrajudicial.

Erro comum #3: achar que “reescrever” vira autoria

Impacto real: risco jurídico + reputação destruída (“apostila copiada”).

Como evitar

  • IA pode ajudar em estrutura e didatização (sumário, analogias, exercícios), mas a base precisa ser:
    • texto autoral, ou
    • conteúdo licenciado, ou
    • citações curtas e justificadas, com referência.
  • Se a ideia é de alguém, cite. Se o texto é de alguém, não copie.

Base legal: a Lei 9.610/1998 regula direitos autorais no Brasil.

Cena 4 — Marketing criou “endosso” sem querer

Bia mandou a IA gerar banners e colocou um selo improvisado “compatível com [marca famosa]” para “passar autoridade”. Também colocou logotipos de ferramentas de IA como se fossem parceiros do curso.

Alunos começaram a perguntar: “Vocês têm parceria com essas empresas?” — e isso é o tipo de confusão que vira dor de cabeça rápido.

Erro comum #4: uso de marca como decoração / aparência de parceria

Impacto real: confusão do consumidor + risco de notificação + perda de confiança.

Como evitar

  • Regra editorial: sem logos de terceiros em peças do curso, a menos que haja autorização formal.
  • Em aula, pode citar ferramentas; em marketing, evite qualquer coisa que pareça endosso.

Cena 5 — Projeto final “bonito” e impossível de repetir

Fábio pediu aos alunos um projeto final, mas a própria equipe não tinha um padrão. Cada tutor corrigia de um jeito. Um aluno reclamou: “meu colega fez parecido e recebeu nota diferente”.

Erro comum #5: sem rubrica e sem checklist de qualidade

Impacto real: injustiça percebida + suporte + desgaste.

Como evitar

  • Definir rubrica objetiva (critérios + níveis) e checklist:
    • clareza do briefing,
    • prompt v1/v2,
    • validação de fatos,
    • privacidade,
    • direitos autorais,
    • qualidade final e aplicabilidade.

A UNESCO recomenda que instituições orientem o uso de IA generativa com foco em agência humana e impactos em ensino/avaliação — exatamente o que faltou aqui.

A virada: o que eles implementaram para parar de passar vergonha

Depois dos incidentes, Carla criou um padrão simples

epois dos incidentes, Carla criou um padrão simples e obrigatório para qualquer uso de IA no curso.

Protocolo “3P + 2C” (curto, mas sério)

3P

1.     Propósito: por que estamos usando IA aqui? (valor real, não preguiça)

2.     Privacidade: tem dado pessoal? se tiver, reescreve/anonimiza ou não usa

3.     Propriedade intelectual: isso é autoral? tem licença? precisa citar?

2C
4) Checagem: fatos e promessas foram verificados?
5) Consistência: tom, política da escola, avaliação e rubrica estão alinhados?

E colocaram um “pare” automático:

  • Se tiver dado sensível → só com caso fictício.
  • Se tiver estatística/lei → só com fonte verificada.
  • Se tiver material de terceiros → só com licença ou citação curta + referência.

Eles também se basearam em orientações públicas sobre uso responsável de IA, como a cartilha lançada pelo governo para orientar práticas seguras e éticas (mesmo sendo para serviço público, a lógica de cuidado e governança é aplicável).

Quer acesso gratuito a mais materiais como este?

Acesse materiais, apostilas e vídeos em mais de 3000 cursos, tudo isso gratuitamente!

Matricule-se Agora