
Por Marcelo Moreira, especial para o ATUAL
MANAUS – O estudante da Ufam (Universidade Federal do Amazonas) Elissandro Fernandes, de 25 anos, usava a IAG (inteligência artificial generativa) até para as tarefas mais simples na faculdade, até perceber que estava perdendo autonomia.
“Acredito que a IA pode, de certa forma, ‘sabotar’ o cérebro e o senso crítico do estudante, principalmente quando é usada de maneira excessiva. Já me senti assim quando eu recorria à IA para praticamente tudo”, conta Elissandro.
A estudante da UNIFAP (Universidade Federal do Amapá) Rafaela Silveira, de 21 anos, também reduziu o uso da tecnologia ao perceber a dependência. “Eu visualizei um problema. Não conseguia mais fazer as coisas sozinha, caso eu tivesse inteligência artificial comigo. Eu falei ‘opa! E se eu não tivesse ela comigo?’ Simplesmente deixei a inteligência artificial de lado e voltei para os meus livros”, disse Rafaela.
Em apenas alguns segundos, as plataformas de IAG, como ChatGPT, Gemini e Microsoft Copilot, produzem ideias, textos, trabalhos acadêmicos e uma variedade de tarefas com base em informações que recebem quando são treinadas. O uso da ferramenta na sala de aula tem gerado desafios no ambiente de aprendizagem. O problema ocorre quando os estudantes substituem a própria capacidade de pensar, interpretar e elaborar ideias pelos conteúdos obtidos automaticamente por esse tipo de IA.
Empobrecimento da leitura
“A IA tem isso usada não como ferramenta de apoio, mas como algo para substituir o trabalho. Também tem empobrecido a capacidade de leitura e a interpretação de texto, de produção textual e também de revisão, que são fundamentais para serem feitas diretamente pelas pessoas. Essa substituição empobrece a pessoa e o resultado final”, afirma Hélder Mourão, professor da Universidade Federal do Amazonas.
Mourão destaca que, se usadas sem compromisso com o aprendizado, as plataformas podem gerar dependência pela facilidade com que reproduzem qualquer tipo de conteúdo. Diz, ainda, que falta capacitação para a comunidade acadêmica sobre o uso de IA na sala de aula e que as universidades tentam organizar protocolos de verificação para saber se as tarefas estão sendo feitas por plataformas digitais. São medidas que buscam evitar danos ao desenvolvimento crítico dos estudantes.
Um estudo da OpenAI, empresa responsável pelo ChatGPT, revelou que em 2025 a plataforma recebeu cerca de 140 milhões de mensagens de brasileiros por dia. Para muita gente, recorrer à IA se tornou um hábito que gera impactos diretos na produtividade das empresas e na forma de aprendizado no ambiente acadêmico. Segundo a ANDIFES (Associação Nacional dos Dirigentes das Instituições Federais de Ensino Superior), quatro em cada dez universidades federais produziram guias ou fizeram debates sobre o uso de IA no ensino superior.
O debate levou o CNE (Conselho Nacional de Educação) a colocar em pauta a regulamentação de IA no ensino brasileiro. Entre as propostas a serem discutidas, estão: a criação de regras mais rígidas para garantir transparência no uso da ferramenta; a preparação dos estudantes do ensino superior para lidar com robôs em análise de dados; e a inclusão da IA no aprendizado por meio de letramento digital.
Em março, o Ministério da Educação publicou um referencial com orientações para as instituições da educação básica sobre o tema, entendendo que o estudante pode saber quando ter o apoio da IA desde o ensino fundamental. Para o ensino superior, o CNPq (Centro Nacional de Desenvolvimento Científico e Tecnológico) lançou a nova Política de Integridade na Atividade Científica, estabelecendo que o uso de IA nos trabalhos acadêmicos seja declarado, sob pena de sanções, como a suspensão ou perda da bolsa de pesquisa.

Efeitos práticos
O professor da UFPA (Universidade Federal do Pará) Leonardo Zenha, que coordena um grupo de trabalho sobre o assunto na ANPED (Associação Nacional de Pós-Graduação e Pesquisa em Educação), explica que as medidas de regulamentação são recentes e que ainda devem gerar efeitos na prática.
“Existe uma série de documentos que estão sendo publicados e que demandam um pouco de tempo para que esse material seja discutido no espaço formativo para pensar a ética e outras questões. A inteligência artificial tem todo um mecanismo, com dados, algoritmos, e, ao mesmo tempo, tem lobby de empresas, toda uma estrutura gigantesca de treinamento para pensar por trás desse processo”, disse o professor.
Apoio acadêmico
A comunidade acadêmica defende que a IA generativa sempre seja usada como apoio para tirar dúvidas, poupar tempo na organização de estudos e sugerir ideias, mas que jamais substitua a capacidade intelectual dos estudantes e professores. É dessa forma que o estudante João Felipe Chaves, de 26 anos, usa a ferramenta. Ele cursa o sétimo período de direito em uma faculdade privada de Porto Velho (RO),
“Eu aprendo montando o trabalho na IA. Mas não deixo a opinião da IA me influenciar. Ela tem uma opinião generativa e aleatória. Acho difícil a IA ‘sabotar’ quem já desenvolveu um senso crítico. Ela é uma ferramenta e o uso dela deve ser muito mais consciente. Acho que os professores poderiam passar trabalhos mais complexos em que apenas usando a IA os estudantes não conseguiriam desenvolver”, disse João Felipe.
O professor da UFRR (Universidade Federal de Roraima) Timóteo Camargo César desenvolveu um estudo sobre a ética no uso da inteligência artificial e explica que o maior desafio é usar a tecnologia de uma maneira que não prejudique o aprendizado. Por isso, Timóteo, que é professor de redação jornalística, propôs aos alunos um antigo método de produção textual em sala de aula: escrita com papel e caneta.
“Esse lugar do erro no aprendizado está sendo forçado por meio de uma ferramenta rudimentar, que é a escrita caligráfica. O que é necessário é criar estratégias para que seja alcançado o aprendizado formal das disciplinas e ensinar o uso das ferramentas digitais. O aluno precisa dominar o uso da IA. Ele não pode ser refém da ferramenta. Deve ser uma relação produtiva, não restritiva”, disse Timóteo.
Em nota, a ABMES (Associação Brasileira de Mantenedoras de Ensino Superior) declarou que em mais de 70% das instituições privadas de educação superior, a inteligência artificial tem sido uma ferramenta de suporte à aprendizagem e que existem ferramentas disponíveis, mas ainda com limitações técnicas, que ajudam o professor a identificar se o aluno usou a IA generativa no trabalho acadêmico.
A ABMES afirmou, ainda, que o foco das instituições tem sido menos na fiscalização e mais na revisão de práticas pedagógicas e avaliativas, com ênfase em autoria, pensamento crítico e integridade acadêmica, e que o avanço da inteligência artificial deve ser acompanhado por um debate responsável, alinhado às diretrizes de qualidade da educação superior.




