A Inteligência Artificial na Educação: Alerta MIT e Caminhos para Uso Ético

Por :

  • Dra Zilda Maria A. Matheus

Resumo
Este ensaio examina criticamente os resultados preliminares do estudo do MIT Media Lab sobre os efeitos cognitivos do uso do Chat GPT, refletindo sobre seus limites metodológicos e o sensacionalismo midiático subsequente. Em seguida, apresenta iniciativas institucionais , as diretrizes, formação docente bem como os projetos de alfabetização digital, que visam garantir o uso ético, reflexivo e pedagógico da IA. Quanto à fundamentação teórica, inclui Vygotsky, Freire, Papert, Turkle e Haraway, argumentando que a IA deve servir à construção da autonomia intelectual, e não à sua substituição. O texto propõe uma mediação crítica e ética como alternativa concreta ao alarmismo.
Palavras-chave: Inteligência Artificial. Educação Crítica. Cognição. Ética. ChatGPT.

1. O Estudo do MIT: Entre Alerta e Diagnóstico Preliminar

Em junho de 2025, o MIT Media Lab divulgou o pré-print do estudo Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task, no qual 54 participantes realizaram tarefas de redação com ou sem assistência de inteligência artificial, sendo monitorados por eletroencefalografia (EEG) durante o processo (KOSMYNA et al., 2025, p. 3). Os resultados preliminares indicaram que o uso do ChatGPT esteve associado à redução da atividade cerebral em regiões envolvidas com criatividade, atenção sustentada e tomada de decisão (p. 7). Além dos dados neurofisiológicos, os participantes relataram menor sensação de autoria sobre os textos produzidos e menor envolvimento cognitivo durante a tarefa, especialmente quando comparados à escrita independente (p. 10).
Um aspecto particularmente relevante foi a constatação de que, após o uso contínuo da IA, os indivíduos demonstraram dificuldades para retomar padrões anteriores de escrita autônoma, mesmo quando a ferramenta foi retirada (p. 12). Essa observação levou os autores a sugerirem o conceito de “dívida cognitiva acumulada”, isto é, um possível enfraquecimento temporário da capacidade autorreflexiva decorrente da dependência de soluções automatizadas.
Contudo, os próprios autores reconhecem importantes limitações em seu experimento. A amostra total foi restrita (n = 54), e a fase de crossover — aquela que permitiria observar reversões de comportamento cognitivo — contou com apenas 18 participantes. Além disso, o estudo não realizou acompanhamento longitudinal, o que impossibilita inferências sólidas sobre a duração ou reversibilidade dos efeitos observados. Também não se considerou a presença de mediação docente nem os contextos pedagógicos reais, nos quais a IA costuma ser usada com propósitos educativos definidos.

2. Crítica ao Sensacionalismo Midiático

A recepção pública ao estudo do MIT foi marcada por interpretações distorcidas e, em muitos casos, sensacionalistas. Veículos de grande circulação, como a revista Time e o jornal The Times, divulgaram manchetes alarmantes como “ChatGPT está atrofiando nossos cérebros” (Time, 2025) ou “Usar IA pode te deixar burro” (The Times, 2025), desconsiderando nuances metodológicas essenciais da pesquisa original. Esses títulos, embora eficazes para atrair cliques e atenção pública, simplificam indevidamente os achados e reforçam uma visão tecnofóbica que obscurece a complexidade do fenômeno investigado.
Em primeiro lugar, é importante destacar que o artigo ainda se encontra em fase de pré-publicação (preprint) e não passou pelo processo de revisão por pares, o que significa que seus resultados não foram validados por especialistas independentes da área. Em segundo lugar, o estudo foi conduzido em ambiente experimental altamente controlado, sem qualquer inserção em contextos pedagógicos reais, nos quais práticas de ensino mediadas por IA costumam ocorrer com intencionalidade formativa, orientação docente e critérios éticos previamente estabelecidos.
Adicionalmente, nenhum dos efeitos relatados foi testado ou validado em situações de aprendizagem supervisionada, o que impede extrapolações legítimas para o campo da educação formal. A ausência de acompanhamento longitudinal e a inexistência de análise qualitativa sobre os sentidos atribuídos pelos participantes ao uso da IA tornam ainda mais arriscada qualquer tentativa de generalização dos dados como verdade científica consolidada.
Como observa Selwyn (2021), “não é a tecnologia que determina seus efeitos educacionais, mas a forma como ela é introduzida, mediada e integrada ao currículo” (p. 44). O problema, portanto, não reside necessariamente na presença da inteligência artificial, mas na ausência de uma pedagogia crítica que oriente seu uso de modo responsável. Reduzir a discussão à demonização da IA ignora os inúmeros esforços institucionais e educativos que buscam exatamente o oposto: transformá-la em ferramenta de promoção da reflexão, da autoria e da autonomia intelectual.

3. Caminhos Institucionais: Do Alarme à Responsabilidade Pedagógica

Diante das interpretações alarmistas geradas por estudos preliminares sobre os efeitos do uso de inteligência artificial na cognição, diversas instituições de ensino e pesquisa têm respondido com propostas pedagógicas concretas, orientadas por princípios éticos, críticos e formativos. O próprio Massachusetts Institute of Technology (MIT), centro responsável pela pesquisa que deu origem à onda de preocupações, publicou, em abril de 2024, o documento Ethics and AI-powered Learning and Assessment, no qual propõe diretrizes específicas para a integração segura e reflexiva da IA em ambientes educacionais. Entre os principais pontos, recomenda-se que a IA não seja tratada como substituta da reflexão humana, mas como ferramenta auxiliar, capaz de apoiar processos formativos quando inserida em atividades que estimulem o pensamento comparativo e a revisão crítica. O documento enfatiza a importância de tarefas que confrontem produções humanas com textos gerados por IA, promovendo assim uma postura analítica dos estudantes sobre autoria, confiabilidade e responsabilidade epistêmica (MIT, 2024, p. 5–6).
Nesse mesmo contexto, a iniciativa RAISE (Responsible AI for Social Empowerment and Education), também coordenada pelo MIT, tem atuado de forma proativa na formação de uma cultura educacional crítica em relação à inteligência artificial. O programa visa promover a alfabetização digital com foco em justiça social, formando jovens usuários conscientes e professores preparados para atuar como mediadores éticos no uso das tecnologias emergentes. Uma das ações de destaque foi a realização do Festival of Learning, evento que reuniu docentes, pesquisadores e estudantes para compartilhar experiências inovadoras com o uso do ChatGPT em sala de aula. As atividades incluíram práticas de escrita assistida com posterior revisão crítica, exercícios metacognitivos sobre autoria textual e oficinas para identificação de viés algorítmico, reforçando a ideia de que o uso educacional da IA deve ser acompanhado por orientação deliberada e intencionalidade pedagógica clara (RAISE, 2024).
Complementando essas iniciativas, a produção científica recente tem evidenciado que o uso responsável da IA pode, de fato, contribuir para a melhoria da aprendizagem, desde que articulado a práticas docentes bem fundamentadas. A meta-análise conduzida por Wang e Fan (2025), publicada na revista Palgrave Communications, reuniu dados de 51 estudos realizados entre 2022 e 2024, envolvendo mais de 8 mil estudantes de diferentes níveis educacionais. Os resultados apontaram um impacto positivo expressivo no desempenho acadêmico (g = 0,867), bem como efeitos moderados no desenvolvimento de habilidades cognitivas superiores, como raciocínio analítico e resolução de problemas (g ≈ 0,457). Esses achados reforçam a tese de que a inteligência artificial, quando inserida em práticas educacionais mediadas, pode atuar como catalisador do pensamento e não como obstáculo.
De forma semelhante, a revisão sistemática realizada por Heung e Chiu (2025), publicada na Computers & Education: Artificial Intelligence, analisou 17 estudos empíricos com amostras diversificadas, totalizando 1.735 participantes. Os autores verificaram que, em contextos educacionais estruturados, o uso do ChatGPT esteve associado a aumentos significativos nos níveis de engajamento emocional, comportamental e cognitivo dos estudantes. Contudo, o estudo ressalta que tais benefícios não são automáticos: eles dependem fortemente da presença de objetivos pedagógicos bem definidos, da mediação crítica do professor e da construção de um ambiente de aprendizagem que favoreça a autoria, a reflexão e a ética no uso das tecnologias.
Essas evidências demonstram que a resposta ao suposto “risco cognitivo” da IA não está na sua proibição ou no alarmismo reativo, mas na construção coletiva de um ecossistema educativo orientado por princípios de responsabilidade, justiça epistêmica e autonomia intelectual. A IA, quando usada de forma ética e pedagógica, não representa um retrocesso, mas uma possibilidade de avanço formativo.

4. Fundamentação Teórica: Mediação, Autonomia e Ética

A construção de uma abordagem crítica e ética para o uso da IA requer suporte teórico robusto, articulando autores da educação, filosofia e ciência cognitiva.
4.1 Vygotsky, Freire e Papert: Tecnologia como Mediação
Lev Vygotsky (1991) defende que o desenvolvimento cognitivo ocorre pela mediação de instrumentos simbólicos — linguagem, escrita, tecnologia. A IA, nesse sentido, pode ser um mediador útil, desde que inserida em práticas culturais significativas (p. 65–66).
Paulo Freire (1996) sustenta que o ato de ensinar exige diálogo e responsabilidade. Para ele, “a educação é um ato de liberdade e não de domesticação” (p. 57). O uso da IA que substitui a reflexão não educa: adestra. Porém, se usada para provocar a dúvida, estimular o debate e incentivar a pesquisa, a IA pode ser ferramenta potente de formação.
Seymour Papert (1980), ao criar o LOGO, mostrou que crianças podem aprender matemática e lógica com prazer, se a tecnologia for usada como construção ativa do saber. Para Papert, o computador não ensina, mas ajuda a pensar (p. 21).
4.2 Turkle, Haraway e Weil: Subjetividade e Responsabilidade
Sherry Turkle (2017) alerta que a substituição da conversa humana por assistentes digitais compromete o desenvolvimento da empatia e da escuta. O risco da IA está na perda do tempo relacional — do silêncio compartilhado, da hesitação, da dúvida (p. 113–114).
Simone Weil (1951) dizia que “a atenção é a forma mais pura de generosidade”. Se a IA se transforma em atalho para fugir da atenção, ela compromete o ato de aprender como experiência ética e espiritual.
Donna Haraway (1991) propõe o conceito de conhecimento situado — todo conhecimento é produzido a partir de uma posição ética, histórica, corporal. A IA, portanto, não pode ser pensada como neutra, mas como tecnologia situada, que deve ser usada com responsabilidade pedagógica e compromisso com o outro (p. 191–192).
4.3 Neil Selwyn e a Crítica à “Automação da Educação”
Neil Selwyn (2021) propõe uma pedagogia crítica da tecnologia. Para ele, o risco maior não está na IA em si, mas na sua adoção acrítica por sistemas educacionais que já reproduzem desigualdades. Ele defende a criação de currículos para “letramento algorítmico” — que ensinem os estudantes a questionar, auditar e compreender os mecanismos que operam por trás da IA (p. 55–56).

5. Conclusão: Educação como Mediação Ética e Reflexiva

O estudo do MIT trouxe uma contribuição importante ao destacar possíveis efeitos do uso intensivo da inteligência artificial no engajamento cognitivo. No entanto, sua extrapolação pública, amplificada por interpretações sensacionalistas, obscurece o debate educacional ao desconsiderar variáveis fundamentais como a mediação pedagógica, o contexto formativo e a intencionalidade dos processos de aprendizagem. A leitura determinista de que a IA compromete, por si só, a atividade intelectual humana desconsidera décadas de pesquisa em psicologia cultural e pedagogia crítica, que indicam que o desenvolvimento cognitivo é sempre relacional, situado e mediado.
A inteligência artificial, longe de ser um agente autônomo de alienação, revela-se como uma tecnologia pedagógica ambivalente, cujo impacto depende essencialmente de como é inserida nos processos educativos. Quando usada de forma acrítica, como substituto da reflexão, a IA pode, de fato, induzir à passividade intelectual, à dependência e à superficialidade. Mas, quando orientada por princípios éticos, dialógicos e formativos, ela pode ampliar o horizonte da aprendizagem, provocar o pensamento complexo, instigar o debate e favorecer a construção da autonomia intelectual.
O verdadeiro risco não reside na presença da IA em si, mas na abdicação da responsabilidade humana de mediar o conhecimento com consciência, rigor e compromisso pedagógico. A ameaça maior está em um sistema educacional que terceiriza à máquina aquilo que é, por excelência, tarefa do humano: ensinar a pensar, a perguntar, a duvidar e a criar. Cabe, portanto, às instituições educacionais, aos professores e aos pesquisadores o desafio de transformar a inteligência artificial em uma aliada da reflexão crítica — e não em seu simulacro.

Referências Bibliográficas

FREIRE, Paulo. Pedagogia da autonomia: saberes necessários à prática educativa. São Paulo: Paz e Terra, 1996.
HARAWAY, Donna. Simians, Cyborgs, and Women: The Reinvention of Nature. New York: Routledge, 1991.
HEUNG, Y. M. E.; CHIU, T. K. F. How ChatGPT impacts student engagement from a systematic review and meta-analysis study. Computers & Education: Artificial Intelligence, v. 2, p. 100361, jan. 2025.
KOSMYNA, Nathalie et al. Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. Cambridge: MIT Media Lab, 2025. Pré-publicação. arXiv:2506.08872.
MIT. Ethics and AI-powered Learning and Assessment. Cambridge: MIT Open Learning, 2024.
PAPERT, Seymour. Mindstorms: Children, Computers, and Powerful Ideas. New York: Basic Books, 1980.
RAISE Initiative. Responsible AI for Social Empowerment and Education. Massachusetts Institute of Technology. Acesso em: jun. 2025.
SELYWN, Neil. Should Robots Replace Teachers? AI and the Future of Education. Cambridge: Polity Press, 2021.
TURKLE, Sherry. Reclaiming Conversation: The Power of Talk in a Digital Age. New York: Penguin, 2017.
VYGOTSKY, Lev. A formação social da mente. São Paulo: Martins Fontes, 1991.
WANG, Jin; FAN, Wenxiang. The effect of ChatGPT on students’ learning performance, learning perception, and higher-order thinking: insights from a meta-analysis. Palgrave Communications, v. 12, n. 1, p. 1–21, jun. 2025.
WEIL, Simone. Attente de Dieu. Paris: Fayard, 1951.

 

  • Dra Zilda Maria A. Matheus
  • Doutora em Ciências da Comunicação (Turismo) pela ECA/USP, Pesquisadora no Naturo Academic Research Institute.
  • E-mail: contat@naturoinstitute.org7