Professor da USP alerta para equilíbrio entre avanço e limites da IA na Educação

Professor da USP alerta para equilíbrio entre avanço e limites da IA na Educação

O professor José Eduardo Santarem Segundo, da USP, vem estudando os impactos da inteligência artificial (IA) e alerta que seu uso deve caminhar com critérios éticos e responsabilidade, especialmente na Educação.

O professor José Eduardo Santarem Segundo, da USP, vem estudando os impactos da inteligência artificial (IA) e alerta que seu uso deve caminhar com critérios éticos e responsabilidade, especialmente na Educação. Segundo ele, embora a IA apresente oportunidades de inovação, seus riscos — como a desinformação e a dependência tecnológica — demandam reflexão cuidadosa.

Santarem conta que se envolveu cedo com tecnologia e, após trabalhar como programador, aprofundou-se na Ciência da Informação e Biblioteconomia. Durante um pós-doutorado no Canadá, decidiu dedicar sua carreira ao estudo da IA e, ao retornar ao Brasil, percebeu que seu uso ainda era tímido no meio acadêmico.

O papel transformador da IA na Educação

Para ele, a IA já transformou a forma como consumimos informação. Ferramentas atuais permitem que estudantes acessem materiais em outras línguas, convertam textos para formatos acessíveis (como fontes ampliadas ou linguagem de sinais), ou extraiam insights de grandes bancos de dados. Ele ressalta que essas capacidades também são úteis para inclusividade, beneficiando alunos com deficiências. No entanto, alerta que essas transformações não devem apagar o papel humano no processo educativo.

Riscos associados ao uso indiscriminado

Santarem enfatiza que o uso descontrolado da IA pode gerar prejuízos. Ele teme que muitos deixem de exercitar a própria capacidade de pensar: “se você passa a depender da IA para tudo, perde autonomia intelectual”. Ele também destaca o perigo de gerar respostas imprecisas ou superficiais, pois a IA depende de dados precedentes — e, se alimentada por fontes incorretas ou enviesadas, repete erros.

Outro risco apontado é a proliferação de dados sintéticos (conteúdo gerado por IA). Ele projeta que, no futuro, grande parte dos materiais usados para treinar novas inteligências será gerada por máquinas, comprometendo a originalidade e a credibilidade das informações. Esse ciclo pode gerar um tipo de “efeito espelho”, onde os erros se amplificam.

O caminho da “IA com controle”

Apesar das objeções, Santarem não defende a negação completa da tecnologia. Ele acredita que a revolução trazida pela IA deve ser guiada por normas claras e filtros éticos. Propõe que toda produção que use IA indique de forma transparente o que foi gerado automaticamente e o que envolveu intervenção humana. Também ressalta a importância de mecanismos que permitam verificar a origem e a veracidade dos dados utilizados.

No ambiente acadêmico, ele sugere o uso de laboratórios com “versões fechadas” de IA — que utilizem bases controladas e fontes confiáveis — como meio de experimentar de forma segura sem expor pesquisadores a desvios. Para ele, a IA deve servir como apoio — não como substituta do pensamento humano.

O papel social da Biblioteconomia e da Informação

Para Santarem, as áreas de Biblioteconomia e Ciência da Informação terão papel estratégico no futuro: elas deverão desenvolver técnicas para rastrear a origem dos dados e avaliar sua confiabilidade diante da crescente automação. Ele acredita que, com essas ferramentas, será possível diferenciar entre conteúdo produzido por seres humanos e aquele criado por inteligências automáticas.

Em sua visão, a revolução trazida pela IA será inevitável. A proposta é que a sociedade caminhe para um uso responsável — onde seus benefícios sejam aproveitados, mas seus riscos sejam mitigados por regulação, formação e consciência.


CATEGORIES
TAGS
Share This

COMMENTS

Wordpress (0)
Disqus ( )