PL 2338, como está, erra ao tratar a inovação com desconfiança e excessiva rigidez
A inteligência artificial já está moldando as salas de aula do futuro. Da personalização de conteúdos às ferramentas que apoiam professores na avaliação de centenas de alunos, o impacto é inegável.
O debate acadêmico internacional tem apontado que, se usada de forma responsável, a IA pode ampliar a equidade, reduzir desigualdades e abrir portas a experiências de aprendizado mais envolventes e acessíveis. A literatura especializada, como a apresentada na 26th International Conference on Artificial Intelligence in Education, realizada em julho de 2025 em Palermo, destaca justamente isso: a IA não substitui o professor, mas pode ser sua maior aliada.
No entanto, o Brasil caminha em sentido inverso. O PL 2338/2023, que busca criar um marco regulatório para a inteligência artificial, classifica a educação como setor de alto risco. Essa escolha, ainda que motivada pela intenção de proteger direitos fundamentais, resulta em um efeito colateral perigoso: transformar a inovação em exceção, desincentivando escolas, universidades e startups a testarem novas soluções educacionais.
Experiências internacionais já demonstram que esse caminho é equivocado. Em universidades espanholas, sistemas de tutoria inteligente em cursos de matemática aumentaram o desempenho dos alunos ao adaptar exercícios ao nível individual; no Canadá, plataformas de feedback automatizado em redações deram devolutivas rápidas em turmas numerosas, liberando professores para orientação mais qualitativa; e em escolas inclusivas da Alemanha, soluções de acessibilidade com legendas em tempo real e adaptação de conteúdos ampliaram a participação de estudantes surdos e com dificuldades de leitura. Esses casos mostram que a IA, aplicada em contextos específicos e supervisionada por docentes, gera benefícios tangíveis e imediatos.
Também no Brasil há sinais de inovação. Pesquisadores da Universidade Federal de Alagoas, em Maceió, utilizaram dez anos de dados do Censo Escolar e redes neurais do tipo LSTM para prever matrículas na rede pública. Combinando essas técnicas a métodos de IA explicável, identificaram fatores decisivos para o acesso e permanência: banheiros adaptados e equipamentos multimídia na educação infantil, professores e bibliotecas no ensino fundamental, laboratórios de ciência e recursos de TIC no ensino médio.
O estudo mostrou ainda que cortes orçamentários em áreas específicas geram quedas indiretas na matrícula, reforçando a importância de investimentos integrados. É um exemplo de como a IA pode ser usada não apenas em sala de aula, mas também como ferramenta de gestão de políticas educacionais, orientando alocação de recursos e combatendo desigualdades.
Ao colocar barreiras excessivas, o Brasil corre o risco de cristalizar desigualdades em vez de reduzi-las. Enquanto países investem em parcerias entre academia, setor privado e poder público para criar ecossistemas inovadores, aqui se projeta uma legislação que parte da presunção de que toda aplicação educacional da IA é potencialmente nociva. Isso desestimula experimentos pedagógicos, afasta investimentos e nos condena a importar soluções prontas, sem poder adaptá-las à nossa realidade cultural e social.
É claro que desafios existem. Algoritmos podem reproduzir vieses, reforçar desigualdades e obscurecer critérios de avaliação. Mas a resposta a esses riscos não deve ser a paralisia regulatória. O caminho mais promissor é o de uma regulação aberta, adaptativa e orientada por princípios. Em vez de proibir ou sufocar, o Estado deve orientar em casos delicados, para garantir transparência, auditorias independentes e supervisão docente qualificada. Assim, protege-se o estudante sem transformar a tecnologia em tabu.
Educação é, por definição, um campo de experimentação. E a IA, bem utilizada, pode ser a ferramenta que permitirá ao Brasil superar desafios históricos, desde a baixa proficiência em leitura e matemática à desigualdade regional no acesso a oportunidades educacionais. Para isso, precisamos de uma legislação que enxergue a IA como parceira, não como ameaça.
O PL 2338, como está, erra ao tratar a inovação com desconfiança e excessiva rigidez. Se quisermos que a inteligência artificial seja uma aliada da educação, precisamos de um marco legal que aposte mais na liberdade de inovar e menos no medo do futuro.
Reproduzido do Jota. Leia o conteúdo original.
Por Henrique Zétola | Diretor-executivo do Instituto Sivis