Opinião: as escolas precisam saber o que querem da IA
33giga
*Por Pedro Siciliano // A inteligência artificial já está presente nas escolas, mas parte delas ainda não sabe o que quer da IA. Discutimos ferramentas, riscos, atalhos e proibições, mas evitamos a pergunta que realmente importa: como a tecnologia pode expandir o nosso projeto educacional? Sem essa resposta, ela deixa de ser aliada e passa a parecer ameaça.
Em 2025, a inteligência artificial deixou de ser acessório e passou a funcionar como infraestrutura educacional. Já corrige atividades em escala, analisa dados de aprendizagem, sugere percursos personalizados e organiza redes inteiras de ensino. Diante dessa velocidade, muitas escolas travam por falta de clareza. Querem adotar IA, mas ainda não alinharam critérios pedagógicos, valores educacionais e responsabilidades humanas. Sem visão, qualquer automação soa perigosa.
No Brasil, esse descompasso é visível. Sistemas automatizados corrigem milhões de questões e redações todos os meses, reduzindo gargalos históricos. Falta, porém, a pergunta essencial: o que faremos com o tempo que sobra? Se a escola não decidir previamente como esse tempo será reinvestido – em acompanhamento pedagógico, intervenções qualificadas, escuta ou vínculo –, a IA apenas acelera um modelo que já estava esgotado. Porém é mais do que isso.
É comum ouvir que a IA empobrece o pensamento ou substitui o esforço do aluno. Esse medo revela mais sobre a fragilidade do projeto pedagógico do que sobre a tecnologia em si. Algoritmos não deveriam tomar decisões que precisam ser humanas: o que priorizar, como avaliar, quando avançar, o que significa aprender bem. Essas escolhas deveriam envolver todo o ecossistema escolar.
Professor, coordenador, diretor e família enxergam o aluno por ângulos diferentes e complementares. O professor observa o desempenho em sala, o coordenador identifica padrões, o diretor entende o contexto institucional e os pais reconhecem emoções, rotinas e limites invisíveis à escola. Quando a IA entra em cena com governança compartilhada, ela enriquece decisões. Educação de qualidade nunca foi obra de um indivíduo isolado – tampouco será de um algoritmo solitário.
Alguns países já entenderam isso. A Finlândia, por exemplo, estabeleceu diretrizes nacionais que colocam a IA como apoio ao professor, nunca como substituto de decisões pedagógicas, e exigem transparência sobre quando e como algoritmos são usados. Singapura adotou políticas claras de human-in-the-loop, garantindo que recomendações automatizadas sejam sempre mediadas por educadores. No Japão, orientações oficiais reforçam que dados educacionais devem apoiar o julgamento profissional, não automatizar percursos sem contexto. Em todos esses casos, a tecnologia responde a uma visão educacional previamente definida, construída de forma coletiva.
Quando não há critérios explícitos, qualquer ferramenta parece ameaça. Quando não há valores claros, toda automação soa como desvio. As perguntas que precisam anteceder “qual IA usar?” são desconfortáveis, mas inevitáveis: que tipo de aprendizagem queremos promover? Que papel esperamos do professor? O que jamais pode ser automatizado? Onde a família entra nesse processo? A IA certa não responde a essas questões, mas amplifica as respostas quando elas existem. Ela fortalece valores, não os substitui. Qualifica decisões humanas, não as elimina. Quando a escola sabe o que quer, a tecnologia deixa de ser risco e passa a ser aliada.
Em um mundo onde as respostas estão prontas, o valor está em ensinar a perguntar, interpretar dados com critério, mediar conflitos, construir vínculos e dar significado ao conhecimento. A IA organiza caminhos. O educador decide por que aquele caminho importa.
Inovar na educação, portanto, não é apenas digitalizar práticas antigas nem correr atrás da ferramenta da vez. É voltar aos valores educacionais, explicitar critérios pedagógicos e alinhar o ecossistema escolar. A IA não deve ser responsável por impulsionar a escola para frente. A escola precisa decidir, coletivamente, para onde quer ir.
As escolas ainda não sabem o que querem da IA. O próximo passo não é apenas tecnológico, mas estratégico. Como garantir que dados gerem reflexão e não automatismo? Que tipo de aluno queremos formar? O que precisamos adaptar? O que vamos acelerar? Em quais momentos ela apoia o professor e em quais deve sair de cena? Quando essas decisões começam a ser tomadas, a inteligência artificial deixa de ser ameaça e passa a cumprir seu melhor papel: ampliar a função do educador, fortalecer o julgamento pedagógico e servir a um projeto educacional que sabe para onde quer ir.
*Pedro Siciliano é cofundador e CEO da Teachy, plataforma de IA pedagógica presente em 39 países e utilizada por mais de 3 milhões de professores

