Os desafios metodológicos do Enamed

Médico Divulgação

Janguiê Diniz*

 

A divulgação dos resultados da edição inaugural do Exame Nacional de Avaliação da Formação Médica (Enamed) trouxe à tona uma série de questionamentos legítimos sobre a metodologia adotada pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep) e pelo Ministério da Educação (MEC). O debate diz respeito à coerência técnica do instrumento, à previsibilidade regulatória e à compatibilidade com o Sistema Nacional de Avaliação da Educação Superior (Sinaes), que há duas décadas orienta as políticas públicas para o setor.

Quando do anúncio do Enamed, foi amplamente divulgado que a nova avaliação dialogaria com os parâmetros do Exame Nacional de Desempenho dos Estudantes (Enade). Na prática, porém, essa convergência não se concretizou. O Enamed foi estruturado com critérios, métricas e padrões de desempenho substancialmente distintos, sem que houvesse um período adequado de transição, validação e amadurecimento do modelo.

 

Uma das diferenças mais sensíveis está no patamar mínimo exigido para a obtenção do desempenho considerado satisfatório. No Enade, o conceito 3 pode ser alcançado com aproximadamente 30% de acertos, em consonância com uma lógica estatística amplamente utilizada em avaliações de larga escala. No Enamed, por sua vez, esse mesmo conceito foi condicionado ao aproveitamento mínimo de 60% das questões, representando um salto expressivo na régua de desempenho, e sem que instituições e estudantes tivessem essa informação antes da aplicação da prova.

 

Além disso, o Enade incorpora insumos complementares que contribuem para a composição da nota final, como questionários contextuais, indicadores institucionais e informações sobre o perfil discente. Esses elementos permitem uma leitura mais ampla e equilibrada dos resultados, considerando as múltiplas dimensões que influenciam o processo formativo. No Enamed, essa possibilidade foi suprimida, restringindo a avaliação ao desempenho na prova e reduzindo a complexidade do processo educacional a um único indicador.

 

Esse desenho metodológico contribuiu para que o exame assumisse um caráter essencialmente punitivo, em contraste com a lógica formativa que orienta o Sinaes. O sistema foi concebido para induzir melhorias, estimular boas práticas e promover o aperfeiçoamento contínuo da qualidade, não para produzir estigmatizações ou interpretações simplificadas da realidade educacional.

 

Outro ponto que merece atenção é a escala utilizada para a atribuição dos conceitos de 1 a 5. Em vez de adotar o critério estatístico mais usual, baseado na divisão por quintis, com faixas equivalentes a 20% da amostra, optou-se por uma classificação não uniforme. O conceito 1 abrange instituições com 0% a 40% de alunos proficientes, o conceito 2 vai de 40% a 60%, o conceito 3 de 60% a 75%, o conceito 4 de 75% a 90% e o conceito 5 de 90% a 100%.

 

Essa distribuição desigual dificulta a compreensão pública dos resultados e gera distorções relevantes. Ao agrupar, em um mesmo conceito, instituições com menos de 5% de alunos proficientes e outras com até 39%, cria-se uma falsa equivalência entre desempenhos profundamente distintos.

 

O resultado é um cenário em que diferenças significativas de desempenho são diluídas, enquanto variações relativamente pequenas passam a ter impacto desproporcional na classificação final. Essa assimetria compromete a função informativa do exame, prejudica a leitura qualificada dos dados e alimenta interpretações equivocadas por parte da sociedade, da imprensa e dos próprios formuladores de políticas públicas.

 

Diante desse contexto, torna-se indispensável rever os critérios de atribuição dos conceitos, de modo a torná-los mais equilibrados, transparentes e inteligíveis nas próximas edições do exame. A adoção de faixas mais homogêneas, compatíveis com boas práticas regulatórias, contribuirá para fortalecer a previsibilidade do sistema, reduzir inseguranças jurídicas e ampliar a confiança dos diversos atores envolvidos no processo avaliativo.

 

É inegável que avaliações em larga escala desempenham papel estratégico na indução da qualidade educacional. No entanto, para que cumpram essa função, devem ser construídas com base em critérios técnicos sólidos, diálogo institucional e respeito às diretrizes já consolidadas. Mudanças abruptas, sem amplo debate prévio, tendem a produzir mais instabilidade do que aprimoramento.

 

É importante destacar que, há anos, as instituições de educação superior utilizam os resultados das avaliações para aprimoramentos internos. Os dados produzidos pelo Enade têm servido de base para a recalibração de projetos pedagógicos, para o fortalecimento da infraestrutura acadêmica, para o aperfeiçoamento dos processos de gestão e para o investimento contínuo na qualificação do corpo docente. Esse movimento já faz parte da cultura institucional, e o Enamed contribuirá para que as instituições aprofundem suas estratégias de melhoria contínua da formação médica.

 

Por ora, a primeira edição do exame oferece uma oportunidade valiosa de reflexão. Mais do que cristalizar resultados ou rotular instituições, o momento é de avaliar criticamente o instrumento, identificar fragilidades e promover os ajustes necessários. Assim, será possível construir um modelo que seja, ao mesmo tempo, rigoroso, justo, formativo e alinhado aos princípios do Sinaes.

 

*Diretor-presidente da Associação Brasileira de Mantenedoras de Ensino Superior (ABMES), secretário-executivo do Brasil Educação – Fórum Brasileiro da Educação Particular, fundador e controlador do grupo Ser Educacional, e presidente do Instituto Êxito de Empreendedorismo

Relacionados

4bxk0p3w11qokdv5d2bs0mjch
7ldnny7l1t1pdo5r8vf05e8sf
dbo4rc02s0rz1xghka55wj3lv-1
Receba atualizações na palma de sua mão e fique bem informado Siga o Canal do portal Ibotirama Notícias no WhatsApp

2025 | Ibotirama Notícias Todos os direitos reservados  Por DaQui Agência Digital

Rolar para cima