Prévia do material em texto
INTRODUÇÃO O objetivo da apostila Estatísticas educacionais, avaliação da educação básica e posicionamento do Brasil no cenário internacional é fornecer ao leitor uma introdução dos principais indicadores usados na descrição do sistema educacional brasileiro, principalmente, na avaliação da educação básica e nas comparações internacionais. Sob esse foco, esta apostila foi dividida em quatro módulos. No módulo I, descreveremos os indicadores educacionais usados para caracterizar o acesso e a permanência na escola. Essas descrições encontram-se sintetizadas na trajetória escolar do estudante e nas suas taxas de abandono, aprovação e reprovação. Para entendermos a importância desses indicadores, iniciaremos com um detalhamento do sistema educacional e das suas finalidades, cujo monitoramento é viabilizado pelos indicadores apresentados. No módulo II, analisaremos os indicadores de aprendizado utilizados no Brasil. Para tanto, consideraremos as matrizes de referência, a escala de proficiência, e os indicadores de qualidade e desigualdade utilizados pelo Sistema de Avaliação da Educação Básica (Saeb). No módulo III, analisaremos, por meio de uma descrição educacional e estatística, o Índice de Desenvolvimento da Educação Básica (Ideb). Além disso, apresentaremos as sínteses dos resultados das avaliações realizadas por meio de duas plataformas: o portal Ideb Escola e o portal QEdu, que auxiliam na contextualização do cenário educacional brasileiro. Por fim, no módulo IV, compararemos os resultados dos estudantes brasileiros de educação básica com os dos seus pares latino- americanos e internacionais. Para tanto, apresentaremos o desempenho dos alunos brasileiros em duas avaliações internacionais: os estudos organizados pela Unesco e o Pisa. SUMÁRIO MÓDULO I – EDUCAÇÃO: APRENDIZADOS, ENSINO E ESCOLA .................................................................. 9 INTRODUÇÃO ..................................................................................................................................... 9 Sistema educacional ....................................................................................................................... 11 TRAJETÓRIAS ESCOLARES ................................................................................................................ 13 Categorização das trajetórias ........................................................................................................ 14 Etapas e modalidades do ensino ................................................................................................... 14 Faixa etária .......................................................................................................................................... 15 Território .............................................................................................................................................. 15 INDICADORES DE ACESSO E PERMANÊNCIA ................................................................................ 16 Taxa de analfabetismo (TA) ........................................................................................................... 16 Acesso ............................................................................................................................................... 17 Taxa de atendimento escolar (TAE) ............................................................................................... 17 Taxa de escolarização líquida (TEL)................................................................................................ 18 Taxa de escolarização bruta (TEB) ................................................................................................. 20 Permanência .................................................................................................................................... 20 RENDIMENTO ESCOLAR .................................................................................................................. 21 Movimento escolar ......................................................................................................................... 22 Aprovação e reprovação ................................................................................................................ 22 Taxas de rendimento escolar ........................................................................................................ 22 Exemplo de cálculo, aplicação e interpretação dos indicadores ............................................ 24 MÓDULO II – INDICADORES DE APRENDIZADO .......................................................................................... 31 INTRODUÇÃO ................................................................................................................................... 31 MATRIZES DE REFERÊNCIA DO SAEB ............................................................................................. 33 Matriz de Língua Portuguesa ........................................................................................................ 34 Matriz de Matemática ..................................................................................................................... 35 Composição dos testes .................................................................................................................. 36 Escolas e alunos avaliados ............................................................................................................. 37 Prova Brasil ....................................................................................................................................... 37 Motivação ............................................................................................................................................ 38 Características .................................................................................................................................... 39 Resultados ........................................................................................................................................... 40 Relevância pedagógica ..................................................................................................................... 41 Análise crítica ...................................................................................................................................... 41 ESCALA DE PROFICIÊNCIA ............................................................................................................... 43 Interpretação pedagógica da medida ......................................................................................... 46 Interpretação normativa ................................................................................................................ 47 Distribuição de referência ............................................................................................................. 48 INDICADORES DE QUALIDADE ....................................................................................................... 51 INDICADORES DE DESIGUALDADE ................................................................................................ 52 Diferenças segundo o sexo do aluno .......................................................................................... 53 Diferenças segundo a raça/cor do aluno .................................................................................... 55 Diferenças segundo as faixas de nível socioeconômico do aluno ......................................... 57 Diferenças segundo grupos definidos por múltiplas variáveis ............................................... 59 MÓDULO III – DESCRIÇÃO EDUCACIONAL E ESTATÍSTICA DO IDEB ......................................................... 63 INTRODUÇÃO ...................................................................................................................................63 ÍNDICE DE DESENVOLVIMENTO DA EDUCAÇÃO BÁSICA (IDEB) ................................................ 65 Componentes do Ideb .................................................................................................................... 65 Indicador de desempenho .............................................................................................................. 66 Indicador de rendimento ................................................................................................................. 69 Cálculo do Ideb ................................................................................................................................ 71 INTERPRETAÇÃO NORMATIVA ........................................................................................................ 72 Faixas do Ideb .................................................................................................................................. 73 ANÁLISE CRÍTICA DO IDEB .............................................................................................................. 76 Discussão .......................................................................................................................................... 80 EVOLUÇÃO DO IDEB E SEU USO PARA MONITORAMENTO DAS ESCOLAS .............................. 81 Plataforma de resultados e metas ............................................................................................... 81 Plataforma de consulta pública .................................................................................................... 83 Plataforma QEdu ............................................................................................................................. 85 MÓDULO IV – COMPARAÇÃO COM PARES LATINO-AMERICANOS E INTERNACIONAIS ...................... 87 COMPARAÇÕES LATINO-AMERICANAS ......................................................................................... 87 Instituição responsável .................................................................................................................. 87 Primeiro estudo comparativo e explicativo regional (Perce) ................................................... 88 Segundo estudo comparativo e explicativo regional (Serce) ................................................... 90 Terceiro estudo comparativo e explicativo regional (Terce) .................................................... 95 Análise critica ................................................................................................................................. 100 COMPARAÇÃO INTERNACIONAL ................................................................................................. 101 Pisa ................................................................................................................................................... 101 Composição da amostra ................................................................................................................ 102 Questionários contextuais ............................................................................................................. 103 Indicadores de características dos estudantes ......................................................................... 103 Indicadores de características das escolas ................................................................................ 104 O que é testado?............................................................................................................................ 104 Descrição dos testes ....................................................................................................................... 105 Escala de proficiência ...................................................................................................................... 106 Níveis .................................................................................................................................................. 106 Resultados do Brasil ........................................................................................................................ 110 Impactos no Brasil ........................................................................................................................... 112 ANEXO I ............................................................................................................................................................. 113 BIBLIOGRAFIA .................................................................................................................................... 116 PROFESSOR-AUTOR ........................................................................................................................... 120 Neste módulo, descreveremos os indicadores educacionais usados para caracterizar o acesso e a permanência na escola. Essas descrições encontram-se sintetizadas na trajetória escolar do estudante e nas suas taxas de abandono, aprovação e reprovação. Para entendermos a importância desses indicadores, iniciaremos com um detalhamento do sistema educacional e das suas finalidades, cujo monitoramento é viabilizado pelos indicadores apresentados. Introdução A palavra “educação” está associada tanto aos aprendizados adquiridos ao longo da vida quanto ao ensino, necessário para a aquisição desses aprendizados, e à escola, instituição onde ocorrem muitos dos aprendizados essenciais. O aprendizado é, portanto, o núcleo central de sentido da palavra “educação”, como estabelecido no artigo 205 da Constituição Brasileira: “Art. 205º - A educação, direito de todos e dever do Estado e da família, será promovida e incentivada com a colaboração da sociedade, visando ao pleno desenvolvimento da pessoa, seu preparo para o exercício da cidadania e sua qualificação para o trabalho” (BRASIL, 1988). A leitura desse artigo, que estabelece a educação como direito, permite-nos afirmar que a educação tem como objetivo dotar as pessoas de capacidades que as possibilitem desenvolver o seu pleno potencial, exercitar a cidadania e inserir-se no mundo do trabalho. Outra síntese particularmente influente dos objetivos da educação é aquela usada no Relatório Delors da Unesco MÓDULO I – EDUCAÇÃO: APRENDIZADOS, ENSINO E ESCOLA 10 (1998), em que se estabelece que a educação visa dotar as pessoas das capacidades de aprender a aprender, a conviver, a ser e a fazer. Embora completamente adequadas a um artigo constitucional ou a um relatório como o da Unesco, essas categorias usadas para descrever os aprendizados devem ser desdobradas de forma que se possam concretizar nas propostas pedagógicas das escolas. O primeiro passo a ser dado para alcançar essa meta consiste em estabelecer as chamadas aprendizagens essenciais. O Brasil ainda não fez isso, mas há vários exemplos internacionais. A Comissão Europeia (2006), por exemplo, apresenta como essenciais as seguintes aprendizagens: “Comunicação na língua materna, Comunicação em línguas estrangeiras, Competência matemática e competências básicas em ciências e tecnologia, Competência digital, aprender a aprender, Competências sociais e cívicas, Empreendedorismo, Consciência e expressão cultural” (Comissão Europeia, 2006). Como podemos notar, os aprendizados necessários à vida têm pelo menos quatro dimensões: a dimensão cognitiva, a das atitudes, a dos valores e a da cultura. Tais aprendizados são, portanto, adquiridos em vários ambientes. Esta obra, no entanto, toma como referência a Lei de Diretrizes e Bases da Educação (Lei 9.394/96) e concentra-se na educação escolar, mais especificamente na educação básica, que oportuniza os aprendizados por meio do ensino. Vejamos como a educação escolar é definida na LDB: “Art. 1º A educação abrange os processos formativos que se desenvolvem na vida familiar, naconvivência humana, no trabalho, nas instituições de ensino e pesquisa, nos movimentos sociais e organizações da sociedade civil e nas manifestações culturais. § 1º Esta Lei disciplina a educação escolar, que se desenvolve, predominantemente, por meio do ensino, em instituições próprias. § 2º A educação escolar deverá vincular-se ao mundo do trabalho e a prática social” (BRASIL, LDB, 9.394/96) 11 Sistema educacional Para garantirem o direito à educação, as sociedades criam os seus sistemas educacionais, constituídos de muitas instituições e atores. Naturalmente, esse sistema tem como resultado geral os aprendizados dos alunos. No entanto, para assegurar que um estudante tenha adquirido os aprendizados de que precisa para a sua vida, é necessário verificar se este teve acesso à escola e se lá permaneceu tempo suficiente para aprender. Além disso é necessário caracterizar os diferentes atores e instituições que compõem o sistema. De forma particular, é preciso estudar o sistema educacional reconhecendo os seus diferentes níveis: � os alunos; � a sala de aula; � a escola; � as redes de escolas e � a sociedade. Cada um desses níveis tem características próprias, que não estão presentes no nível anterior. Dessa forma, uma escola deve ser analisada como uma estrutura complexa, cujas características vão muito além daquelas típicas de um mero conjunto de salas de aula e de alunos individuais. Uma rede de escolas, que é mais do que um conjunto de escolas, e toda a complexidade das Secretarias de Educação e de órgãos centrais da administração das redes públicas precisam ser consideradas no estudo do sistema educacional. 12 O modelo conceitual apresentado a seguir sintetiza a estrutura desse sistema, permitindo-nos definir, monitorar e planejar ações de melhoria na educação escolar. Figura 1 – Modelo Conceitual explicativo da proficiência Fonte: Soares (2012). 13 Neste conteúdo, apresentaremos e discutiremos os indicadores que caracterizam cada uma das partes do sistema educacional, como descrito no modelo apresentado. Para saber mais sobre sistema educacional, leia: � Unesco. Repensar a educação: rumo a um bem comum mundial? Brasília, DF: Unesco, 2016. Disponível em: <http://unesdoc.unesco.org/images/0024/002446/ 244670POR.pdf>. Acesso em: fev. 2018. Trajetórias escolares Como vimos, para adquirir os aprendizados que caracterizam o atendimento do direito à educação, é necessário que o cidadão acesse e frequente uma escola de educação básica. Para monitorar esse direito de todos os cidadãos de forma completa, seria necessário construir um arquivo em que cada linha representasse um cidadão e cujas colunas registrassem a sua situação escolar ano a ano. Tal arquivo permitiria a construção da trajetória escolar de todas as pessoas e produziria, com muita facilidade, as informações necessárias às diferentes políticas públicas educacionais. O atual Plano Nacional de Educação (Lei nº. 13.005, de 25 de junho de 2014) estabelece, por exemplo, que o Brasil deveria universalizar, até 2016, a educação infantil para as crianças de quatro a cinco anos de idade. Para verificar se isso foi ou não atendido, bastaria, por meio do nosso arquivo hipotético de trajetórias, separar as crianças de quatro a cinco anos de idade e verificar se estão matriculadas em uma escola de educação infantil. Essa seria uma operação muito simples de seleção e contagem de dados. No entanto, esse tipo de arquivo não existe e, para produzirmos as informações necessárias à proposição e ao monitoramento das políticas públicas educacionais, precisamos utilizar várias fontes de informação alternativas, como: � o Censo Demográfico, realizado pelo Instituto Brasileiro de Geografia e Estatística (IBGE) de 10 em 10 anos; � a Pesquisa Nacional por Amostra de Domicílios (Pnad), realizada anualmente também pelo IBGE e � o Censo Escolar, realizado pelo Instituto Nacional de Estudos e Pesquisas Anísio Teixeira (Inep) anualmente. Os indicadores dessas pesquisas são amplamente difundidos e usados, pois nos permitem conhecer aspectos específicos da trajetória escolar dos estudantes. Entre esses aspectos incluem-se o acesso à escola, a permanência e a conclusão das diferentes etapas em que o ensino é organizado. Nas próximas seções, utilizaremos as sínteses divulgadas no Anuário da Educação Básica brasileira (2016), uma publicação conjunta do movimento Todos pela Educação e da Editora 14 Moderna que, além de apresentar os números do Censo Demográfico e da Pesquisa Nacional por Amostra de Domicílios (Pnad), apurados e divulgados pelo Instituto Brasileiro de Geografia e Estatística (IBGE), traz também os dados do Censo Escolar e do Sistema de Avaliação da Educação Básica (Saeb), disponibilizados pelo Ministério da Educação. Criado em setembro de 2006, o Todos Pela Educação é um movimento financiado, exclusivamente, pela iniciativa privada, congregando sociedade civil organizada, educadores e gestores públicos, que têm como objetivo contribuir para que o Brasil garanta a todas as crianças e jovens o direito à educação básica de qualidade. O movimento trabalha para que sejam garantidas as condições de acesso, alfabetização e sucesso escolar, além de lutar pela ampliação e boa gestão dos recursos públicos investidos na educação. Esses grandes objetivos foram traduzidos em cinco metas, com prazo de cumprimento até 2022, ano do bicentenário da Independência do Brasil. É importante ressaltarmos que o Censo Escolar permite-nos obter informações completas das trajetórias escolares de todos os estudantes matriculados nas escolas de educação básica a partir de 2007. Assim sendo, com o passar dos anos, o Inep terá todas as informações necessárias à construção da trajetória escolar de cada brasileiro, já que, a cada ano, é mais razoável assumirmos que todas as famílias matriculam os seus filhos em uma escola. Categorização das trajetórias Muitos indicadores apresentam sínteses das trajetórias de estudantes que pertencem a um grupo definido por etapa e modalidade de ensino, faixa etária e local de residência. Dessa forma, antes de prosseguirmos, é importante que fixemos esses conceitos. Etapas e modalidades do ensino A LDB segmenta a educação básica da seguinte forma: � creche; � educação infantil; � ensino fundamental (dividido em duas etapas: anos iniciais e anos finais) e � ensino médio. 15 Essas diferentes etapas são oferecidas em diferentes modalidades. A mais importante delas é a regular, mas existem ainda a Educação de Jovens e Adultos, a Educação Profissional ou Técnica, a Educação Especial e a Educação Indígena. Faixa etária Atualmente, as leis brasileiras estabelecem que a frequência à escola é obrigatória dos 4 aos 17 anos. No entanto, como nem sempre foi assim, há na população brasileira pessoas que, por motivos diversos, não completaram diferentes etapas da educação básica. A idade dos alunos é utilizada para caracterizar as trajetórias educacionais e, por isso, os indicadores educacionais são usualmente relativos a faixas etárias específicas. A LDB fixa essas faixas etárias e os respectivos segmentos que o estudante deveria cumprir caso tivesse uma trajetória escolar regular. Vejamos: � creche – para as crianças de 0 a 3 anos; � educação infantil – para as crianças de 4 e 5 anos; � ensino fundamental I – para as de 6 a 10 anos; � ensino fundamental II – para as de 10 a 14 anos e � ensino médio – para os jovens de 14 a 17 anos. Como os nascimentos ocorrem durante todo o ano, mas o ano escolar só se inicia em fevereiro, há uma convenção para a alocação dos indivíduos nessas diferentes faixas etárias. Fixada pelo Conselho Nacional de Educação (CNE), a data base para as decisões educacionais é 31 de março, ou seja, em todas as questõesescolares, considera-se a idade da pessoa no dia 31 de março, data escolhida por ser dois meses depois do início usual do ano letivo, quando, portanto, as matrículas já devem estar estabilizadas. Naturalmente, a fixação de outra data de referência mudaria a faixa etária usada para efeitos do planejamento educacional, com sérias consequências para o planejamento do seu atendimento. Por conta disso, a data escolhida é uma opção polêmica, cuja legalidade foi contestada e hoje aguarda decisão de recursos no Superior Tribunal Federal (STF). Território As leis educacionais estabelecem que a União é responsável pelas instituições de ensino superior e, em relação à educação básica, tem função supletiva e redistributiva. Já os estados são responsáveis pelo ensino médio e, em parceira com os municípios, pelo ensino fundamental. Os municípios, por sua vez, são responsáveis pelas creches, pela educação infantil e pelo ensino fundamental, em parceria com os estados. 16 Indicadores de acesso e permanência Como já vimos, os dados que fornecem informações sobre o acesso à educação básica são obtidos por meio do Censo Demográfico e da Pnad. O Censo Demográfico usa um questionário muito sintético para a grande maioria das residências e um formulário mais extenso para uma amostra de 10% delas. Isso quer dizer que os indicadores educacionais produzidos com dados do Censo Demográfico são estimativas feitas a partir de uma amostra. Assim sendo, só se conhece a situação escolar para conjuntos de indivíduos, por exemplo, os residentes em um dado município. O questionário usado no Censo Demográfico e na Pnad inclui as seguintes perguntas para cada membro da família incluída na amostra: 1. Sabe ler e escrever? 2. Frequenta escola ou creche? 2.1. Qual é o curso que frequenta? 2.2. Qual é a série do curso que frequenta? 2.3. Em que município e UF frequenta escola ou creche? 3. Qual foi o curso mais elevado que frequentou? 3.1. Concluiu esse curso? A resposta a essas perguntas fornece informações para a construção dos indicadores de acesso e permanência dos estudantes, cujas definições estão no Dicionário de indicadores educacionais do Inep. Taxa de analfabetismo (TA) No Brasil, considera-se analfabeto o sujeito incapaz de ler e escrever ao menos um bilhete simples na sua língua de origem. Nos questionários da Pnad e do Censo Demográfico, o analfabetismo é captado pela resposta dada à pergunta “Sabe ler e escrever?”. Aquele que responde “Não” é considerado analfabeto. A taxa de analfabetismo (TA) é calculada por meio do quociente entre a população analfabeta e a população total de um mesmo grupo etário. Essa taxa é muito utilizada pelos órgãos internacionais, pois permite medir os níveis de desenvolvimento socioeconômico dos países. Vejamos: �� � ������ � 100 Onde: �� = taxa de analfabetismo ���� = população analfabeta de determinado grupo etário 17 � = população total nesse mesmo grupo etário Para verificar o avanço das políticas públicas referentes ao ensino básico e contribuir para a formulação de políticas de alfabetização de adultos, é oportuno que a análise dessa taxa seja realizada por faixa etária, retirando assim o efeito composicional da estrutura etária que está embutida na taxa (RIOS-NETO, 2005). Acesso O acesso é, usualmente, sintetizado em três indicadores: taxa de atendimento escolar, taxa de escolarização líquida e taxa de escolarização bruta. Veremos cada um deles, com mais detalhes, a seguir. Taxa de atendimento escolar (TAE) A taxa de atendimento escolar é definida como o percentual da população de determinada idade ou faixa etária que se encontra matriculado na escola. Formalmente, essa taxa é definida da seguinte forma: �� � ���� � 100 Onde: � �� = número de pessoas matriculadas na escola na idade ou faixa etária � � �� = população na idade ou faixa etária � � � = até 3, 4 e 5, 6 a 14, 15 a 17 e 20 a 24 anos No Anuário da Educação Básica (2016), taxa de atendimento escolar está disponível para diferentes faixas etárias. Por exemplo, a tabela a seguir, cujos resultados foram calculados com dados da Pnad, apresenta as informações referentes às crianças de quatro e cinco anos. 18 Tabela 1 – Crianças de quatro e cinco anos que frequentam escola no Brasil (2001-2014) ano percentual de crianças 2001 66,4 2002 67,6 2003 69,7 2004 71,8 2005 72,5 2006 76,7 2007 78,9 2008 81,1 2009 83,0 2010 0,0 2011 85,6 2012 85,9 2013 87,9 2014 89,1 Fonte: Anuário da Educação Básica (2016, p. 17). Taxa de escolarização líquida (TEL) Para definir as prioridades educacionais de um governo, é importante saber quantas crianças ou jovens estão sendo atendidos em dada etapa do ensino na idade certa. Essa informação é captada pela taxa de escolarização líquida (TEL), definida por meio da divisão entre o número total de matrículas de alunos com a idade prevista para a etapa de ensino em consideração e o número de estudantes dessa faixa etária na população de interesse. Dessa forma, temos: � � � �ú���� �� ������������ �� ����� �é���!"�"���çã� �� %�� � ��á���! � 100 19 Por exemplo, se um estudante tem uma trajetória regular, deve cursar o ensino médio quando tiver entre 15 a 17 anos. Nesse caso, a taxa líquida de escolarização é a razão entre o número de jovens de 15 a 17 anos matriculados no ensino médio em um território (k) e o número total de pessoas na mesma faixa etária no mesmo território. Em outras palavras, o denominador dessa taxa é igual ao número de jovens residentes no município, na faixa etária de 15 a 17 anos, e o numerador é obtido identificando-se, entre os jovens com idade nessa faixa, os que estão matriculados no ensino médio. Baixos valores da TEL indicam a existência de jovens de 15 e 17 anos que não estão frequentando o ensino médio. Esse problema pode ter como causa: � a evasão do aluno ainda no ensino fundamental; � o fato de o aluno ainda estar cursando o ensino fundamental ou � o fato de ter terminando o ensino fundamental, mas não ter efetuado matrícula no ensino médio por algum motivo. Como um estudante chega ao ensino médio com a idade esperada somente se teve uma trajetória escolar regular, a TEL descreve, de forma bastante útil, uma das dimensões da qualidade da educação no território em que é calculada, ou seja, o nível de atraso escolar nessa população. A tabela a seguir mostra os resultados da TEL entre os anos de 2000 e 2015: Tabela 2 – Taxa de escolarização líquida – ensino médio – Brasil e Regiões (2000 a 2015) localidade 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2011 2012 2013 2014 2015 Brasil 34,4 36,9 40,0 43,1 44,4 45,3 47,1 48,0 50,4 50,9 51,6 54,0 55,1 56,3 56,9 Norte 19,2 26,4 29,1 31,7 27,5 30,7 34,7 36,0 39,7 39,1 41,2 42,4 44,9 46,7 47,9 Nordeste 18,9 20,5 22,7 25,5 27,9 30,1 33,1 34,5 36,4 39,2 42,6 44,8 46,2 47,5 48,3 Sudeste 46,3 48,0 52,4 55,5 58,0 57,4 57,9 58,8 61,9 60,5 59,6 62,5 62,9 63,8 65,2 Sul 44,0 47,8 50,7 52,7 53,4 53,6 54,9 55,0 56,4 57,4 55,1 57,1 59,3 61,0 58,6 Centro- Oeste 34,4 36,7 40,0 44,2 44,9 45,9 48,3 49,6 51,8 54,7 56,8 58,5 57,2 58,5 58,5 Fonte: IBGE/Pnad. Elaborado por Inep/Deed. 20 Taxa de escolarização bruta (TEB) Outro indicador de acesso muito usado é a taxa de escolarização bruta. Esse indicador mede o esforço que está sendo feito para dar acesso à educação aos que não a tiveram na idade correta. Vejamos: � ' � �ú���� �� ������������ !"�"���çã� �� %�� � ��á���! � 100 No numerador, temos o total de pessoas cursando a etapa no território, sem restrição de idade. No denominador, estão alocadas todas as pessoas da faixa etária em análise. Se o resultado desse indicador é maior que 100%, isso significa que o território, região, estado ou município está buscando atenderaos que não foram atendidos na idade certa. Na tabela a seguir, temos os resultados da TEB entre os anos de 200 e 2015: Tabela 3 – Taxa de escolarização bruta – ensino médio – Brasil e Regiões (2000 a 2015) Localidade 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2011 2012 2013 2014 2015 Brasil 73,0 73,9 75,9 81,1 81,4 80,7 82,2 82,6 85,5 83,0 82,2 83,2 83,5 83,7 83,3 Norte 59,6 80,1 80,7 85,6 72,1 76,8 78,0 75,2 83,3 80,3 79,8 81,5 82,3 84,2 82,3 Nordeste 53,8 56,7 58,2 67,0 71,3 72,0 76,8 79,4 78,7 77,4 77,9 78,2 79,6 78,6 77,5 Sudeste 87,9 84,7 87,4 90,6 91,1 88,2 88,0 87,5 91,6 88,5 85,3 87,9 86,8 87,1 89,5 Sul 81,4 78,1 80,5 82,8 81,7 80,5 79,4 79,9 83,4 81,1 80,4 79,9 82,3 83,1 78,6 Centro-Oeste 77,2 77,5 80,4 83,9 82,9 82,1 84,0 84,4 88,0 86,1 91,5 88,2 86,0 86,7 84,2 Fonte: IBGE/Pnad. Elaborado por Inep/Deed. Permanência Na ausência de informações sobre a trajetória escolar individual, a permanência do estudante na escola é acompanhada de forma indireta. Nesse caso, as taxas de conclusão das etapas da educação básica são indicadores especialmente importantes. Por exemplo, um estudante cuja trajetória é regular deve terminar o ensino fundamental com 14 anos. Dessa forma, interessa-nos saber quantos jovens de 16 anos terminaram o ensino fundamental. A tabela a seguir, obtida também do Anuário da Educação Básica brasileira, fornece- nos essa informação. 21 Tabela 4 – Percentual de jovens de 16 anos que concluíram o ensino fundamental – Brasil e Regiões (2001-2014) Região 2001 2002 2003 2004 2005 2006 2007 2008 2009 2011 2012 2013 2014 Brasil 49,1 52,1 56,6 58,0 58,9 60,8 62,9 64,8 66,3 67,5 69,5 71,7 73,7 Norte 35,0 41,8 45,7 40,2 41,2 46,7 50,5 52,7 52,0 53,8 55,3 57,6 59,9 Nordeste 28,2 30,5 33,9 36,8 39,3 44,1 44,8 48,2 51,7 56,7 59,1 60,5 62,6 Sudeste 62,9 66,4 72,6 73,8 74,1 73,7 76,2 77,3 76,3 76,6 78,7 81,2 83,5 Sul 64,5 67,8 67,6 74,2 69,9 70,0 72,2 72,6 74,6 72,2 75,3 78,5 79,7 Centro- Oeste 48,6 51,0 55,6 58,9 62,4 62,7 67,8 66,2 75,0 77,6 72,9 75,0 76,3 Fonte: IBGE/Pnad. Elaboração: Todos Pela Educação. Os indicadores de rendimento escolar que têm como unidade o município e dependem de dados coletados pelo Censo Demográfico só podem ser obtidos de 10 em 10 anos. Nos anos em que o Censo não é realizado, o seu cálculo exige o uso de projeções de população por faixa etária e por município. Esse é um problema demográfico bastante complicado, que deve, entretanto, ser enfrentado para atender não só à lei do PNE mas também à necessidade de monitorar o direito à educação da população brasileira. O enfrentamento desse problema é de especial importância, pois os municípios são os locais onde as decisões essenciais sobre o ensino fundamental são tomadas. Rendimento escolar Todos os anos, o Inep atribui a cada aluno matriculado em uma escola de educação básica um código único de identificação. Aluno é o indivíduo, enquanto matrícula é o vínculo estabelecidos entre um aluno e uma turma. Um mesmo aluno pode ter matrículas em mais de uma turma de distintas etapas ou modalidades de ensino, na mesma escola ou em escolas diferentes. A cada ano, considerando a data de referência do Censo Escolar da Educação Básica, ou seja, a última quarta-feira do mês de maio do ano vigente, as escolas registram os alunos matriculados nas suas turmas. No ano seguinte, as escolas informam o movimento e o rendimento escolar das matrículas informadas na primeira etapa. Os dados coletados permitem a construção de vários indicadores, conforme explicado na nota técnica do Inep Cálculo dos indicadores de rendimento escolar – censo da Educação Básica. 22 Movimento escolar Por movimento escolar entende-se a mudança de vínculo escolar de cada uma das matrículas no período entre a data de referência do Censo Escolar e o encerramento do ano letivo. Existem três situações possíveis quanto ao movimento escolar da matrícula: � transferido – quando a matrícula do aluno foi, formalmente, desvinculada de uma escola; � abandono – quando o aluno deixou de frequentar a escola antes da conclusão do ano letivo, não tendo sido formalmente desvinculado por transferência. Nesse caso, a sua matrícula não possui registro de rendimento e � falecido – quando o aluno faleceu antes do término do ano letivo. Aprovação e reprovação O rendimento escolar registra o sucesso ou o fracasso da matrícula de cada aluno ao final do ano letivo. São duas as situações possíveis quanto ao rendimento escolar de cada matrícula: � aprovado – quando o aluno conclui o ano escolar com sucesso e está apto a matricular-se na etapa seguinte, no ano seguinte, e � reprovado – quando o aluno não obtém êxito na conclusão do ano letivo e, portanto, não está apto a matricular-se na etapa seguinte, no ano seguinte. Os conceitos de movimento escolar, aprovação e reprovação são utilizados para o cálculo dos indicadores de rendimento escolar. Taxas de rendimento escolar As taxas de rendimento escolar – ou seja, as taxas de aprovação e reprovação, e a taxa de abandono – são calculadas para diferentes territórios ou unidades de agregação (escola, município, rede, etc.), considerando-se o conjunto de matrículas que as compõem. Depois das análises de consistência, a cada matrícula é associada uma situação (falecido, abandono ou sem informação) e um rendimento (aprovação ou reprovação). As seguintes notações são usadas: 23 Tabela 5 – Notações utilizadas na taxa de rendimento escolar abreviação notação FAL falecido APR aprovado REP reprovado ABA abandono SIR sem informação de rendimento escolar, falecimento ou abandono Fonte: MEC/Inep (2013, p. 5). As matrículas consideradas no cálculo das taxas de rendimento escolar são dadas por: �( � � ) *�� ) +,( Onde: � � = total de matrículas iniciais � *�� = quantidade de matrículas de alunos falecidos � +,( = matrículas que não tiveram a situação de rendimento escolar, o falecimento ou o abandono informado Como, para cada uma dessas matriculas, há uma condição de rendimento escolar – aprovado (APR), reprovado (REP) – ou de abandono (ABA), vale a seguinte igualdade: � � *�� - +,( - ��( - ( � - �'� Dessa forma, as taxas de rendimento escolar são calculadas pelas seguintes expressões: a) Taxa de aprovação: ��"� � ��(.APR - REP - ABA4 � 100 24 b) Taxa de reprovação: �(�" � ( �.APR - REP - ABA4 � 100 c) Taxa de abandono: ��5� � �'�.APR - REP - ABA4 � 100 d) Taxa de não resposta: Por fim, para verificar a representatividade das taxas de rendimento escolar, calcula-se a taxa de não resposta (TNR), definida como: �6( � +,(.n ) FAL4 � 100 Devemos observar que, necessariamente, vale a seguinte relação: �� � �� �"��:�çã� - �� � �� ��"��:�çã� - �� � �� �5������ � 100 Exemplo de cálculo, aplicação e interpretação dos indicadores Suponha que você tenha acabado de assumir a Secretaria de Educação de Curvelo (MG) e precise saber como está o cenário da pré-escola no município. Utilizando os dados apresentados pelo IBGE1, será necessário fazer o levantamento das seguintes informações: � taxa de atendimento escolar na pré-escola; � taxa de escolarização bruta na pré-escola e � taxa de escolarização líquida na pré-escola. Após o levantamento e o cálculo dessas taxas, será preciso responder às seguintes questões: � Como se encontra o cenário da pré-escola no município? � Qual(is) seria(m) a(s) iniciativas da Secretaria? � Qual(is) seria(m) a(s) requisições da Secretaria ao governo do Estado? 1 Informações disponíveis em: <https://www.ibge.gov.br/estatisticas-novoportal/sociais/educacao.html>. 25 Inicialmente, vamos realizar o cálculo de cada uma das informações necessárias: a) Taxa de atendimento escolar na pré-escola:Para encontrarmos a taxa de atendimento na pré-escola, devemos utilizar a fórmula da TAE: �� � ���;��<� =>á?�� �;��<� =>á?�� � 100 Onde: � ��� = matrícula em todos os níveis de ensino na faixa etária selecionada � � = população na mesma faixa etária. No entanto, como precisamos saber os dados específicos da faixa etária de quatro a cinco anos, devemos buscar essa informação, que pode ser encontrada no site do Sidra, o sistema IBGE de recuperação automática de dados.2 Após a montagem da tabela, os dados recuperados são os seguintes: Tabela 1973 – pessoas que frequentavam creche ou escola por nível de ensino, sexo e grupos de idade município = Curvelo – MG variável = pessoas que frequentavam escola ou creche (pessoas) nível de ensino ou curso que frequentavam = total sexo = total ano = 2010 grupos de idade 4 anos 712 5 anos 1.022 soma 1.734 2 Disponível em: <https://sidra.ibge.gov.br/Tabela/1973>. 26 Agora, devemos buscar as informações referentes à população do munícipio de Curvelo. Ainda por meio da montagem da tabela disponível do site do Sidra, temos: Tabela 1378 – população residente, por situação do domicílio, sexo e idade, segundo a condição no domicílio e compartilhamento da responsabilidade pelo domicílio município = Curvelo – MG variável = população residente (pessoas) situação do domicílio = total sexo = total condição no domicílio e compartilhamento da responsabilidade pelo domicílio = total ano = 2010 grupos de idade 4 anos 1.024 5 anos 1.106 soma 2.130 Podemos, por fim, aplicar os dados obtidos à fórmula da TAE: �� � @ABC D E F EGHI J@BKD E F EGHI � 100 � 81,40% b) Taxa de escolarização bruta na pré-escola: A taxa de escolarização bruta na pré-escola deve ser encontrada por meio da seguinte fórmula: � ' � ���P?éQ=RSTU� � C � V ��TR � 100 Onde: � ��� = matrícula total em um determinado nível de ensino � � = população na faixa etária adequada a esse nível de ensino 27 Quanto aos dados referentes à população, por meio da construção da tabela no site do Sidra, temos: Tabela 1378 – população residente, por situação do domicílio, sexo e idade, segundo a condição no domicílio e compartilhamento da responsabilidade pelo domicílio município = Curvelo – MG variável = população residente (pessoas) situação do domicílio = total sexo = total condição no domicílio e compartilhamento da responsabilidade pelo domicílio = total ano = 2010 grupos de idade 4 anos 1.024 5 anos 1.106 soma 2.130 Já os dados sobre volume de matrículas no nível de ensino em análise são os seguintes: Tabela 1973 – pessoas que frequentavam creche ou escola por nível de ensino, sexo e grupos de idade município = Curvelo – MG variável = pessoas que frequentavam escola ou creche (pessoas) nível de ensino ou curso que frequentavam = pré-escolar sexo = total grupos de idade = total ano = 2010 2.253 28 Aplicando os dados encontrados à fórmula da TEB, temos: � ' � 22532130 � 100 � 105,77% C) Taxa de escolarização líquida na pré-escola: A última taxa a ser encontrada, a TEL, deve ser calculada da seguinte forma: � � � ��� C � V ��TR � C � V ��TR � 100 Onde: � ��� = matrícula na faixa etária adequada a determinado nível de ensino � � = população na mesma faixa etária Nesse caso, precisamos, novamente, das informações referentes à população: Tabela 1378 – população residente, por situação do domicílio, sexo e idade, segundo a condição no domicílio e compartilhamento da responsabilidade pelo domicílio município = Curvelo – MG variável = população residente (pessoas) situação do domicílio = total sexo = total condição no domicílio e compartilhamento da responsabilidade pelo domicílio = total ano = 2010 grupos de idade 4 anos 1.024 5 anos 1.106 soma 2.130 29 Agora, precisamos das informações referentes ao número de matrículas na pré-escola: Tabela 1973 – pessoas que frequentavam creche ou escola por nível de ensino, sexo e grupos de idade município = Curvelo – MG variável = pessoas que frequentavam escola ou creche (pessoas) nível de ensino ou curso que frequentavam = pré-escolar sexo = total ano = 2010 grupos de idade 4 anos 508 5 anos 716 soma 1.224 Aplicando os dados encontrados à fórmula da TEL, temos: � � � 1224 C � V ��TR 2130 C � V ��TR � 100 � 57,46% Agora, por meio dos resultados obtidos (TAE = 81,40%; TEB = 105,77%; TEL = 57,46%), podemos retomar as questões previamente apresentadas, buscando respondê-las: a) Como se encontra o cenário da pré-escola no município? Ao levarmos em consideração os cálculos efetuados, podemos inferir que, no município de Curvelo (MG), a pré-escola não é ofertada de maneira universalizada à população residente, o que pode ser comprovado por meio da taxa de atendimento escolar encontrada (TAE = 81,49%), que indica o percentual da população daquela faixa etária que está frequentando a escola Podemos também observar que a demanda potencial por matrículas nesse nível, representada pelo cálculo da taxa de escolarização bruta, é alta (TEB = 105, 77%), ultrapassando os 100%, o que reforça a afirmação de que há problemas de acesso presentes no município. 30 Finalmente, a taxa de escolarização líquida (TEL = 57,46%) reitera o acesso como um problema no município, além de revelar outra fragilidade: o sistema educacional do município tem problemas relativos à eficácia, uma vez que pouco mais de 50% da população possui acesso e progressão na vida escolar adequados (regular). b) Qual(is) seria(m) a(s) iniciativas da Secretaria? Entre outras iniciativas, a Secretaria poderia: � aumentar a oferta de acesso à pré-escola por meio da construção de escolas de educação infantil; � estabelecer convênios para garantir a oferta de vagas; � abrir concursos para contratação de professores, especialistas e profissionais para trabalhar nesses novos estabelecimentos e � garantir políticas de formação inicial e complementar aos profissionais da educação. c) Qual(is) seria(m) a(s) requisições da Secretaria ao governo do estado? São possíveis requisições a serem feitas pela Secretaria: � solicitação de recursos para a construção de escolas de educação infantil (Governo Federal); � estabelecimento de convênios ou acordos entre estado e prefeitura, de forma a proporcionar o aluguel de espaços onde os alunos dessa faixa etária pudessem ser atendidos; � solicitação de recursos para efetuar novas contratações; � parcerias com universidades e institutos federais para a oferta de cursos de formação inicial e continuada. Neste módulo, analisaremos os indicadores de aprendizado utilizados no Brasil. Para tanto, consideraremos as matrizes de referência, a escala de proficiência, e os indicadores de qualidade e desigualdade utilizados pelo Sistema de Avaliação da Educação Básica (Saeb). Introdução Como vimos, o direito constitucional à educação no Brasil se concretiza quando: � o estudante tem uma trajetória regular, isto é, tem acesso a uma escola de educação básica na idade correta; � permanece na escola e � conclui as diferentes etapas em que o ensino é organizado, também nas idades esperadas. No entanto, não podemos levar em conta somente a passagem do estudante pela escola. Durante essa experiência escolar, o estudante deve adquirir os aprendizados de que necessita para uma vida plena e, por isso, os indicadores de aprendizado são tão necessários ao monitoramento do direito à educação. Neste conteúdo, vamo-nos restringir à análise dos indicadores de aprendizado do ensino fundamental, pois há dados, produzidos principalmente pelo Sistema de Avaliação da Educação Básica (Saeb) e a Prova Brasil, que nos permitem realizar ummonitoramento abrangente do direito de aprender ao longo de muitos anos. MÓDULO II – INDICADORES DE APRENDIZADO 32 O Sistema de Avaliação da Educação Básica (Saeb) foi criado no início da década de 1990, tendo como objetivo medir o desempenho acadêmico dos alunos da educação básica, e os fatores associados a esse desempenho e que nele interferem (fatores intra e extraescolares). O sistema é composto de duas avaliações: � Avaliação Nacional da Educação Básica (Aneb) – divulgada com o nome de Saeb, essa avaliação é aplicada a uma amostra de estudantes das redes públicas e privadas do País, localizados na área rural e urbana e matriculados nos 5º e 9º anos do ensino fundamental, e também no 3º ano do ensino médio, e � Avaliação Nacional do Rendimento Escolar (Anresc) – divulgada e conhecida com o nome de Prova Brasil, essa avaliação é aplicada censitariamente a alunos dos 5º e 9º anos do ensino fundamental público, nas redes estaduais, municipais e federais de área rural e urbana, em escolas que tenham, no mínimo, 20 alunos matriculados na série avaliada. A Prova Brasil faz parte do Sistema de Avaliação da Educação Básica (Saeb). Participam dessa avaliação as escolas públicas com, no mínimo, 20 alunos matriculados nas séries avaliadas. Para saber mais sobre o Saeb e a Prova Brasil, acesse: � Portal do Inep. Disponível em: < http://portal.inep.gov.br/educacao-basica/saeb>. Acesso em: fev. 2018. � Portal do Inep. Disponível em: < http://portal.mec.gov.br/prova-brasil>. Acesso em: fev. 2018. Os dados existentes no âmbito da Avaliação Nacional da Alfabetização (ANA) e do Exame Nacional do Ensino Médio (Enem) também podem ser usados para a produção de indicadores de aprendizado das outras etapas da educação básica, apesar de não terem ainda a mesma abrangência temporal do Saeb, nem a mesma estabilidade nas suas matrizes e nos seus processos de coleta. A Constituição Federal de 1988 explicitou o projeto da nação brasileira e estabeleceu, no seu artigo 210, a necessidade de construção de uma futura norma legal a partir da qual os aprendizados que caracterizam o atendimento do direito à educação dos estudantes fossem definidos. No entanto, essa norma está ainda em construção, por meio da Base Nacional Comum Curricular. A longa demora na fixação dos objetivos de aprendizagem comuns a todos os sistemas de ensino tem consequências. Uma delas envolve o fato de que as avaliações externas como Saeb e Prova Brasil assumiram o papel de determinar as aprendizagens a serem adquiridas. No entanto, o ideal seria que o contrário ocorresse, ou seja, os testes do Saeb deveriam basear-se em uma especificação que a lei chama de Base Nacional Comum. Além disso, o sistema educacional brasileiro sofre com a ausência de uma 33 linguagem curricular comum, fundamental tanto para a produção e organização de materiais didáticos quanto para a formação inicial e continuada dos professores. Apesar dessa ausência, a importância de se conhecer o nível de aprendizado dos estudantes é tão premente que o Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep) definiu uma matriz responsável por orientar as suas avaliações externas desde 1995. Matrizes de referência do Saeb3 Para a fixação das matrizes do Saeb, estabeleceu-se que os objetivos de aprendizagem seriam definidos por meio de sentenças que especificam, conjuntamente, os conhecimentos e a ação mental a ser realizada. Com isso, optou-se por desconsiderar as especificações, usuais até então, que consistiam em uma lista de conteúdos disciplinares. Essa opção teórica nos mostra que o objetivo da educação é levar o estudante a desenvolver um conjunto de habilidades que o permita enfrentar problemas concretos durante a sua vida. Na realidade, essa opção teórica reconhece que o estudante deve desenvolver conhecimentos e habilidades, ou seja, competências que, segundo Phillipe Perrenoud (1993, p. 23), consistem na “capacidade de agir eficazmente em um determinado tipo de situação, apoiando-se em conhecimentos, mas sem se limitar a eles.” Para enfrentar uma situação, geralmente, colocam-se em prática vários recursos cognitivos e não cognitivos entre os quais estão os conhecimentos. “Quase toda ação mobiliza alguns conhecimentos, algumas vezes elementares e esparsos, outras vezes complexos e organizados em rede” (PERRENOUD, 1993, p. 23). O planejamento inicial do Saeb definiu que apenas as competências leitora e a matemática seriam objetos de medida, considerando-as duas áreas fundamentais, pois, além de terem importância própria, permitem aos estudantes aprenderem outras competências. A construção dessa matriz, realizada em 1995, foi precedida de uma consulta nacional aos currículos usados pelas Secretarias Estaduais de Educação e praticados nas escolas brasileiras de ensino fundamental e médio. O objetivo dessa consulta era buscar o havia de comum entre esses currículos. Todavia, como se sabe, há uma grande distância entre o currículo proposto e aquilo que é, de fato, ensinado. Por esse motivo, o Inep consultou, adicionalmente, professores das capitais brasileiras regentes nas redes municipal, estadual e privada da 4ª e 8ª séries do ensino fundamental e da 3ª série do ensino médio, nas disciplinas de Língua Portuguesa e Matemática. Além disso, examinou os livros didáticos mais utilizados nas mesmas redes e séries, para validar a 3 O conteúdo desta seção tem como base os documentos do Inep que descrevem a metodologia do Saeb (2001). 34 listagem inicial. Em seguida, incorporou as análises de especialistas nas áreas de conhecimento a serem avaliadas. Tanto a competência leitora quanto a matemática envolvem muitas habilidades. Por conta disso, as habilidades a serem desenvolvidas em cada série e disciplina foram agregadas em grupos denominados descritores. Cada descritor deu origem a diferentes itens e, a partir das respostas dadas a esses itens, verificou-se o que alunos sabiam e conseguiam realizar a partir dos conhecimentos adquiridos. Em sequência, veremos o conteúdo das matrizes de Língua Portuguesa e Matemática, Matriz de Língua Portuguesa O ensino de Língua Portuguesa tem como finalidade promover o desenvolvimento do aluno para o domínio ativo do discurso. Dessa forma, considera-se que o indivíduo realmente domina uma língua quando sabe fazer uso dos seus recursos expressivos em diversas situações ou quanto, por meio do texto, é capaz de manifestar os seus próprios desejos e convicções, sabe informar, persuadir, divertir, emocionar, argumentar, posicionar-se e criticar. Ser competente no uso da língua significa saber interagir, por meio de textos, em qualquer situação de comunicação. Por tudo isso, o texto deve ser o ponto de partida e de chegada das atividades de ensino- aprendizagem e de verificação do aprendizado da língua. Por restrições operacionais de várias ordens, em Língua Portuguesa, optou-se por avaliar somente habilidades de leitura. Essa centralidade dada à leitura não significa, no entanto, que o Saeb minimiza a importância de avaliar a competência dos alunos quanto à produção de textos escritos. A matriz do Saeb está organizada em subconjuntos de habilidades denominados descritores. Os descritores da matriz de Língua Portuguesa não contemplam todos os objetivos de ensino de leitura, mas apenas aqueles considerados mais relevantes e possíveis de serem avaliados em um teste de múltipla escolha. Os resultados de tais testes devem possibilitar uma visão real do ensino brasileiro, sem que sejam privilegiados enfoques curriculares ou características regionais de abordagem. Há, entretanto, diferenças no que diz respeito ao grau de complexidade com que esses descritores são tratados nos itens colocados nos testes. Esse grau de complexidade resulta, porexemplo, da temática desenvolvida, das estratégias textuais usadas na sua composição, da escolha de um vocabulário mais ou menos incomum, dos recursos sintático-semânticos utilizados, bem como das determinações específicas do gênero e da época em que foi produzido. O grau de complexidade da tarefa resulta de aspectos relativos aos diversos saberes que o sujeito terá de mobilizar para resolver o problema proposto. Ao se considerarem as articulações entre a complexidade da tarefa e do objeto, outros graus de dificuldade também podem ser introduzidos, de modo que não existem padrões fixos de complexidade. 35 O mesmo descritor, dependendo do texto escolhido e do tipo de tarefa solicitada, pode trazer graus de dificuldade diferentes. Por exemplo, quando se solicita que o leitor localize uma informação no texto, a tarefa poderá ser mais ou menos difícil, dependendo da complexidade desse texto e do tipo de questão proposta. Matriz de Matemática Existe um razoável consenso entre os professores que ensinam Matemática de que a resolução de problemas deve ser tomada como eixo norteador das atividades dessa área de conhecimento. Tal consenso se deve ao fato de que a resolução de problemas possibilita o desenvolvimento das capacidades de observação, estabelecimento de relações, comunicação (diferentes linguagens), argumentação e validação de processos. Além disso, estimula formas de raciocínio como intuição, indução, dedução e estimativa. Essa opção traz implícita a convicção de que o conhecimento matemático ganha significado quando os alunos têm situações desafiadoras para resolver e trabalham para desenvolver estratégias de resolução. Tudo isso se contrapõe a um ensino de Matemática limitado a processos que têm como finalidade a simples memorização de regras e técnicas. Dessa forma, os instrumentos de avaliação devem também contemplar a opção pedagógica pela solução de problemas, exigindo explicações, justificativas e argumentações orais, uma vez que estas revelam aspectos do raciocínio que, muitas vezes, não ficam explícitos nas avaliações escritas. Sob esse aspecto, é evidente que o desempenho dos alunos em uma prova com questões de múltipla escolha não fornece ao professor indicações de todas as competências desenvolvidas nas aulas de Matemática. Por esse motivo, a Matriz de Referência de Matemática do Saeb é um documento que visa identificar as competências em conteúdos matemáticos desenvolvidas nos Ensinos Fundamental e Médio, passíveis de serem verificadas por meio de avaliações escritas. Essa Matriz não pode, no entanto, ser interpretada como um conjunto de indicações que norteará as estratégias de ensino nas escolas, papel reservado a parâmetros, currículos e diretrizes curriculares. No processo de elaboração dos itens do Saeb, é levado em conta que, em última análise, podemos dizer que um aluno aprendeu uma noção quando ele é capaz de utilizá-la para resolver um problema diferente daquele que deu origem à construção da noção, quando questiona as resoluções efetuadas e as respostas encontradas. Dessa forma, a prova busca constituir-se, prioritariamente, de situações em que a resolução de problemas seja significativa para o aluno. Por problemas significativos para o aluno entendem-se situações que permitam a esse aluno “recontextualizar” os conhecimentos que foram “descontextualizados” por ocasião do seu processo de aprendizagem. Ao contrário da situação-problema, cuja utilização está estreitamente ligada a situações de aprendizagem, os problemas significativos têm por objetivo verificar em que medida essa aprendizagem foi efetivamente realizada. Essa opção pela resolução de problemas 36 significativos não exclui totalmente a possibilidade da proposição de alguns itens com o objetivo de avaliar se o aluno tem domínio de determinadas técnicas. Para saber mais sobre os descritores de Matemática, que são em maior número, acesse: � Portal do Inep. Disponível em: <http://portal.inep.gov.br/web/guest/educacao- basica/saeb/matrizes-e-escalas>. Acesso em: fev. 2018. Composição dos testes Para cumprir a sua função de avaliar o ensino oferecido pelas escolas de educação básica, o Saeb precisa contemplar as muitas especificidades de cada uma das duas competências (leitura e matemática) avaliadas. Isso exige a inclusão de muitas questões nos testes. De 1995 até 2005, em torno de 150 itens eram incluídos nos testes, número grande demais para ser respondido por um único aluno. Para contornar esse problema, o Saeb utiliza uma técnica denominada Blocos Balanceados Incompletos (BIB), que permite montar testes de tamanho adequado ao tempo disponível, mas com itens comuns. Dessa forma, diferentes alunos de um mesmo ciclo do Saeb fazem provas diferentes, mas que têm entre si itens comuns e que, no seu conjunto, contemplam todas as especificidades da competência considerada. Ciclos contíguos do Saeb também têm itens em comum. Até 2005, 26 cadernos de provas diferentes eram utilizados, como podemos ver na tabela a seguir. A partir de 2005, com a criação da Prova Brasil, outros planejamentos passaram a ser utilizados. Tabela 6 – Delineamento de blocos incompletos balanceados (BIB) caderno primeiro bloco segundo bloco terceiro bloco caderno primeiro bloco segundo bloco terceiro bloco 1 1 2 5 14 1 3 8 2 2 3 6 15 2 4 9 3 3 4 7 16 3 5 10 4 4 5 8 17 4 6 11 5 5 6 9 18 5 7 12 6 6 7 10 19 6 8 13 7 7 8 11 20 7 9 1 37 caderno primeiro bloco segundo bloco terceiro bloco caderno primeiro bloco segundo bloco terceiro bloco 8 8 9 12 21 8 10 2 9 9 10 13 22 9 11 3 10 10 11 1 23 10 12 4 11 11 12 2 24 11 13 5 12 12 13 3 25 12 1 6 13 13 1 4 26 13 2 7 Fonte: Inep(2006). Escolas e alunos avaliados Embora a participação no Saeb seja voluntária, atualmente todos os estados brasileiros cooperam. Respondem aos testes os alunos presentes na escola no dia da aplicação da avaliação, de turmas da quarta série (quinto ano) e oitava série (nono ano) do ensino fundamental e do terceiro ano do ensino médio de uma amostra de escolas públicas. A inclusão de uma escola na amostra segue o plano amostral elaborado por técnicas estatísticas recomendadas pela literatura. Desde 2001, o plano amostral tem as mesmas linhas estruturais. Na primeira etapa desse plano amostral, são selecionadas as escolas que participarão do Saeb. Na segunda etapa, são selecionadas as turmas da escola que participarão da avaliação. Todos os alunos das turmas escolhidas são testados. Desse modo, a classe é a unidade amostral elementar. Com o objetivo de conseguir um maior espalhamento, escolas com uma ou duas turmas regulares na série têm apenas uma turma selecionada, enquanto escolas com três ou mais turmas regulares têm duas turmas selecionadas (Inep, 2001). Prova Brasil A partir de 2005, o Inep passou a aplicar os testes do Saeb a alunos de 5º e 9º anos do ensino fundamental público de todas as escolas das redes estaduais, municipais e federais, das áreas rural e urbana, com mais de 20 alunos matriculados na série avaliada. Isso implicou a quase universalização do Saeb. 38 Para evidenciar esse novo escopo, o Inep passou a utilizar a denominação Avaliação Nacional de Rendimento Escolar (Anresc), com nome fantasia de Prova Brasil, para os testes aplicados. Também mudou a denominação do Saeb para Aneb (Avaliação Nacional da Educação Básica). Nesse novo formato, o nome Saeb passou a denominar uma estrutura geral que abrange os vários tipos de avaliações relativas à educação básica. Motivação A criação da Prova Brasil resultou de uma crítica recorrente feita ao Saeb. Segundo a visão de alguns críticos, o Saeb não atendia às necessidades de escolas específicas e, portanto, não teria utilidade pedagógica. Em outras palavras, como a maioria das escolas nãoera avaliada, os resultados obtidos não eram vistos como representativos da realidade de uma escola específica. Isso ensejava a desconsideração das suas conclusões. Com a produção de resultados para cada escola, tornou-se necessário buscar então explicações para os resultados dos alunos de cada escola. A Prova Brasil atendeu também àqueles que defendem a ideia de que as organizações públicas devem prestar contas das suas ações à sociedade rotineiramente. De posse dos resultados da Prova Brasil, cada escola pode mostrar e explicar aos grupos sociais a que atende como está o aprendizado dos seus alunos. Com o uso das medidas de aprendizado obtidas por meio da Prova Brasil na construção do Índice de Desenvolvimento da Educação Básica (Ideb), a ideia de que os resultados podem ser entendidos como registros do aprendizado dos alunos entrou, definitivamente, no debate educacional brasileiro. 39 Características O desenho da Prova Brasil é semelhante ao do Saeb. A partir da edição de 2007, os alunos avaliados respondem a testes de duas disciplinas: Língua Portuguesa e Matemática. A Prova Brasil é estruturada da seguinte maneira: Tabela 7 – Estrutura da Prova Brasil. ano Português Matemática organização 5° ano 7 blocos 11 itens por bloco 7 blocos 11 itens por bloco � 21 cadernos de provas diferentes; � cada aluno responde a 1 caderno contendo 2 blocos de português e 2 blocos de matemática e � cada aluno responde 22 itens de cada disciplina. 9° ano 7 blocos 13 itens por bloco 7 blocos 13 itens por bloco � 21 cadernos de provas diferentes; � cada aluno responde a 1 caderno contendo 2 blocos de português e 2 blocos de matemática e � cada aluno responde 26 itens de cada disciplina. A cada novo ciclo da Prova Brasil, novas escolas têm sido incluídas, expandindo-se assim, progressivamente, o número de alunos que potencialmente podem fazer a prova. Hoje a Prova Brasil é um levantamento quase censitário das escolas públicas. No entanto, como não inclui as escolas privadas, fornece um quadro mais parcial do que aquele produzido pelo Saeb acerca do ensino fundamental brasileiro. 40 Resultados As tabelas a seguir nos mostram o número de escolas estaduais ou municipais com mais de 15 alunos que atingiram os níveis “adequado” e “avançado” entre as que fizeram cada ciclo da Prova Brasil. Tabela 8 – Percentual de alunos de escolas estaduais, municipais e federais acima do ponto de referência adequado em Leitura e Matemática nos testes da Prova Brasil (2005-2015). ano 4ª série 8ª série Matemática Leitura Matemática Leitura 2005 20,4 29,1 12,9 19,4 2007 21,5 25,4 9,4 15,7 2009 30,2 31,6 10,6 22,4 2011 33,3 37,1 12,5 23,1 2013 36,2 41,5 12,0 24,8 2015 40,1 51,7 14,0 29,9 Fonte: Elaboração baseada nos microdados da Prova Brasil 2007 a 2015. Tabela 9 – Número de escolas estaduais, municipais ou federais com mais de 70% de seus alunos acima do ponto de corte nos diferentes ciclos da Prova Brasil ano 5º ano Matemática 5º ano Leitura 9º ano Matemática 9º ano Leitura 2005 21 (0,1%) 155 (0,5%) 13 (0,1%) 8 (0,0%) 2007 260 (0,7%) 303 (0,8%) 35 (0,1%) 28 (0,1%) 2009 540 (1,2%) 321 (0,7%) 16 (0,05%) 19 (0,1%) 2011 1.131(2,8%) 958 (2,3%) 38 (0,1%) 49 (0,2%) 2013 935 (2,4%) 1.197 (3,0%) 17 (0,1%) 39 (0,1%) 2015 1.573 (4,1%) 3.069 (7,9%) 36 (0,1%) 84 (0,3%) Fonte: Elaboração baseada nos microdados divulgados pela Prova Brasil. 41 Como podemos notar, ainda é diminuto o número de escolas que atingiram o patamar estabelecido. No entanto, devemos observar que houve melhora a partir de 2005, quando a Prova Brasil teve a sua primeira edição. Além disso, a situação da oitava série é sistematicamente pior do que a da quarta série. Relevância pedagógica A instituição da Prova Brasil criou necessidades novas, ainda não completamente atendidas. Como o seu o resultado é enviado a cada escola, tornou-se necessário produzir material que permita a essas escolas dar sentido pedagógico e instrucional aos resultados obtidos. Essa necessidade não estava presente quando apenas o Saeb era realizado e destinado apenas às redes de ensino que, por isso, nos seus relatórios podiam usar linguagem mais acadêmica e sofisticada. Muitas iniciativas têm sido realizadas para suprir essas novas necessidades. O Inep envia um cartaz com uma síntese dos resultados da escola e alguma informação para a sua contextualização. Recentemente, o movimento Todos pela Educação, em parceira com o Inep e a Secretaria de Educação Básica do MEC, produziu documentos com orientações para o estudo da Prova Brasil (INEP, 2009a; 2009b). O objetivo de tais documentos é explicar o que são as matrizes de referência, como são construídos os itens avaliados nas provas, como deve ser feita a interpretação pedagógica das escalas de proficiência, alguns exemplos de questões, etc. O estudo desses documentos permitiria aos professores saber quais habilidades devem ser desenvolvidas no ensino fundamental até o 5º e o 9º anos. Apesar desses esforços, ainda há muito a ser feito nessa área. Uma dificuldade estrutural reside no fato de a análise dos dados da Prova Brasil exige conhecimentos e práticas que não estão disseminados na maioria das escolas. Desse modo, dar relevância pedagógica à Prova Brasil constitui ainda objetivo a ser alcançado. Análise crítica Com a implementação da Prova Brasil, o Saeb perdeu a proeminência. Nesse novo quadro, apenas a qualidade do ensino das escolas públicas é avaliada. As escolas privadas de ensino fundamental não são avaliadas de nenhuma forma, apesar do que estabelece o artigo 209 da Constituição: “Art. 209. O ensino é livre à iniciativa privada, atendidas as seguintes condições: I - cumprimento das normas gerais da educação nacional; II - autorização e avaliação de qualidade pelo Poder Público.” 42 A Prova Brasil avalia apenas o ensino fundamental. Embora o ensino médio ainda seja avaliado por meio do Enem, como esse exame é voluntário, os seus resultados não podem ser usados como descritivos de toda a realidade desse estágio de ensino. Assim sendo, com a perda de importância do Saeb, o País deixou de conhecer a evolução da educação básica como um todo, ou seja, ganhou em profundidade no estrato, onde estão a maioria dos alunos, mas perdeu em representatividade. Para a realização da Prova Brasil, com base na informação fornecida pelas escolas no Censo Escolar, os responsáveis pela organização enviam um teste nominalmente identificado a todos os alunos matriculados nas escolas selecionadas. No entanto, ainda não há um controle das ausências dos alunos no dia de aplicação da Prova Brasil. Não se sabe se essas ausências são intencionais, ocasionais ou se devem-se, simplesmente, ao fato de as escolas não terem preenchido corretamente o Censo Escolar. A tabela a seguir nos apresenta o número e o percentual de alunos que estiveram presentes e ausentes no teste realizado no ano de 2009. Como podemos observar, os percentuais de ausência são grandes o suficiente para que os resultados obtidos possam ser questionados, principalmente na oitava série. Não há estudos de caracterização dos ausentes que permitam identificar o perfil dos alunos ausentes e, consequentemente, validar os resultados obtidos. Tabela 10 – Número de alunos presentes e ausentes na Prova Brasil 2009 série SITUAÇÃO total ausente presente 4a 458,888 2,568,638 3,027,526 15.2% 84.8% 8a 723,443 2,020,975 2,744,418 26.4% 73.6% Fonte: Elaboração baseada nos microdados divulgados pela Prova Brasil. O número total de itens aplicados diminuiu, consideravelmente, do Saeb para a Prova Brasil. O eventual impacto dessa diminuição na qualidade do diagnóstico é uma questão de pesquisa ainda em aberto. Também o questionário contextual foi diminuído,impedindo a contextualização dos resultados por dimensões que podiam ser medidas anteriormente. A justificativa para os questionários que vinham sendo utilizados no Saeb está em Franco et al. (2003) e a mudança do questionário não foi justificada. Finalmente, a Prova Brasil adotou a mesma matriz do Saeb, ao mesmo tempo em que se introduziu a comparação com outros países com a criação das metas do Ideb. No entanto, é 43 pouco enfatizado no debate educacional que o Pisa exige habilidades mais complexas nos seus testes de Leitura e Matemática do que a Prova Brasil. Em outras palavras, mesmo se o Brasil viesse a atingir as metas de desempenho colocadas para a Prova Brasil, os seus alunos não estariam com o mesmo nível de conhecimento de alunos de outros países medidos pelo Pisa. Escala de proficiência As notas dos alunos que fazem os testes do Saeb recebem o nome técnico de proficiências e são obtidas por meio do uso de um modelo da Teoria de Resposta ao Item – TRI (KLEIN, 2013). Essa técnica estatística considera os acertos nas questões, bem como usa a informação presente nos itens comuns aos diferentes testes e ciclos para atribuir aos alunos proficiências que são comparáveis entre as séries e os anos. Os valores dessas proficiências foram calculados, em 1997, fixando-se a média teórica das proficiências de todos os alunos da oitava série em 250 e o respectivo desvio-padrão em 50. Considerando que a escala das proficiências é única para as três séries (anos escolares) incluídas no Saeb, os alunos da quarta série do ensino fundamental têm, tipicamente, proficiências menores, e os do terceiro ano do ensino médio têm proficiências maiores do que as dos alunos da oitava série. No entanto, a variação das proficiências em cada série é significativa, o que resulta em grande interseção entre as distribuições das proficiências dos alunos das diferentes séries. Além disso, é importante ressaltarmos que, fruto de uma idiossincrasia técnica, as proficiências de Leitura em uma dada série são tipicamente maiores que as de Matemática. No entanto, um valor maior de proficiências em Leitura do que em Matemática não significa, necessariamente, que o aluno tem maior domínio da primeira. Construído e aplicado o teste, como vimos, a medida da competência, que recebe o nome técnico de “proficiência”, é obtida por meio do uso de modelos da TRI. Uma função matemática, denominada “curva de característica do item”, mostra como a probabilidade de acerto do item se associa à proficiência do examinando e à dificuldade do item. Desse modo, a probabilidade de acerto de um item aumenta com a proficiência do examinando e cai de acordo com a dificuldade do item. No Brasil, o modelo logístico usualmente preferido é o de três parâmetros da TRI, que é assim dividido: � parâmetro a – capta o poder de discriminação; � parâmetro b – representa a dificuldade e � parâmetro c – representa a taxa de acerto casual do item. 44 O modelo de dois parâmetros é, geralmente, usado com itens de respostas curtas, corrigidas apenas como acerto e erro, situação em que não há acerto casual. Já os modelos de crédito parcial são usados para questões abertas e redações. O gráfico a seguir nos mostra a curva do modelo de três parâmetros para um item que tem nível de dificuldade de 0,114, discriminação de 0,796 e acerto casual baixo, de 0,088. Essa função matemática representa a relação entre os dados empíricos, isto é, as respostas ao item e as qualidades não observadas, as proficiências latentes. O parâmetro de dificuldade b, representado pela linha vertical do gráfico, caminha para a direita ou para a esquerda, na curva de característica, conforme o nível de dificuldade cresce ou diminui. Já o parâmetro de discriminação do item a, representado pela linha tangente à curva, altera a inclinação da curva característica, captando o poder de discriminação do item. Por fim, o parâmetro de acerto casual do item c, representado pela linha horizontal na base do gráfico, apresenta a probabilidade de um acerto por pessoas sem nenhuma proficiência na matéria medida pela prova. Vejamos: Figura 2 – Curva característica de um item no modelo de três parâmetros da TRI Fonte: SOARES, 2009. No gráfico, os dados empíricos pelos círculos, cujo tamanho retrata a frequência relativa observada em cada ponto. O uso da TRI exige que o teste meça apenas um construto, a chamada hipótese de unidimensionalidade, que precisa ser verificada. Quando isso ocorre, pode-se estudar esse construto por meio de uma única medida síntese, não havendo necessidade de considerar qual foi a resposta dada a cada um dos itens do teste. Um ajuste dos dados ao modelo, adequado a situações reais, requer que o princípio da unidimensionalidade se aplique pelo menos aproximadamente. O pressuposto adicional da independência local implica a possibilidade de cada item ser tratado como um evento independente, o que requer que as respostas aos itens do teste sejam independentes do ponto de vista estatístico, depois de considerada a proficiência de cada 45 examinando. Em outras palavras, o modelo da TRI pressupõe que a resposta a um item do teste não deve determinar ou influenciar a resposta a qualquer outro item. Nessas condições, a probabilidade de obter qualquer conjunto de respostas de item, denominada independência local, é obtida pelo produto das probabilidades individuais dos itens. Isso permite a utilização do princípio da máxima verossimilhança para estimar a proficiência dos examinandos. Quando pode ser demonstrado que as respostas dos examinandos se ajustam ao modelo de resposta, entende-se que os parâmetros de cada item não dependem dos examinandos avaliados em determinada ocasião e também que as estimativas das proficiências não dependem dos itens aplicados em determinada ocasião. Da mesma forma, os procedimentos da verossimilhança acomodam bem a substituição, a eliminação e o acréscimo dos itens, assim como toleram bem respostas ausentes de itens que não foram resolvidos pelos alunos ou que não lhes foram apresentados. Finalmente, a TRI permite que testes diferentes aplicados a grupos distintos de alunos sejam organizados de forma que possam produzir proficiências comparáveis. Isso permite que os resultados de testes de anos diferentes possam ser comparados. Todos esses fatos justificam o amplo uso da TRI em processos de avaliação educacional, apesar das fortes hipóteses exigidas. Para saber mais sobre o modelo da TRI, leia: � HAMBLETON, R. K.; SWAMINATHAN, H.; ROGERS, H. J. Fundamentals of item response theory. Newburry Park, Califórnia: Sage Publications Inc., 1991. A escala de proficiência na Prova Brasil, originalmente calculada por meio de desvios- padrão, é transformada para valores de 0 a 500 pontos. Como a escala de proficiência é a mesma para as diferentes edições da Prova, devido ao processo de equalização utilizado na análise dos testes, as variações na proficiência dos alunos de determinado ano escolar entre as edições refletem a melhora ou piora no aprendizado das coortes avaliadas.4 Além disso, como a mesma escala é usada para expressar os escores dos alunos dos diferentes anos escolares ou séries, os alunos do 5º ano têm, tipicamente, proficiências com valores mais baixos do que os alunos do 9º ano. 4 O processo de equalização supõe a inclusão de itens comuns nas edições dos testes e em etapas do ensino contíguas. Isso garante que uma escala única de medida das proficiências seja usada para acompanhar tanto os aprendizados dos alunos ao longo das edições bianuais do Saeb/Prova Brasil quanto os ganhos ocorridos ao longo da trajetória escolar dos estudantes. Para saber mais, acesse: Portal do Inep. Disponível em: <http://portal.inep.gov.br/web/saeb/aneb-e-anresc>. Acesso em: fev. 2018.46 Interpretação pedagógica da medida Consideremos a seguinte situação hipotética: um teste foi construído com tantos itens quantos necessários para captar toda a diversidade de tarefas que caracteriza, completamente, a competência considerada e foi aplicado a um grande número de alunos que tenham todos os níveis na respectiva competência. Nesse caso, dizemos que as proficiências desses alunos definem uma escala de medida da competência. Usualmente, essa escala é um continuum, mas, por opções metodológicas, varia usualmente entre menos três e três (-3 e 3), limites que podem ser transformados em quaisquer outros valores julgados mais convenientes. Uma escala só é útil para finalidade de diagnóstico ou de ação pedagógica se os seus diferentes pontos tiverem uma interpretação pedagógica. A interpretação começa com a construção de um mapa de itens, que consiste em associar cada item do teste a um ponto da escala utilizada para medir as proficiências dos alunos. Como mostrado pela curva de característica, a relação entre um item e uma escala é probabilística e, portanto, muitos pontos da escala podem ser escolhidos como localização de um item. É bastante frequente tomar como ponto de locação de um item a proficiência em que a probabilidade de acertar o item seja de 65%. A figura a seguir nos traz a expressão gráfica de um mapa de itens, mostrando que tanto os alunos quanto os itens estão referenciados a pontos da escala. Figura 3 – Mapa de itens Fonte: SOARES, 2009. Após a construção desse mapa de itens, a interpretação pedagógica se baseia no seguinte princípio: alunos com proficiência em um dado valor são capazes de realizar tarefas implícitas presentes nos itens que estão localizados em valores menores do que os da sua proficiência. Existem várias nuances para a aplicação prática desse princípio. A referência clássica é o artigo de Beaton e Allen (1992). Os detalhes podem ser encontrados nas várias interpretações publicadas da escala do Saeb, principalmente em Fontanive, Elliot e Klein (2007). Os materiais de divulgação do Saresp também apresentam a interpretação da escala do Saeb com itens que foram utilizados nesse exame. 47 Para saber mais sobre o Saresp, acesse: � Saresp. Disponível em: <http://saresp.fde.sp.gov.br/2017>. Acesso em: fev. 2018. Interpretação normativa A interpretação que acabamos de apresentar, embora fundamental para orientar intervenções pedagógicas, não explicita se as proficiências obtidas pelo grupo de alunos analisados são ou não adequadas, considerando a trajetória escolar dos alunos testados. Isso exige a produção de outra interpretação, usualmente apresentada por meio da escolha de níveis, ou seja, pela divisão da escala de medida em intervalos a que são atribuídos significados pedagógicos e normativos. Há muita diversidade de opinião sobre o número e a denominação dos níveis a serem usados. Para este conteúdo, escolhemos quatro níveis, cujas denominações e seus respectivos significados normativos são os seguintes: � abaixo do básico – o aluno demonstra um domínio rudimentar da competência medida; � básico – o aluno demonstra um domínio apenas parcial da competência; � proficiente – o aluno demonstra dominar os conteúdos e habilidades esperados para o seu estágio escolar e � avançado – o aluno domina a competência de forma especialmente completa, ultrapassando o esperado para o seu estágio escolar. A opção por quatro níveis reflete a necessidade de orientar a organização de atividades a serem oferecidas aos alunos após a análise dos dados obtidos em uma avaliação. O uso de níveis permite dar às medidas das proficiências dos alunos uma utilidade pedagógica, e não apenas gerencial. Os alunos que estão no nível abaixo do básico precisam de acompanhamento imediato para que a situação em que se encontram não se cristalize. Já os alunos do nível proficiente precisam de atividades que envolvam desafios, como olimpíadas, pois oportunizam a criação de um grupo com desempenho avançado. As atividades adequadas aos alunos do nível básico exigem uma análise mais detalhada de cada situação, considerando o nível de ensino e as preferências individuais desses alunos. Alguns estão nesse nível por entenderem que, em relação àquela competência, não precisam de desempenho além do caracterizado pelo nível básico. No entanto, na maioria das vezes, precisam melhorar o seu desempenho, merecendo atividades de consolidação. O problema que se coloca, entretanto, é a escolha de pontos de corte que definam, exatamente, a localização desses níveis na escala de proficiência. A metodologia escolhida para decidir os pontos de corte no Saresp é apresentada em seguida. 48 Há uma expressiva literatura, criada a partir da proposta de Angoff (1971), para a escolha de níveis de aprendizado em avaliações educacionais de larga escala. Todos os métodos recomendam que a escolha dos pontos de corte deve ser feita utilizando-se, concomitantemente, o mapa de itens e as considerações substantivas sobre o significado pedagógico de cada item, além da organização do ensino. Embora os dados para esse tipo de pesquisa estejam disponíveis, ainda não se organizou, no Brasil, um esforço de interpretação da escala do Saeb como recomendado por essa literatura, sintetizada por Cizek (2001). Diante disso, Soares (2009) escolheu pontos de corte para o Saresp de forma empírica e comparativa. O autor escolheu uma distribuição de referência para as proficiências dos alunos e, a partir dessa distribuição, fixou os pontos de corte que definiram os níveis. A adoção de uma distribuição de referência traz, implicitamente, o reconhecimento prático de que as proficiências dos alunos de um sistema educacional assumirão valores diversos. No entanto, os limites da variação das proficiências devem estar em valores compatíveis com as necessidades de participação social dos alunos. Em outras palavras, quando se monitora a competência cognitiva dos alunos, não se pretende produzir igualdade, mas dar a todos a possibilidade de inserção em diferentes formatos. Diferentes pessoas terão diferentes competências em níveis mais ou menos altos; todos terão, entretanto, domínio das competências que os permitam desenvolver-se como cidadãos. Distribuição de referência Para a definição dos níveis de proficiência, escolhemos a distribuição de referência que considera a comparação entre o desempenho dos alunos brasileiros e o desempenho dos alunos de um grupo de países participantes do Programme for International Student Assessment (Pisa) – Programa Internacional de Avaliação de Estudantes. 49 Vejamos, a seguir, um exemplo de comparação entre o desempenho ideal e o desempenho dos alunos da 8ª série do ensino fundamental que fizeram o teste de Matemática: Figura 4 – Comparação entre o desempenho ideal e o desempenho dos alunos da 8ª série do ensino fundamental que fizeram o teste de Matemática (Saeb, 2003) Fonte: SOARES, 2009. Para saber mais sobre o a distribuição de referência utilizada, leia: � SOARES, José Francisco; DELGADO, Victor Maia Senna. Medida das desigualdades de aprendizado entre estudantes de Ensino Fundamental. Estudos em Avaliação Educacional, v. 27, n. 66, p. 754-780, 2016. Obtida a distribuição de referência, os níveis foram estabelecidos da seguinte maneira: o ponto de corte que define o nível proficiente foi fixado no mesmo valor escolhido pelo movimento Todos pela Educação para o seu indicador, cuja equipe técnica escolheu o ponto acima do qual deveriam estar 70% dos alunos no momento em que a educação brasileira pudesse ser considerada de qualidade. Embora essa escolha tenha sido feita utilizando-se a experiência dos membros da comissão e as interpretações já feitas pela escala do Saeb, os pontos obtidos são muito próximos do percentil 70 da distribuiçãode referência escolhida. 50 Para saber mais sobre o valor escolhido pelo Movimento Todos pela Educação como ponto de corte que define o nível proficiente, acesse: � Todos pela Educação. Disponível em: <https://www.todospelaeducacao.org.br/>. Acesso em: fev. 2018. A definição de apenas um ponto de corte pode ensejar atitudes pouco razoáveis. Por exemplo, os alunos que estão muito abaixo desse ponto não receberão atenção devida nas suas escolas, já que será quase impossível levá-los até o nível desejado em curto prazo. Por outro lado, todas as escolas devem ter excelência acadêmica, o que implica que alguns dos seus alunos tenham um desempenho que ultrapasse o esperado. Diante dessas considerações, usuais em muitos outros sistemas de avaliação no mundo, optou-se por criar para o Saresp mais dois pontos de corte. Os dois outros pontos de corte foram escolhidos de forma ad-hoc, de modo a colocar 25% dos alunos no nível avançado e 25% no nível básico. Desse modo, os pontos de corte são aqueles que definem, na distribuição de referência, intervalos com frequência de alunos de 5%, 25%, 45% e 25%. Depois de todas essas considerações, os pontos de corte adotados em São Paulo ficaram definidos como mostram as tabelas a seguir: Tabela 11 – Níveis Saresp de desempenho para Leitura nível 4ª série EF 8ª série EF 3º ano EM abaixo do básico menor que 150 menor que 200 menor que 250 básico entre 150 e 200 entre 200 e 275 entre 250 e 300 adequado entre 200 e 250 entre 275 e 325 entre 300 e 375 avançado acima de 250 acima de 325 acima de 375 Fonte: SOARES, 2009. 51 Tabela 12 – Níveis Saresp de desempenho para Matemática nível 4ª série EF 8ª série EF 3º ano EM abaixo do básico menor que 175 menor que 225 menor que 275 básico entre 175 e 225 entre 225 e 300 entre 275 e 350 adequado entre 225 e 275 entre 300 e 350 entre 350 e 400 avançado acima de 275 acima de 350 acima de 400 Fonte: SOARES, 2009. Indicadores de qualidade A seguir, apresentamos os dados obtidos pelos testes do Saeb (1995 -2005) e pela Prova Brasil (2005-2009) quanto aos indicadores de qualidade. Tabela 13 – Percentual de alunos de escolas estaduais, municipais e privadas urbanas acima do ponto de referência adequado em Leitura e Matemática nos testes do Saeb (1995-2005) ano 4ª série 8ª série Matemática Leitura Matemática Leitura 1995 19,0 39,3 16,9 37,7 1997 22,3 36,7 17,1 32,3 1999 15,1 26,0 13,2 18,6 2001 16,1 25,6 13,4 21,8 2003 16,7 28,0 14,7 20,0 2005 20,4 29,1 12,9 19,4 Fonte: Baseado nos microdados do Saeb 1995-2005. 52 Tabela 14 – Número de Escolas estaduais ou municipais com mais de 70% de seus alunos acima do ponto de corte nos diferentes ciclos da Prova Brasil ano 5º ano Matemática 5º ano Leitura 9º ano Matemática 9º ano Leitura 2005 21 (0,1%) 155 (0,5%) 13 (0,1%) 8 (0,0%) 2007 265 (0,7%) 307 (0,8%) 35 (0,1%) 28 (0,1%) 2009 1447 (3,3%) 974 (2,2%) 54 (0,2%) 66 (0,2%) Fonte: Baseado nos microdados divulgados pela Prova Brasil. Indicadores de desigualdade As desigualdades são estudadas por meio da relação entre grupos sociais. Ao se medir o aprendizado de um conjunto de estudantes, não se espera observar igualdade. Ao contrário, espera-se observar variações aleatórias. Assim sendo, quando se comparam dois alunos, não é possível saber se a eventual diferença de aprendizado é uma simples variação ou é fruto de uma desigualdade sistemática. Para esclarecer isso, precisamos comparar o aprendizado dos alunos segundo grupos definidos por diversas variáveis, tais como: sexo, raça/cor, região do País, local de moradia, nível socioeconômico ou outras características de interesse. Em uma situação de igualdade de oportunidades, tratamento e resultados educacionais, as variações entre esses grupos seriam iguais. O conceito de equidade pode ser interpretado em dimensões relativas à equidade de acesso (igualdade de oportunidade), equidade no ambiente de aprendizagem (igualdade de tratamento), equidade na produção (igualdade de desempenho ou resultados) e equidade na realização. A visão pluralista de equidade entende que todas essas dimensões devem ser consideradas. Para saber mais sobre as diversas abordagens teóricas e metodológicas do conceito de equidade, leia: � SIMIELLI, L. E. R. Equidade educacional no Brasil: análise das oportunidades educacionais em 2001 e 2011. 133 f. Tese (Doutorado em Administração Pública e Governo) – Escola de Administração de Empresas de São Paulo. São Paulo, 2015. 53 Para analisar os indicadores de desigualdade, tomamos como referência as medidas do aprendizado em Leitura e Matemática para os grupos sociais de interesse. A forma de medir a diferença de resultado entre esses grupos obedeceu ao nível de mensuração das variáveis escolhidas, que foram as seguintes: � sexo; � raça/cor e � faixas de nível socioeconômico. Como essas variáveis são categóricas, foi possível determinarmos a distância entre as distribuições da medida de qualidade entre os grupos. A desigualdade educacional foi então observada pelo hiato de desempenho entre os grupos sociais, como veremos a seguir. Diferenças segundo o sexo do aluno As tabelas a seguir mostram as médias de proficiência em Leitura e Matemática segundo a variável sexo e as diferenças entre os grupos. Vejamos: Tabela 15 – Média das proficiências em Leitura dos estudantes por ano de realização da Prova Brasil e sexo ano escolar edição da Prova Brasil masculino (M) feminino (F) diferença (F - M) 5° ano 2005 169,92 178,97 9,06 2007 170,00 179,90 9,90 2009 177,91 188,12 10,21 2011 182,37 195,55 13,18 2013 187,93 200,60 12,67 9° ano 2005 220,20 228,74 8,54 2007 222,51 235,05 12,55 2009 230,75 244,72 13,97 2011 231,39 246,49 15,10 2013 231,80 247,67 15,87 Fonte: Alves, Soares, Xavier, 2016. 54 Tabela 16 – Média das proficiências em Matemática por ano de realização da Prova Brasil e sexo ano escolar edição da Prova Brasil masculino (M) feminino (F) diferença (F - M) 5° ano 2005 181,63 181,46 -0,17 2007 192,80 191,56 -1,24 2009 203,78 202,58 -1,20 2011 209,08 206,41 -2,67 2013 210,39 209,75 -0,64 9° ano 2005 243,79 236,97 -6,82 2007 245,25 236,97 -8,30 2009 246,52 236,94 -9,58 2011 249,25 242,57 -6,68 2013 247,21 242,13 -5,07 Fonte: Alves, Soares, Xavier, 2016. Como podemos observar, em Leitura, houve melhora nas médias tanto do 5º quanto do 9º ano, de 2005 a 2013. No entanto, as meninas estão claramente em patamar superior de aprendizado e as diferenças cresceram. Em Matemática, também houve melhora das médias, mas o comportamento é diferente: os meninos estão em vantagem, sendo que as diferenças são maiores no 9º ano. Vale registrarmos, entretanto, que o hiato das meninas no 5º ano, em Matemática, é relativamente pequeno, inferior a 10 pontos. Na escala da Prova Brasil, esse não é um valor substancial, que não possa ser equalizado. O hiato de desempenho entre meninas e meninos é um resultado consistente com a literatura educacional sobre diferenças de gênero. Vários estudos internacionais de avaliação concordam com o fato de que as alunas têm um desempenho em Leitura melhor que os alunos, enquanto que, em Matemática, a diferença entre os gêneros é menos clara e mais instável (EURYDICE, 2010). 55 Diferenças segundo a raça/cor do aluno No questionário contextual da Prova Brasil, cada aluno deve escolher entre cinco categorias de raça/cor: branco, pardo, preto, amarelo e indígena. Como são poucos os alunos que se autodeclaram amarelos ou indígenas (cerca de 5%), optou-se por destacar somente as diferenças entre brancos, pardos e pretos. Nas tabelas a seguir, há duas diferenças que precisam ser analisadas: entre brancos e pretos; e entre pardos e pretos. Vejamos: Tabela17 – Média das proficiências em Leitura por ano de realização da Prova Brasil e raça/cor ano escolar edição da Prova Brasil branco (B) pardo (Pd) preto (Pt) diferença (Pt - B) 5° ano 2005 180,29 174,26 260.72 -19,58 2007 179,37 175,08 162,77 -16,60 2009 187,77 182,87 170,48 -17,29 2011 195,90 188,09 176,23 -19,66 2013 202,19 194,84 180,51 -21,68 9° ano 2005 229,92 222,60 216,67 -13,25 2007 236,33 225,87 220,01 -16,32 2009 245,90 235,37 228,30 -17,60 2011 248,37 236,81 230,28 -18,09 2013 248,87 238,34 230,21 -18,67 Fonte: Alves, Soares, Xavier, 2016. 56 Tabela 18 – Média das proficiências em Matemática por ano de realização da Prova Brasil e raça/cor ano escolar edição da Prova Brasil branco (B) pardo (Pd) preto (Pt) diferença (Pt - B) 5° ano 2005 187,49 181,30 168,74 -18,76 2007 197,23 192,14 179,51 -17,72 2009 208,91 203,14 189,37 -19,54 2011 215,78 206,83 194,20 -21,59 2013 218,46 210,99 195,50 -22,96 9° ano 2005 246,78 237,42 231,24 -15,53 2007 248,89 236,87 231,45 -17,43 2009 250,23 237,63 232,56 -17,67 2011 255,15 242,52 236,65 -18,50 2013 253,43 242,57 235,52 -17,91 Fonte: Alves, Soares, Xavier, 2016. Como podemos observar, os alunos que se autodeclaram pretos, mesmo apresentando melhora da proficiência, sobretudo no 5º ano, têm desempenho pior do que os que se autodeclaram brancos ou pardos. A distância entre pardos e pretos, embora substancial, é menor do que a distância entre brancos e pretos, cuja diferença está destacada na última coluna da tabela (Pt-B). Socialmente, o mais preocupante é o fato de as diferenças não terem diminuído ao longo dos anos. Vale destacarmos que a distância entre pretos e brancos é mais expressiva do que a observada entre meninas e meninos. O aluno preto está em desvantagem equivalente a quase um ano de aprendizado, embora esteja cursando a mesma série que o aluno branco. 57 Diferenças segundo as faixas de nível socioeconômico do aluno A relação entre nível socioeconômico (NSE) e sucesso escolar é a mais explorada desde os estudos precursores de Coleman (1966) e também de Bourdieu e Passeron (2008). A medida do NSE do aluno sintetiza vários itens do questionário contextual relacionados à escolaridade e ao setor ocupacional dos pais do aluno, à posse de itens de conforto e à contratação de empregados domésticos no domicílio. Para a estimação do NSE foram utilizados os itens dos questionários de avaliações realizadas pelo Inep: o Saeb (inclui a Prova Brasil) de 2005 a 2013, e o Exame Nacional do Ensino Médio (Enem) de 2007 a 2013. A estimação do NSE com os dados em conjunto resultou em uma escala representativa do espectro de escolas brasileiras (públicas e privadas) e comparável entre edições. As tabelas a seguir mostram as médias dos estudantes agregados pelo seu respectivo nível socioeconômico em quintis. Tabela 19 – Média das proficiências em Leitura na Prova Brasil por ano de realização da Prova Brasil e Nível Socioeconômico do aluno (NSE) ano escolar edição da Prova Brasil quintis do nível socioeconômico do aluno diferença (5-1) 1 2 3 4 5 mais baixo mais alto 5° ano 2005 167,99 173,20 175,81 279,76 188,08 20,08 2007 163,65 170,42 174,84 179,57 186,18 22,53 2009 165,12 176,14 182,51 189,90 197,08 31,96 2011 169,46 179,73 186,58 194,76 202,41 32,95 2013 167,93 180,41 189,35 200,46 209,11 41,19 9° ano 2005 217,95 222,80 225,73 231,06 238,43 20,48 2007 217,16 224,99 229,54 234,93 241,84 24,68 2009 223,53 233,24 238,10 244,07 250,49 26,96 2011 221,12 231,28 237,63 244,54 251,09 29,97 2013 222,57 231,01 237,12 243,82 248,66 26,10 Fonte: Alves, Soares, Xavier, 2016. 58 Tabela 20 – Média das proficiências em Matemática na Prova Brasil por ano de realização da Prova Brasil e Nível Socioeconômico do aluno (NSE) ano escolar edição da Prova Brasil quintis do nível socioeconômico do aluno diferença (5-1) 1 2 3 4 5 mais baixo mais alto 5° ano 2005 175,32 180,30 183,04 186,99 195,09 19,77 2007 180,20 187,15 192,23 197,67 205,17 24,97 2009 182,86 195,44 202,97 211,29 219,65 36,79 2011 185,60 197,04 205,22 214,64 224,32 38,72 2013 180,99 194,94 204,84 216,75 227,28 46,29 9° ano 2005 231,59 237,86 241,76 248,14 257,57 25,98 2007 227,07 235,51 241,05 247,40 255,88 28,81 2009 225,38 234,77 240,77 247,64 256,53 31,15 2011 226,45 236,80 243,48 250,68 259,03 32,57 2013 226,24 234,23 240.62 247,81 255,23 28,99 Fonte: Alves, Soares, Xavier, 2016. Na coluna “diferença (5-1)”, podemos observar o hiato entre os alunos com os maiores e menores valores de NSE. As diferenças são enormes, e todo o avanço no aprendizado médio dos estudantes brasileiros não mudou em nada as desigualdades. Os alunos com menor NSE (1º quintil) apresentam médias muito semelhantes em todas as edições da Prova Brasil. Os resultados mostram a importância de colocar-se na pauta do debate educacional a diminuição das diferenças encontradas. O hiato entre os alunos discriminados por grupos de NSE é o mais elevado observado até agora. Esse é um constrangimento real, extraescolar, que afeta diretamente as escolas e as salas de aula (BROOKE; SOARES, 2008). No entanto, o tamanho da diferença deve ser destacado. Em 2013, no 5º ano, tanto em Leitura quanto em Matemática, a desvantagem de um aluno com NSE 59 mais baixo é equivale a mais de dois anos de aprendizado, quando comparado a um aluno com NSE mais alto. Alunos com essa defasagem serão fortes candidatos a não concluírem o ensino médio ou não conseguirem avançar para o ensino superior. É importante relembrarmos que essas diferenças se referem a alunos matriculados em escolas públicas estaduais e municipais. Um hiato tão elevado sinaliza que as nossas escolas públicas são, em média, incapazes de garantir a igualdade de oportunidades. Diferenças segundo grupos definidos por múltiplas variáveis Normalmente, definimos o nível de desigualdade de um sistema como a força do peso da origem social sobre os resultados educacionais. No entanto, os mecanismos de produção dessas desigualdades são complexos, e as características de grupos se reforçam ou compensam desvantagens. Quando os grupos são definidos por múltiplos critérios, diferenças ainda mais acentuadas são observadas. As tabelas a seguir apresentam as médias de proficiência de grupos de alunos definidos por sexo, cor e quintis do NSE. Como todas as combinações dessas variáveis produziram muitos grupos, nas tabelas, são mostrados apenas os grupos entre os quais as diferenças são mais notáveis. 60 Vejamos a tabela que apresenta os resultados referentes à Leitura: Tabela 21 – Média das proficiências em Leitura por ano de realização da Prova Brasil grupos definidos por sexo, cor e NSE ano escolar edição da Prova Brasil A B C D E F G H diferença (E-D) 5° ano 2005 174,20 163,24 165,29 156,91 202,11 168,54 190,47 162,93 45,20 2007 168,37 161,94 159,47 155,04 200,36 174,00 188,20 165,42 45,32 2009 170,40 165,47 160,81 158,46 211,33 186,26 199,42 176,86 52,87 2011 176,92 171,17 163,67 160,63 218,94 195,23 204,79 181,45 58,31 2013 175,21 169,72 161,28 159,51 226,53 201,07 212,53 188,01 67,02 9° ano 2005 223,14 217,69 215,30 210,91 251,98 232,77 236,59 220,41 41,07 2007 223,51 218,03 212,80 208,39 257,67 239,53 239,46 220,47 49,29 2009 229,37 224,99 216,67 213,81 266,95 248,48 248,23 228,32 53,14 2011 229,21 225,71 214,25 213,04 268,38 251,12 249,65 229,21 55,33 2013 229,55 226,63 215,90 214,42 267,07 247,99 247,49 226,74 52,65 Fonte: Alves, Soares, Xavier, 2016. Grupos A = meninas brancas com NSE mais baixo E = meninas brancas com NSE mais alto B = meninas pretas com NSE mais baixo F = meninas pretas com NSE mais alto C = meninos brancos com NSE mais baixo G = meninos brancos com NSE maisalto D = meninos pretos com NSE mais baixo H = meninos pretos com NSE mais alto Nessa tabela, a coluna “diferença (E-D)” destaca as distâncias entre as meninas brancas com NSE mais alto (5º quintil) e os meninos pretos com NSE mais baixo (1º quintil). No 5º ano, a distância entre esses dois grupos é enorme e crescente. O mesmo padrão é observado no 9º ano, exceto em 2013, em que é observada uma pequena queda da diferença entre os grupos. 61 Vejamos, agora, a tabela referente às proficiências em Matemática: Tabela 22 – Média das proficiências em Matemática por ano de realização da Prova Brasil grupos definidos por sexo, cor e NSE ano escolar edição da Prova Brasil A B C D E F G H diferença (G-B) 5° ano 2005 177,73 167,26 177,33 168,99 202,60 171,78 202,52 173,41 35,26 2007 180,51 173,58 181,02 175,81 212,62 184,50 213,53 187,62 39,95 2009 183,76 177,96 183,40 180,25 227,39 200,15 228,73 202,21 50,76 2011 186,83 179,72 186,55 182,65 232,15 206,04 235,21 208,33 55,49 2013 183,80 177,95 177,76 176,58 236,96 209,88 238,08 210,87 60,14 9° ano 2005 231,57 224,48 238,24 231,16 262,15 239,90 264,64 242,53 40,16 2007 226,96 219,50 235,57 228,41 260,02 239,34 264,50 241,76 45,00 2009 223,72 217,83 233,30 228,45 260,91 239,31 266,07 243,61 48,24 2011 226,58 221,37 233,03 229,96 265,45 244,63 267,89 244,99 46,52 2013 225,90 222,04 231,37 229,08 262,46 241,95 263,80 241,54 41,76 Fonte: Alves, Soares, Xavier, 2016. Grupos A = meninas brancas com NSE mais baixo E = meninas brancas com NSE mais alto B = meninas pretas com NSE mais baixo F = meninas pretas com NSE mais alto C = meninos brancos com NSE mais baixo G = meninos brancos com NSE mais alto D = meninos pretos com NSE mais baixo H = meninos pretos com NSE mais alto Nessa tabela, a coluna “diferença (G-B)” destaca a distância entre meninos brancos com NSE mais alto e meninas pretas com NSE mais baixo, que têm, sistematicamente, desempenho pior em Matemática. As diferenças entre os grupos do 5º ano são crescentes ao longo do período analisado. No 9º ano, a tendência é de crescimento até 2009 e, depois, de queda. 62 Quase todas as distâncias entre os grupos são superiores a 40 pontos (dois anos de aprendizado) e algumas ultrapassam os 60 pontos. Isso significa que dois alunos matriculados na mesma série, mas diferentes em relação a sexo, cor e NSE, podem estar distantes ao equivalente a mais de três anos de aprendizado um do outro. No entanto, vale destacarmos que as diferenças entre NSE são aquelas que mais pesam para as distâncias verificadas nas tabelas apresentadas. Neste módulo, analisaremos, por meio de uma descrição educacional e estatística, o Índice de Desenvolvimento da Educação Básica (Ideb). Além disso, apresentaremos as sínteses dos resultados das avaliações realizadas por meio de duas plataformas: o portal Ideb Escola e o portal QEdu, que auxiliam na contextualização do cenário educacional brasileiro. Introdução A União, os estados e os municípios brasileiros estão usando, de modo cada vez mais frequente, o desempenho dos seus alunos em avaliações externas de aprendizagem para orientar as suas políticas educacionais. Esses resultados, por sua vez, têm sido sintetizados em indicadores globais de qualidade da educação, entre os quais o mais importante e influente é o Índice de Desenvolvimento da Educação Básica (Ideb), introduzido pelo Inep em 2006. O Ideb se tornou a forma privilegiada e, frequentemente, a única utilizada para analisar a qualidade da educação básica brasileira. Por esse motivo, tem tido grande e profunda influência no debate educacional brasileiro. A sua introdução colocou no centro desse debate a ideia de que, atualmente, os sistemas educacionais brasileiros devem ser avaliados não apenas pelos seus processos de ensino e gestão, mas sim, e principalmente, pelo aprendizado e pela trajetória escolar dos alunos. MÓDULO III – DESCRIÇÃO EDUCACIONAL E ESTATÍSTICA DO IDEB 64 A valorização dos resultados estava ausente nas análises até então dominantes da educação básica brasileira, que eram centradas na questão da expansão dos sistemas. Nessas abordagens, a solução para os problemas educacionais era sempre a expansão de algum aspecto dos sistemas educacionais: mais horas-aula, mais etapas obrigatórias, mais recursos, mais escolas e mais professores. O Ideb, sem questionar a necessidade de novos recursos e expansões, coloca o aprendizado e a regularidade na trajetória escolar dos alunos como elementos essenciais de um sistema educacional. A importância da consideração de resultados para a análise dos sistemas educacionais ficou ainda mais evidente com a introdução do Plano de Metas Todos pela Educação (Compromisso), estabelecido pelo decreto nº 6.094, de 24 de abril de 2007 (BRASIL, 2007), cuja primeira diretriz é “estabelecer como foco a aprendizagem, apontando resultados concretos a atingir.” A ideia de que o sistema educacional deve ser analisado pelos seus resultados tem origem nas análises educacionais realizadas por meio dos dados coletados nos censos demográficos. Rigotti (2004) nos mostra como estão redigidas as questões relativas à educação nos diferentes censos. Para saber mais sobre como são abordadas as questões referentes à educação nos diversos censos, leia: � RIGOTTI, J. I. R. Variáveis de educação dos censos demográficos brasileiros de 1960 a 2000. In: RIOS-NETO, E. L. G.; RIANI, J. L. R. (Org.) Introdução à demografia da educação. Campinas: Abep, 2004. p.129-142. Fletcher e Ribeiro (1989) nos mostraram, também por meio da análise de dados censitários, que a repetência era a grande característica do sistema brasileiro de educação básica, e não a evasão. Esses autores cunharam o termo “pedagogia da repetência”, conceito que teve profundo impacto nas políticas de educação fundamental. Uma dessas influências foi a reformulação do Censo Escolar, hoje um refinado sistema de coleta de dados sobre cada aluno matriculado. A partir dos dados obtidos nos censos demográfico e escolar calculam-se indicadores de analfabetismo, acesso e cobertura, resultados fundamentais para a análise de um sistema de educação básica. Um indicador especialmente importante para o conhecimento de um sistema educacional, mas que exige análises específicas, é o fluxo dos seus alunos (KLEIN, 2006). 65 Com a introdução do Sistema de Avaliação da Educação Básica (Saeb), a ideia de que, além dos indicadores de rendimento, uma medida de aprendizado dos alunos deveria ser usada para o monitoramento do sistema foi ganhando espaço e concretizou-se, em 2005, com a criação da Prova Brasil e, em 2006, com a introdução do Ideb. Uma justificativa nunca explicitada para o uso de resultados de rendimento e aprendizado no monitoramento de sistemas de educação básica é a de que apenas dessa forma o Estado fica sabendo se o direito à educação dos seus cidadãos está sendo atendido. Na ausência de um sistema como esse, o direito público subjetivo estabelecido no texto constitucional não pode ser monitorado e, eventualmente, exigido. Nesse sentido, nosso objetivo é explicitar as opções metodológicas feitas na construção do Ideb, bem como os efeitos diretos e indiretos que induz quando a escola decide buscar, por meio de políticas e práticas internas, a sua maximização. Como qualquer indicador, o Ideb faz um recorte e uma redução do foco de análise. Dessa forma, é importante identificar e discutir como esse indicador define a qualidade e a equidade dos sistemas educacionais brasileiros. Como veremos, se o Ideb, como definido atualmente, for o único indicador usado para guiar as políticas educacionais de educação básica – mesmo no caso otimista de que as suas metas sejam atingidas –, podemos não ter um sistema educacional que garanta o direito constitucional deeducação. Índice de Desenvolvimento da Educação Básica (Ideb) Nesta unidade, explicitaremos as opções metodológicas feitas na construção do Ideb e os respectivos algoritmos. O entendimento desses algoritmos é essencial para construirmos uma análise crítica do indicador. Componentes do Ideb O Ideb de uma escola ou de uma rede de ensino é definido a partir do produto entre: � um indicador de desempenho, tomado como o nível médio da proficiência dos alunos da escola ou rede obtido na Prova Brasil e � um indicador de rendimento, definido como o valor médio das taxas de aprovação da escola ou sistema obtido no Censo Escolar do ano em que o Ideb é divulgado. O valor do Ideb cresce à medida que os resultados do aprendizado dos alunos melhoram e cai à medida que as taxas de aprovação diminuem. Um dos motivos da grande aceitação obtida pelo Ideb é o fato de o índice agregar, em um único indicador, uma medida de desempenho e outra de rendimento, dimensões fundamentais para uma análise relevante de sistemas de educação básica. A seguir, veremos os indicadores de desempenho e rendimento com mais detalhes. 66 Indicador de desempenho O desempenho de uma escola é definido, para o cálculo do Ideb, como a média das proficiências em Leitura e Matemática obtida pelos alunos da escola na Prova Brasil. Como as escalas de medida das duas competências são diferentes, é necessário fazer uma padronização dessas medidas antes de calcular a sua média. A metodologia do Ideb assume que, para tornar comparáveis as proficiências de Leitura e Matemática, basta fazer com que variem no mesmo intervalo. Para isso, utiliza o seguinte algoritmo: ."��%���ê���� �� ������ �� ���:� '����� ) ������ ��%����� ��� "��%���ê�����4 .������ ��"����� ��� "��%���ê����� ) ������ ��%����� ��� "��%���ê�����4 Os limites inferiores e superiores, apresentados na tabela seguir, são os valores situados a três desvios-padrão acima e abaixo da proficiência média de todos os alunos que fizeram o Saeb em 1997, ano em que a escala foi definida. Vejamos: Tabela 23 – Limites superiores e inferiores usados para a padronização das notas de Leitura e Matemática no Ideb série Matemática Leitura inferior superior inferior superior 4ª série 60 322 49 324 8ª série 100 400 100 400 Fonte: Nota técnica do Inep sobre a concepção do Ideb. 67 Vamos analisar um exemplo para melhor entendermos esse algoritmo. Consideremos uma escola que ofereça apenas as primeiras séries do ensino fundamental e cujos alunos da 4ª série (5º ano), tenham tido, na Prova Brasil de 2011, proficiência média de 206,92 em Matemática e 184,52 em Leitura. A proficiência padronizada dessa escola deve ser obtida da seguinte forma: "��%���ê���� "������]��� �� �����á���� � .206,92 ) 604.322 ) 604 � 0,561 "��%���ê���� "������]��� �� ������� � .184,52 ) 494.324 ) 494 � 0,493 "��%���ê���� "������]��� �� ������ � 10 � �0,561 - 0,4932 � � 5,27 A multiplicação por 10 coloca a proficiência padronizada no intervalo de 0 a 10, intervalo esse usado, habitualmente, na atribuição de notas em trabalhos escolares. Aritmeticamente, a proficiência padronizada da escola é a média das proficiências padronizadas dos seus alunos. Em outras palavras, para obtermos a proficiência padronizada de uma escola, podemos primeiramente padronizar, usando o algoritmo apresentado na primeira equação, a proficiência de cada um dos seus alunos e, em seguida, tomar a média dos valores resultantes como a proficiência padronizada da escola. Como as médias variam muito menos do que observações individuais, embora as proficiências padronizadas dos alunos assumam valores entre 0 e 10, as proficiências padronizadas das escolas estão concentradas em um intervalo mais restrito. Dessa forma, do ponto de vista empírico, é incorreto dizer que o Ideb varia de 0 a 10, já que a proficiência padronizada de uma escola atingiria o valor máximo de 10 apenas em uma situação muito improvável: aquela em que todos os seus alunos tenham, em Leitura e em Matemática, proficiências que, medidas pela Prova Brasil, sejam iguais aos limites superiores apresentados na Tabela 23. Analogamente, uma escola só teria proficiência padronizada igual a 0 se todos os seus alunos tivessem a mesma proficiência, sendo esta igual ao limite inferior apresentado na Tabela 23. 68 Usando os dados da Prova Brasil de 2011, as proficiências padronizadas das escolas de 5º ano variam de acordo com o histograma do gráfico a seguir. Como previsto, essas proficiências cobrem apenas uma parte do intervalo [0, 10]. Figura 5 – Histograma das proficiências padronizadas do quinto ano de 2011 O gráfico apresentado nos mostra que, para realizarmos a interpretação da proficiência padronizada, não podemos usar a experiência adquirida com a escala de atribuição de notas em trabalhos escolares. Nessa situação, sabemos que notas acima de oito são boas e abaixo de quatro são ruins. No Ideb, entretanto, os valores acima de oito quase não ocorrem, e entre os valores abaixo de quatro há valores possíveis e outros quase impossíveis. Uma consequência menos conhecida e muito mais intrigante do processo de padronização utilizado na construção do Ideb é que as proficiências padronizadas em Matemática das escolas são, muito frequentemente – em 2011, foram 94,8% –, maiores do que as proficiências padronizadas em Leitura. Isso é fruto do conhecido fato de que, na Prova Brasil, as proficiências em Matemática são expressas por números maiores do que aqueles usados para Leitura. O 69 algoritmo de padronização, principalmente na 8ª série (9º ano), não leva esse fato em consideração, pois prescreve valores iguais, como podemos observar na Tabela 23. Dessa forma, as proficiências padronizadas de Matemática são, em geral, maiores que as de Leitura. Como consequência, a proficiência média usada na construção do Ideb é mais influenciada pela proficiência em Matemática. Em outras palavras, o indicador de aprendizado do Ideb assume, equivocadamente, que os alunos brasileiros de ensino fundamental sabem mais Matemática do que Leitura. Esse diagnóstico, no entanto, não é um retrato fiel da realidade educacional quando esta é considerada sob o prisma da interpretação pedagógica dos testes da Prova Brasil ou dos resultados de outras avaliações. Mesmo se colocarmos as duas proficiências variando no mesmo intervalo, as escalas de Leitura e Matemática não serão completamente comparáveis. Existem muitos algoritmos que, na situação do Ideb, poderiam ser usados para tornar as duas proficiências, de fato, comparáveis e, desse modo, dar sentido ao cálculo de um valor médio. Há, por exemplo, o método denominado “Equipercentil”, que cria uma tabela de equivalência dos escores entre as duas escalas, equalizando os valores dos percentis de cada uma. Para saber mais sobre o Método Equipercentil, leia: � PETERSEN, N. S.; KOLEN, M. J.; HOOVER, H. D. Scaling, norming, and equating. In: LINN, R. L. (Ed.). Educational measurement. 3. ed. New York: American Council on Education and Macmillan, 1989. p. 221-262. Indicador de rendimento O conceito de rendimento é usado no âmbito das estatísticas educacionais para sintetizar a experiência de aprovação ou reprovação dos alunos de uma escola ou sistema de ensino. Ao fim de um ano letivo, cada aluno matriculado, que não foi formalmente transferido nem faleceu, é colocado em uma das três categorias. Na categoria de aprovados são classificados os alunos que, ao final do ano letivo, preencheram os requisitos mínimos de desempenho e frequência previstos em legislação. Na dos reprovados, são colocados os alunos que, ao final do ano letivo, não preencheram os requisitos mínimos de desempenho ou frequência previstos em legislação. Já na categoria de abandono, são colocados os alunos que deixaram defrequentar a escola, tendo a sua matrícula cancelada. A taxa de aprovação é definida como a razão entre o número de aprovados e a soma dos alunos nas três categorias. Detalhes podem ser encontrados na nota técnica do Inep (Inep, 2009a). A soma das taxas de aprovação, reprovação e abandono é 100%. Portanto, se a taxa de abandono é alta, tanto a taxa de aprovação quanto a de reprovação podem ser baixas, ao mesmo tempo. 70 Para saber mais detalhes sobre as taxas de aprovação, reprovação e abandono, acesse: � Taxas de aprovação, reprovação e abandono: Censo Escolar da Educação Básica 2007 (nota técnica 003/2009). Disponível em: <http://download.inep.gov.br/ download/censo/2009/NT_003_2009.pdf>. Acesso em: fev. 2018. O indicador de rendimento usado no Ideb pode ser interpretado como a razão entre o número de anos da etapa e o número de anos letivos que um aluno típico da escola gasta para completar uma série. Em uma situação ideal, em que não haja nem reprovação nem abandono, esse valor seria, naturalmente, igual a 1, ou seja, apenas um ano letivo seria gasto para que os alunos completassem cada série ou ano escolar. No entanto, na maioria das situações reais, há reprovações e abandonos. Diante disso, o número de anos letivos para que o aluno típico de uma escola complete uma série é sempre maior que 1. Isso ocorre porque os reprovados e os que abandonaram a escola deverão repetir a série, o que aumenta a média de anos letivos de estudo necessários para que todos os alunos da escola completem cada série ou ano escolar. Matematicamente, o número de anos letivos necessários para que um aluno típico de uma escola complete cada série ou ano é dado pelo inverso da taxa de aprovação da respectiva série. Diante disso, usa-se o inverso da média aritmética dos inversos das taxas de aprovação, chamada de média harmônica, para sintetizar o rendimento da escola. No jargão da Estatística, o rendimento de uma escola no Ideb é a média harmônica das taxas de aprovação dos quatro ou cinco anos que compõem cada uma das etapas do ensino fundamental. Embora essa escolha seja completamente adequada, o uso da média harmônica, opção raramente usada em análises estatísticas, torna o entendimento do processo de cálculo do rendimento mais difícil. Vamos analisar um novo exemplo para que possamos melhor entender as opções feitas. Na tabela a seguir, apresentamos o cálculo de rendimento de uma escola com cinco séries. Vejamos: Tabela 24 – Algoritmo de cálculo do indicador de rendimento de uma escola ano escolar 1 2 3 4 5 taxa aprovação (%) 82,4 79,1 78,4 97,1 88,4 taxa aprovação em decimais 0,824 0,791 0,784 0,971 0,884 anos de estudo necessários para que os alunos completem a série 1,21 1,26 1,28 1,03 1,13 71 Ao considerarmos a taxa de aprovação do primeiro ano (0,824), podemos observar que são necessários 1/0,824 = 1,21 anos para que um aluno típico dessa escola complete o 1º ano. A aplicação desse algoritmo aos outros anos escolares produz os valores da última linha da tabela. O número de anos letivos de estudo necessários para que os alunos dessa escola completem as cinco séries é, portanto, o seguinte: (1,21 + 1,26 + 1,28 + 1,03 + 1,13) = 5,91 O indicador de rendimento é obtido pela divisão do número de séries ou anos letivos que seria necessário caso a aprovação fosse total pelo número de anos realmente necessários para completar a etapa (taxa de aprovação). No caso do nosso exemplo, temos: 5/5,91 = 0,8453 O indicador de rendimento é sempre um número entre 0 e 1, e a média utilizada no cálculo do rendimento não é ponderada, ou seja, não considera, no cálculo do indicador de rendimento, que cada uma das taxas utilizadas referentes a distintos anos escolares é baseada em diferentes números de alunos. Cálculo do Ideb O Ideb sintetiza os indicadores de rendimento e desempenho em um único número, por meio do produto dos dois indicadores. Dessa forma, temos: ,��5 � �����"��_� � ���������� � ` � ( Como o indicador de rendimento é um número menor que 1, o Ideb é sempre menor que o indicador de desempenho. Em outras palavras, o Ideb penaliza a escola que usa a reprovação como estratégia pedagógica, atribuindo-lhe valores mais baixos. Como consequência da agregação dos dois indicadores em um único número, cria-se, implicitamente, uma equivalência entre diferentes combinações dos indicadores de desempenho e rendimento. A tabela a seguir nos mostra possíveis combinações dos dois indicadores para se obter um Ideb de valor 6. A coluna 5, por exemplo, mostra que uma taxa média de reprovação de 14%, com um desempenho de 6,98, é equivalente a um desempenho de 6 se a taxa de reprovação é zero. 72 Tabela 25 – Diferentes combinações dos indicadores de rendimento e proficiência padronizada que produzem o mesmo Ideb de 6 indicador combinação rendimento 0,7 0,76 0,78 0,8 0,86 0,88 0,9 0,92 0,96 desempenho 8,57 7,89 7,69 7,5 6,98 6,82 6,67 6,52 6,25 O raciocínio de que um resultado pode compensar o outro está presente em vários pontos da metodologia do Ideb. Isso quer dizer que, no Ideb, o melhor aprendizado de um aluno compensa o pior aprendizado de outro aluno da mesma escola; um melhor desempenho em Leitura compensa um aprendizado insuficiente em Matemática; o melhor aprendizado de alguns compensa a reprovação de outros. Essas substituições são criticáveis do ponto de vista do direito à educação, que considera o aprendizado como um direito de todos e de cada um dos alunos, não de alunos típicos ou médios. Interpretação normativa Em muitos textos sobre o Ideb, principalmente os publicados na grande mídia, é recorrente a ideia de que se trata de um indicador de fácil compreensão, já que usa valores entre 0 e 10. Partindo dessa compreensão, entende-se que, para o Ideb, vale o bom senso acumulado nas avaliações escolares, cujas notas acima de 9 são excelentes e as abaixo de 5 são muito ruins. No entanto, não é isso que ocorre com o Ideb. Como vimos, o valor do Ideb está concentrado em uma parte menor do intervalo entre 0 e 10. Na realidade, a escala do Ideb tem características surpreendentes e difíceis de serem apreciadas em um primeiro momento por um não especialista. Por exemplo, um Ideb de 4,5 é um valor médio, não baixo, e está longe, e não perto, do valor 6. Isso ocorre porque os valores extremos da escala (acima de 6 e abaixo de 3) são raros, e os valores acima de 8 e abaixo de 2 são quase impossíveis. O valor 6 foi escolhido como valor de referência para o Ideb. Sucintamente, com algumas hipóteses, esse seria o valor que o Ideb deveria ter se os alunos brasileiros estivessem todos no nível 3 do Pisa e o indicador de rendimento fosse fixado em 0,96. Esse fato tem sido descrito como se um Ideb igual a 6 significasse uma escola de “primeiro mundo”. Todavia, isso só seria correto se o currículo brasileiro, cujo aprendizado é verificado pela Prova Brasil, fosse equivalente ao currículo dos países da OCDE, o que não ocorre atualmente. 73 Para saber mais sobre a escolha do valor 6 como valor de referência para o Idep, acesse: � Nota metodológica sobre a compatibilização de desempenhos do Pisa com a escala do Saeb. Disponível em: <http://download.inep.gov.br/educacao_basica/portal_ideb/ o_que_sao_as_metas/Nota_Tecnica_n3_compatibilizacao_PISA_SAEB.pdf>. Acesso em: fev. 2018. O problema de se escolher um valor de referência para o Ideb é equivalente ao de determinar uma distribuição de referência para as proficiências dos estudantes de uma escola. Delgado et al. (2013), também usando os resultados do Pisa, mas com opções metodológicas diferentes, criaram uma distribuição de referência que, se usada para calcular o Ideb, com o indicador de rendimento também fixado em 0,96, resultaria em um Ideb de 6,5. Essa distribuição de referênciareproduz as metas do movimento Todos Pela Educação. No entanto, a existência de metas diferentes, baseadas nos mesmos resultados da Prova Brasil, tem criado dificuldades, pois os dois conjuntos de metas são amplamente divulgados, e uma meta é mais exigente que outra. Faixas do Ideb Para interpretarmos, pedagogicamente, um valor específico do Ideb, precisamos mostrar como os seus valores estão associados com os níveis de proficiência dos alunos para os quais existem interpretações pedagógicas. Essas interpretações expressam o que conhecem e sabem fazer os alunos alocados nos diferentes níveis. Soares (2009), partindo dos valores definidos pelo movimento Todos pela Educação, estabeleceu quatro níveis de desempenho, apresentados na tabela a seguir: Tabela 26 – Níveis de desempenho para Leitura e Matemática nível Leitura Matemática 4ª série EF 8ª série EF 4ª série EF 8ª série EF abaixo do básico menor que 150 menor que 200 menor que 175 menor que 225 básico entre 150 e 200 entre 200 e 275 entre 175 e 225 entre 225 e 300 adequado entre 200 e 250 entre 275 e 325 entre 225 e 275 entre 300 e 350 avançado acima de 250 acima de 325 acima de 275 acima de 350 Fonte: Soares (2009). 74 Para transformar esses níveis de desempenho em valores do Ideb, primeiramente, é preciso observar que a maior nota de um aluno que está no nível abaixo do básico é 150 em Leitura e 175 em Matemática. Assumindo-se que todos os alunos de uma escola tenham essas notas e que o seu indicador de rendimento seja 0,96 – o mesmo valor usado por Fernandes (2007) para fixar as metas do Ideb –, podemos obter o valor do Ideb para essa escola. Com hipóteses similares, criaram-se cinco faixas para o Ideb da seguinte maneira: o nível baixo foi escolhido para retratar a situação em que o desempenho dos alunos da escola é inferior ao limite escolhido para o nível básico tanto em Leitura quanto em Matemática. As outras faixas foram escolhidas fixando-se a média das proficiências dos alunos nos seguintes valores: � médio baixo – valores iguais aos limites inferiores do nível básico; � médio – valores situados no meio do nível básico; � médio alto – valores correspondentes ao limite inferior do nível adequado e � alto – valores que estão no meio do nível adequado. A tabela a seguir sintetiza essas escolhas. Vejamos: Tabela 27 – Faixas para o Ideb Ideb (faixas) média em Leitura média em Matemática média padronizada (D)* rendimento (R) Ideb (D x R) faixa final ** baixo - - - < 3,5 médio baixo 150 175 4,03 0,96 3,87 [3,5 4,5) médio 175 200 4,96 0,96 4,76 [4,5 5,5) médio alto 200 225 5,89 0,96 5,65 [5,5 6,5) alto 225 250 6,83 0,96 6,55 > 6,5 NOTAS: * A padronização é feita pelo cálculo apresentado anteriormente. ** A primeira faixa foi definida a partir do intervalo inferior calculado para a segunda faixa. 75 A próxima tabela nos mostra a grande evolução do valor do Ideb nas escolas públicas ao fim da primeira etapa do ensino fundamental (5º ano). Podemos notar que, ao longo dos anos, há um forte decréscimo de escolas na faixa mais baixa do Ideb e um crescimento na faixa média. Tabela 28 – Evolução do Ideb para escolas que oferecem quarta série (quinto ano), por percentual em cada uma de cinco faixas de valores faixa do Ideb 2005 2007 2009 2011 2013 2015 baixo 44,4 30,8 25,7 16,3 9,7 3,9 médio baixo 36,8 38,1 30,5 29,2 16,1 14,0 médio 16,6 25,7 29,0 31,6 20,6 19,6 médio alto 2,1 0,5 12,8 18,9 17,4 21,6 alto 0,1 0,4 2,0 4,0 6,1 10,0 É importante verificarmos, no entanto, que a criação dessas faixas traz a seguinte consequência: a ocorrência de valores altos no Ideb é compatível com um número muito alto de alunos com desempenhos medíocres, ou seja, nos níveis abaixo do básico e básico, como mostrado na tabela a seguir. Tabela 29 – Proporção de alunos nos níveis de desempenho e Ideb das escolas de 5º ano (Prova Brasil, 2011) Ideb DESEMPENHO insuficiente básico adequado avançado TOTAL baixo 58,6 34,1 6,6 0,7 100 médio baixo 39,6 43,2 14,8 2,4 100 médio 23,3 41,9 27,3 7,5 100 médio alto 11,1 33,4 37,8 17,7 100 alto 3,8 19,6 41,0 35,7 100 76 O valor do Ideb deve estar acima de 6,5 para que não existam muitos estudantes na escola ou no município com desempenho no nível Insuficiente. Análise crítica do Ideb A criação do Ideb significou uma grande e positiva mudança no debate educacional brasileiro. Só a partir da sua criação é que a ideia de que as escolas devem também ser avaliadas pelo aprendizado dos seus alunos, expresso pelo desempenho, entrou definitivamente nesse debate. Em outras palavras, a partir do Ideb, a expressão concreta do direito ao aprendizado passou a ser a evidência fornecida pelo resultado da Prova Brasil. Rapidamente, o Ideb tornou-se o único indicador de qualidade do sistema de ensino fundamental brasileiro, passou a orientar políticas públicas educacionais, impactou a cobertura da mídia dos assuntos educacionais e, ainda que mais lentamente, trouxe novas dimensões para a pesquisa educacional. O sucesso do Ideb foi de tal ordem que a “maldição” da Lei de Campbell passou a se aplicar a ele: “Um indicador quantitativo, ao ser usado para a tomada de decisões, fica mais sujeito a manipulações e assim sua própria existência distorce e corrompe os processos que pretendia monitorar” (CAMPBELL, 1976, p. 49, tradução nossa). Em outras palavras, o uso de um indicador único como medida única da qualidade das escolas e das redes fará com que, naturalmente, essas escolas busquem maximizá-lo e, como isso pode ser feito de maneiras pouco adequadas pedagogicamente, pode levar a um sistema educacional disfuncional. O Ideb tem sido muito usado e, às vezes, também criticado. No entanto, poucas são as análises feitas sobre o indicador. Dessa forma, a seguir, discutimos algumas limitações que consideramos serem importantes para a análise do Ideb. Tais limitações são as seguintes: a) Só alunos presentes ao teste são considerados: Uma limitação séria dos dados usados para cálculo do indicador de desempenho é o fato de que apenas os alunos presentes na escola no dia da Prova Brasil são considerados. O Inep aceita apenas 50% de presença para divulgar o Ideb da escola (Inep, 2011). A Prova Brasil envia à escola um teste para cada aluno matriculado, usando para isso a base do Censo Escolar que registra informações de cada aluno. Ao longo dos últimos anos, o Censo Escolar tem-se consolidado como uma excelente descrição do número de alunos em cada escola brasileira. No entanto, nem todos os alunos para os quais os testes são enviados fazem as provas. No ano de 2011, voltaram sem resposta 14% dos testes de 5º ano e 22% dos testes de 9º ano. Essas são porcentagens expressivas que, se 77 correspondem aos alunos mais fracos, fazem com que os valores do Ideb das escolas com muitas ausências sejam superestimados. A portaria do MEC sobre cálculo do Ideb diz que o indicador é calculado desde que mais de 50% dos alunos da escola tenham comparecido. Isso quer dizer que, mantendo-se dentro da lei, as escolas podem escolher os seus melhores alunos e assim ter um melhor valor no Ideb. Essa análise nos leva a concluir que o sistema que produz o Ideb é muito tolerante com ausências. b) A proficiência em Matemática tem mais peso que a proficiência em Leitura: Como consequência dos algoritmos usados para padronizar as proficiências, implícito no Ideb está o fato de que o domínio da competência matemática pelos alunos brasileiros é maior do que o domínio da compreensão leitora. Essa idiossincrasia estatística pode ser usada como estratégia para melhorar o Ideb, bastando, para isso, enfatizar o ensino de Matemática para alguns alunos. c) O Ideb assume substituições questionáveis entre os diferentes componentes: Como onumerador do Ideb é uma média, implicitamente, o indicador aceita que o bom desempenho de um aluno compense o mau desempenho de outro. Além disso, assume que um melhor desempenho compense uma taxa de reprovação mais alta. Essas duas características deixam aberta a possibilidade de exclusão educacional de alunos, pois, para obter melhores valores do indicador, pode-se escolher, com cuidado, os alunos em que a escola deve concentrar os seus esforços instrucionais. d) Não se pode usar a metáfora da nota escolar para analisar o Ideb: Como o Ideb é apresentado como um indicador simples, variando de 0 a 10, é muito frequente interpretá-lo da mesma forma que, tradicionalmente, interpretam-se os conceitos escolares. Em algumas situações, chega-se a dizer que o nível 6 é baixo e que o Brasil deveria almejar um Ideb muito mais alto. Um Ideb em torno de 7, que indica um excelente resultado, é considerado uma nota escolar mediana. Como vimos, esses valores muito altos só ocorrem em situações raras. 78 e) O Ideb naturaliza baixos desempenhos de muitos alunos: Vamos rever a tabela 25: Tabela 25 – Diferentes combinações dos indicadores de rendimento e proficiência padronizada que produzem o mesmo Ideb de 6 indicador combinação rendimento 0,7 0,76 0,78 0,8 0,86 0,88 0,9 0,92 0,96 desempenho 8,57 7,89 7,69 7,5 6,98 6,82 6,67 6,52 6,25 Essa tabela nos mostra que um Ideb igual a 6, a meta nacional, é compatível com um grande número de alunos de desempenho medíocre. Dessa forma, com o uso isolado do Ideb, as dificuldades educacionais desses alunos não terão nenhuma relevância, considerando o fato de que o indicador de qualidade está em um nível tido como adequado. f) O Ideb é muito correlacionado com o nível socioeconômico da escola: Como já vimos, o nível socioeconômico (NSE) é uma medida resultante da agregação de indicadores obtidos nos questionários contextuais da Prova Brasil. Tais indicares envolvem o nível de escolaridade dos pais, a posse de bens de consumo duráveis e a contratação de serviços domésticos. A agregação é feita por meio de um modelo da Teoria de Resposta ao Item (TRI), conforme descrito por Alves e Soares (2009). O modelo da TRI transforma as informações em uma escala que, para facilitar o seu uso, foi transformada no intervalo entre 0 e 10. Essa medida do nível socioeconômico dos alunos foi validada, entre outras formas, por meio da verificação da correlação de Pearson entre a renda per capita dos municípios e o NSE médio dos municípios – obtido pela agregação do NSE médio das escolas de cada município. O coeficiente de correlação foi igual a 0,91. Esse alto valor comprova que o NSE capta, de maneira adequada, as condições econômicas dos municípios, o que justifica o seu uso nas análises estatísticas para a caracterização das escolas. Para conhecer outras validações, leia: � ALVES, M. T. G.; SOARES, J. F.; XAVIER, F. P. O nível socioeconômico das escolas de Educação Básica brasileiras: versão 2. Belo Horizonte: Grupo de Avaliação e Medidas Educacionais (Game); São Paulo: Instituto Unibanco, 2013. 64p. Relatório técnico. 79 Uma grande e sólida literatura mostra que o desempenho dos alunos está muito associado ao seu nível socioeconômico. Desse modo, não nos surpreende o fato de que a associação entre o Ideb e o NSE das escolas seja alta. O gráfico a seguir, construído com o Ideb das escolas públicas do município de São Paulo que oferecem a primeira etapa do ensino fundamental, aponta uma associação de 0,694 entre o Ideb de 2011 e o respectivo NSE das escolas. Isso quer dizer que, isoladamente, o Ideb é também um indicador das condições socioeconômicas das escolas. Vejamos: Figura 6 – Correlação entre o Ideb e o NSE das escolas públicas de São Paulo (SP) As correlações entre o NSE e o Ideb são sempre positivas, mas o valor é mais alto entre escolas de um mesmo município do que entre municípios. Diante disso, a identificação de escolas com projetos pedagógicos exemplares não pode ser feita apenas por meio do Ideb, que, como vimos, identifica também escolas que têm bons resultados apenas porque atendem a alunos que trazem muito do capital cultural das suas famílias. g) Outras limitações: Outras limitações do Ideb já foram apresentadas por diversos autores. Por exemplo, Daniel Cara, em entrevista à Revista Educação, afirmou que "o Ideb é um termômetro que revela se o aluno está ou não assimilando informações fornecidas pelo sistema educacional, mas não considera aspectos que têm impacto sobre a qualidade, como a valorização dos profissionais e a infraestrutura" (AVANCINI, 2008). Embora muito veiculada, não se trata exatamente de uma 80 crítica ao indicador, mas a seu uso isolado. A sensata advertência do autor indica que a avaliação de escolas e redes de ensino não se deve restringir ao Ideb, e que o indicador de resultados deve ser contextualizado por indicadores que descrevam as condições reais de oferta do ensino. Também entrevistado pela Revista Educação (AVANCINI, 2008), João Batista de Oliveira afirmou o seguinte: "Ao agregar coisas diferentes, o Ideb dá algumas indicações sobre qualidade, mas ele não sinaliza claramente o que precisa ser melhorado.” De fato, como qualquer indicador- síntese, um Ideb baixo apenas diz que há algo ruim acontecendo, mas nada diz sobre o que fazer. Análoga a essa demanda, aparece a crítica de que faltam esclarecimentos sobre o que significam os números, ou seja, que tipo de intervenção escolar um dado valor do Ideb sugere. Além disso, como as políticas públicas para conter o abandono e a repetência não são, necessariamente, as mesmas a serem usadas para aumentar o indicador de desempenho, não fica claro como se pode passar do diagnóstico para a proposição de políticas. Essas são reflexões sólidas que devem merecer mais espaço nos esforços de análise do Ideb. Discussão Existem vários outros indicadores usados para monitorar os resultados das escolas em diferentes estados e municípios. E as limitações do Ideb apresentadas são, em maior ou menor grau, compartilhadas por esses indicadores. Entre tais indicadores, o Idesp, usado no estado de São Paulo, merece a nossa atenção especial. Ao produzir a medida de desempenho da escola por meio da síntese de níveis, o Idesp não é tão vulnerável à concentração do esforço educacional em poucos alunos e não tem o defeito do desequilibro entre Leitura e Matemática, presente no Ideb. Apesar disso, outras limitações, como associação com o nível socioeconômico, taxa de substituição não justificada e ausência de tratamento específico para os alunos ausentes no teste estão igualmente presentes no Idesp. Um conjunto de indicadores é uma forma de descrever o sistema, e não uma ferramenta de gestão escolar. Para gerir uma escola, é preciso considerar cada processo – administrativo, interação com a sociedade, meios de ensino-aprendizagem, etc. – e escolher as informações de estrutura e resultado adequadas ao seu monitoramento (BRYK; HERMANSON, 1993). Considerando que o Ideb está completamente integrado às políticas educacionais e que, no entanto, as suas imperfeições são claras, podemos chegar a algumas conclusões. O Ideb deve ser divulgado de forma contextualizada, demonstrando pelo menos uma descrição do nível socioeconômico das escolas ou dos municípios. Idealmente, outras características das escolas, como a sua infraestrutura, devem também ser consideradas. Isso não 81 advoga que as expectativas relativas ao aprendizado dos alunos devem ser diferentes em diferentes municípios, mas apenas que, para atingir os aprendizados necessários, alguns cenários sociais são mais adversos que outros. Além disso, junto com o Ideb, cada escola ou rede deve receber também uma descrição de quantos alunos estão em níveis de desempenho medíocres. Claro queescolas e redes com Ideb maiores do que 6,5 estão em uma situação privilegiada, pois esse valor não permite que muitos estudantes tenham aprendido muito pouco. Por fim, talvez o mais importante seja transformar o Ideb em um primeiro passo para o processo de reflexão interna nas escolas. Tal reflexão deve ter como meta a busca de melhores e mais efetivas práticas pedagógicas, permitindo que os alunos aprendam o necessário para uma vida digna e feliz. Evolução do Ideb e seu uso para monitoramento das escolas Para que possamos acompanhar a evolução do Ideb e monitorar, juntamente com outros indicadores educacionais e contextuais da escola, a qualidade da educação, o Inep desenvolveu duas plataformas. Tais plataformas nos permitem realizar a consulta do valor do Ideb por estados, municípios ou escolas. Plataforma de resultados e metas A primeira plataforma permite-nos acessar os resultados e metas do Ideb. Nessa plataforma, é possível efetuarmos a comparação entre os resultados obtidos (por Brasil, estado, município ou escola) com a meta projetada. Para saber mais sobre a plataforma de resultados e metas, acesse: � Ibeb – resultados e metas. Disponível em: <http://ideb.inep.gov.br/resultado/>. Acesso em: fev. 2018. 82 Vejamos, a seguir, um exemplo de consulta à plataforma de resultados e metas: Figura 7 – Tela de acesso à plataforma de resultados e metas do Ideb Fonte: Ideb – resultados e metas. Disponível em: <http://ideb.inep.gov.br/resultado/>. Acesso em: fev. 2018. Figura 8 – Exemplo consulta resultados e metas por escola – plataforma de resultados e metas Fonte: Ideb – resultados e metas. Disponível em: <http://ideb.inep.gov.br/resultado/>. Acesso em: fev. 2018. 83 Plataforma de consulta pública A segunda plataforma desenvolvida pelo Inep permite-nos efetuar uma consulta pública dos resultados do Ideb por escola. O que diferencia essa plataforma da primeira é a possibilidade de obtermos uma contextualização mais completa da unidade escolar (com informações socioeconômicas, administrativas e de infraestrutura), além da conveniência de podermos comparar a escola consultada a outras escolas semelhantes (com base na localização, dependência administrativa ou indicadores de complexidade de gestão e nível socioeconômico). Dessa forma, para além dos dados resultantes do Ideb, informações coletadas pelo Censo Escolar da Educação Básica e novos indicadores contextuais desenvolvidos pelo Inep, como o Indicador de Nível Socioeconômico (Inse), a adequação da Formação Docente, o indicador de Esforço Docente e o indicador da Complexidade da Gestão Escolar podem ser consultados. Para saber mais sobre a plataforma de consulta pública, acesse: � Ibeb – consulta pública. Disponível em: <http://idebescola.inep.gov.br/ideb/ consulta-publica>. Acesso em: fev. 2018. Conheça os novos indicadores � Nível socioeconômico (Inse) – é a média do nível socioeconômico dos alunos de cada escola, distribuídos em sete níveis. O indicador é calculado com base nas informações fornecidas pelos estudantes no preenchimento do questionário contextual da Prova Brasil; � Adequação da forma docente – é a proporção de professores de cada escola que têm a formação adequada para a disciplina que leciona, nos termos da lei; � Esforço docente – mensura a dificuldade enfrentada pelos professores para o exercício da profissão, considerando o número de escolas em que trabalham, turnos de trabalho, número de alunos atendidos e etapas nas quais lecionam e � Complexidade de gestão escolar – baseia-se em quatro características da escola: porte (número de alunos matriculados), número de turnos de funcionamento, complexidade das etapas ofertadas, e número de etapas/modalidades oferecidas. 84 Vejamos um exemplo de como a consulta pode ser realizada. Primeiramente, devemos acessar a plataforma meio do seguinte endereço: <http://idebescola.inep.gov.br/ideb/consulta- publica>. Dessa forma, teremos acesso à seguinte área de consulta: Figura 9 – Tela de acesso à Plataforma de Consulta do Ideb por Escola Fonte: Disponível em: <http://idebescola.inep.gov.br/ideb/consulta-publica>. Acesso em: fev. 2018. Na tela inicial de informações sobre a escola que se desejamos consultar, são várias as possibilidades. Nela podemos: � inserir somente o código da escola; � selecionar as informações de UF e município, e o nome da escola e � selecionar as informações de UF, município, dependência administrativa e localização (essa opção dá acesso a todas as escoas que preenchem os requisitos da seleção efetuada). 85 Na figura a seguir, podemos observar um exemplo: Figura 10 – Exemplo da primeira tela de consulta - Ideb por Escola Fonte: Disponível em <http://idebescola.inep.gov.br/ideb/escola/dadosEscola/31003280>. Acesso e: fev. 2018. A partir do acesso às informações da escola, podemos localizar a informação que desejamos e efetuar a análise. Plataforma QEdu Além das plataformas desenvolvidas pelo Inep, também há outra iniciativa, idealizada pela Meritt e pela Fundação Lemann, chamada QEdu, que busca colocar à disposição da sociedade civil informações sobre a educação brasileira. O site disponibiliza informações sobre o Censo Escolar da Educação Básica, a Prova Brasil, o Enem e o Ideb. Os dados permitem contextualizar: 86 o aprendizado dos alunos em Matemática e Língua Portuguesa, identificar o perfil dos alunos, o número de matrículas para cada etapa escolar, as taxas de aprovação e distorção idade série, a infraestrutura escolar, o Ideb e o nível socioeconômico. A busca pode ser realizada por estado, cidade ou escola. Para saber mais sobre a QEdu, acesse: � QEdu. Disponível em: <http://www.qedu.org.br/>. Acesso em: fev. 2018. A tela de acesso à plataforma QEdu é a seguinte: Figura 11 – Tela de acesso à plataforma QEdu Fonte: Disponível em: <http://www.qedu.org.br/>. Acesso em: fev. 2018. Neste módulo, compararemos os resultados dos estudantes brasileiros de educação básica com os dos seus pares latino-americanos e internacionais. Para tanto, apresentaremos o desempenho dos alunos brasileiros em duas avaliações internacionais: os estudos organizados pela Unesco e o Pisa. Comparações latino-americanas Instituição responsável O LLECE, Laboratório Latino-Americano de Avaliação da Qualidade de Educação da Unesco foi criado em 1994, como rede de unidades nacionais de avaliação da qualidade da educação na América Latina e no Caribe. São 15 os membros fundadores: Argentina, Bolívia, Brasil, Chile, Colômbia, Costa Rica, El Salvador, Guatemala, Honduras, México, Paraguai, Peru, República Dominicana, Uruguai e Venezuela, sob a coordenação do Escritório Regional de Educação da Unesco para a América Latina e o Caribe (OREALC/ Unesco Santiago). Esse laboratório tem três objetivos principais: � promover uma política educativa baseada em evidências, por meio da geração de dados sobre a qualidade da educação, e os seus determinantes sociais e econômicos; � desenvolver capacidades de avaliação da educação e � servir como um fórum para gerar e compartilhar ideias, e discutir melhores práticas em educação básica. MÓDULO IV – COMPARAÇÃO COM PARES LATINO-AMERICANOS E INTERNACIONAIS 88 O LLECE já realizou três estudos comparativos que fornecem dados sobre o aprendizado de Leitura, Matemática e Ciências dos estudantes de ensino básico dos países-membros. As informações viabilizam a comparação da situação do Brasil em relação aos outros países latino-americanos. A seguir, apresentamos uma descrição sintética dos dois primeiros estudos e, com mais detalhes, os resultados do terceiro. Primeiro estudo comparativo e explicativo regional (Perce) Em 1997, o Laboratório aplicou os testes do Primeiro Estudo Comparativoe Explicativo Regional (Perce) para medir o aproveitamento escolar de uma amostra dos alunos de 3ª e 4ª séries do ensino fundamental em Leitura e Matemática. Os resultados do Perce foram publicados em novembro de 1998 e evidenciaram, com grande destaque, a posição obtida pelos estudantes cubanos, cujo desempenho está muito acima de qualquer outro pais da região. Vejamos os resultados referentes à Linguagem nos gráficos a seguir: Figura 12 – Resultados em Linguagem (3ª série) Fonte: CASASSUS et al. (1998). 89 Figura 13 – Resultados em Linguagem (4ª série) Fonte: CASASSUS et al. (1998). Como podemos observar, em Linguagem, os resultados do Brasil, apesar de pouco acima da média na 3ª série e um pouco mais altos na 4ª série, são menores que os da Argentina, Chile e Cuba. Vejamos, agora, os resultados referentes à Matemática: Figura 14 – Resultados em Matemática (3ª série) Fonte: CASASSUS et al. (1998). 90 Figura 15 – Resultados em Matemática (4ª série) Fonte: CASASSUS et al. (1998). Como podemos notar, em Matemática, os resultados do Brasil na 3ª série estão um pouco abaixo da média, superados pela Argentina e Cuba. Na 4ª série, a média dos resultados brasileiros apresenta uma melhora, ficando atrás somente de Cuba. No geral, os resultados do Perce tanto em Linguagem quanto em Matemática colocam o Brasil em uma posição discreta, sem nenhum destaque no conjunto dos países participantes e muito abaixo de Cuba, que apresenta resultados excepcionais em todas as séries e disciplinas. Segundo estudo comparativo e explicativo regional (Serce) Em 2006, o Serce foi implementado em 16 países e, pela primeira vez, em uma entidade subnacional: Argentina, Brasil, Chile, Colômbia, Costa Rica, Cuba, Equador, El Salvador, Guatemala, México, Nicarágua, Paraguai, Peru, República Dominicana, Uruguai e o estado mexicano de Nuevo León. Entre as suas inovações, o Serce trouxe a avaliação das habilidades de escrita bem como uma terceira disciplina, a Ciência. Em todos os países foram medidos os aprendizados dos estudantes da 3ª e 6ª séries da educação básica em leitura e matemática. O teste de Ciências da Natureza foi aplicado apenas nos estudantes a 6ª série de nove países mais o estado de Nuevo León. No total, foram estudadas 3.065 escolas, 4.627 turmas de 3ª série e 4.227 turmas de 6ª série. Nessas escolas e turmas, foram avaliados 100.752 estudantes da 3ª série e 95.288 da 6ª série da Educação Primária. A amostra usada é representativa dos cerca de onze milhões de estudantes da 3ª série e dos dez milhões de estudantes da 6ª série da educação básica da região. Cada um dos estudantes avaliados respondeu a provas de Matemática, Leitura, Escrita e Ciências em dias diferentes e em tempo que 91 dependia da prova aplicada. Apesar da existência de informações a respeito dos estudantes da 3ª série e da 6ª série, apresentaremos somente os resultados da 6ª série em Leitura e Matemática. Para obter mais informações sobre os estudantes da 3ª série, acesse: � LLECE. Disponível em: <http://www.unesco.org/new/es/santiago/education/ education-assessment/>. Acesso em: fev. 2018. As informações de contexto, sociodemográficas, familiares e pessoais, além dos processos e da dinâmica escolar foram levantadas por meio de questionários aplicados aos próprios estudantes, docentes, diretores e pais de família das escolas da amostra. Os resultados do Serce foram apresentados por meio dos percentuais em níveis de desempenho, com o objetivo de introduzir uma perspectiva pedagógica que indique o que os estudantes cujo desempenho está em um dado nível são capazes para fazer. Isso facilita a comunicação com diferentes públicos e a tomada de decisões para melhorar os processos educativos. Os níveis de desempenho dos alunos agregam estudantes com perfis semelhantes nos conhecimentos e habilidades que adquiriram. Para ter acesso a uma descrição completa das habilidades de cada nível, leia: � VALDÉS, Héctor et al. Los aprendizajes de los estudiantes de América Latina y el Caribe: Resumen ejecutivo del primer reporte de resultados del segundo estudio regional comparativo y explicativo. 2008. 92 Vejamos, na tabela a seguir, a pontuação de corte por nível de desempenho dos estudantes da 6ª série em Matemática: Tabela 30 – Indicação da pontuação de corte por nível de desempenho dos estudantes da 6ª série em Matemática nível de desempenho pontuação de corte abaixo de I I 309,64 II 413,58 III 514,41 IV 624,60 Fonte: VALDÉS, 2008, p. 31. Um processo semelhante à definição de desempenho de Matemática foi feito para a definição dos níveis de Leitura. Cada habilidade incluída em cada nível leva em consideração o grau de complexidade cognitiva e o conteúdo que o item avalia. Dessa maneira, os itens de maior dificuldade e, portanto, típicos dos níveis mais altos, são mais complexos cognitivamente ou referem-se a conteúdos mais avançados para os estudantes avaliados. Vejamos: Tabela 31 – Indicação da pontuação de corte por nível de desempenho dos estudantes da 6ª série em Leitura nível de desempenho pontuação de corte abaixo de I I 299,59 II 424,54 III 513,66 IV 593,59 Fonte: VALDÉS, 2008, p. 36 93 Vejamos, agora, uma tabela que sintetiza os resultados obtidos pelos alunos da 6ª série para Matemática: Tabela 32 – Percentual de estudantes da 6ª série por nível de desempenho em Matemática, por país País Abaixo de I I II III IV Argentina 1,53 11,89 37,99 36,26 12,34 Brasil 1,46 14,00 44,09 31,65 8,80 Chile 1,40 9,84 37,85 37,39 13,52 Colômbia 1,02 13,29 47,64 32,60 5,46 Costa Rica 0,09 4,55 32,71 43,70 18,95 Cuba 0,19 4,43 17,93 26,33 51,13 Equador 4,24 24,86 45,15 21,41 4,34 El Salvador 1,95 19,18 51,61 23,81 3,45 Guatemala 2,78 24,94 50,80 19,52 1,96 México 0,51 8,38 32,41 39,10 19,60 Nicarágua 2,25 23,88 52,69 19,41 1,76 Panamá 3,32 27,16 49,55 17,64 2,33 Paraguai 3,85 21,00 46,50 23,91 4,74 Peru 2,41 19,58 39,82 28,90 9,29 R. Dominicana 5,69 41,79 45,43 6,85 0,24 Uruguai 0,67 4,26 22,36 40,41 32,31 Nuevo León 0,34 6,29 29,35 40,66 23,36 Total AL e C 1,48 13,91 40,82 32,35 11,44 Fonte: VALDÉS, 2008, p. 32. 94 Como podemos observar na tabela apresentada, apesar de possuir uma maior média de resultado (pontuação) do que Argentina, Chile, Costa Rica, México e Uruguai, o Brasil apresenta pouco mais do que 58% dos seus alunos nos níveis 1 e 2, enquanto que esses países possuem maior percentual de estudantes nos níveis 3 e 4. Cuba aparece como grande destaque, com maior percentual de alunos nos níveis mais altos e menor percentual de alunos nos níveis mais baixos. Em sequência, vejamos uma tabela que sintetiza os resultados obtidos pelos alunos da 6ª série para Leitura: Tabela 33 – Percentual de estudantes da 6ª série por nível de desempenho em Leitura, por país país abaixo de I I II III IV Argentina 1,78 17,93 35,59 25,48 19,22 Brasil 0,57 14,85 34,65 27,47 22,46 Chile 0,30 8,02 30,06 32,37 29,26 Colômbia 0,39 13,17 38,25 30,40 17,80 Costa Rica 0,22 5,00 23,45 36,73 34,59 Cuba 0,30 5,26 19,57 24,20 50,68 Equador 4,47 33,69 39,48 16,63 5,73 El Salvador 0,95 21,49 44,02 23,99 9,54 Guatemala 2,86 33,06 43,36 15,73 4,99 México 0,23 12,23 33,40 29,75 24,39 Nicarágua 1,02 22,08 50,58 21,10 5,22 Panamá 1,95 28,97 38,76 20,77 9,55 Paraguai 3,90 33,46 36,81 18,60 7,23 Peru 2,24 24,08 41,65 22,57 9,46 R. Dominicana 4,08 47,84 37,50 9,19 1,39 Uruguai 0,47 9,60 30,80 29,68 29,45 95 país abaixo de I I II III IV Nuevo León 0,21 9,12 29,99 32,37 28,31 Total AL e C 0,93 16,51 35,46 26,79 20,30 Fonte: VALDÉS, 2008, p. 32. Essa tabela nos mostra que, apesar de os resultados do Brasil em Leitura indicarem um panorama educacional um poucomelhor, o cenário do País é semelhante ao apresentado em Matemática: grande concentração do percentual dos alunos nos níveis 1 e 2 (49,5%), apesar do aumento do percentual de alunos no nível 4. Chile, Costa Rica, México e Uruguai ainda se destacam, com maiores percentuais de alunos nos níveis 3 e 4, quando comparados ao Brasil. Terceiro estudo comparativo e explicativo regional (Terce) Participaram do Terce 15 países: Argentina, Brasil, Chile, Colômbia, Costa Rica, Equador, Guatemala, Honduras, México, Nicarágua, Panamá, Paraguai, Peru, República Dominicana e Uruguai, além do estado mexicano de Nuevo León. Mais de 67.000 alunos das 3ª e 6ª séries fizeram parte da amostra e foram avaliados nas seguintes áreas disciplinares: Leitura, Escrita, Matemática e Ciência (sendo este último avaliado somente na 6ª série). Além dos testes, uma série de questionários contextuais (estudantes, famílias, professores e diretores) foram utilizados para coletar informações sobre os fatores associados à aprendizagem e, desse modo, contribuir para a dimensão explicativa do estudo. O Terce buscou investigar o nível de desempenho escolar geral dos alunos de escolas fundamentais nas disciplinas de Linguagem (leitura e escrita), Matemática e Ciências Naturais dos países participantes. Além disso, também teve como finalidade investigar a relação entre o desempenho escolar e os fatores associados aos alunos e às suas famílias, aos professores e às salas de aula e escolas e sua gestão. Para a elaboração do teste de avaliação do aprendizado, o Instituto Colombiano de Avaliação da Educação (ICFES) buscou, por meio de uma revisão dos currículos dos países participantes, identificar os elementos comuns no currículo e, dessa maneira, constituir uma estrutura adequada para medir a qualidade da educação no nível regional. Já os questionários contextuais foram elaborados com base em uma revisão da literatura sobre os fatores que podem influenciar a ocorrência do aprendizado no nível primário. Os dados coletados possibilitaram a análise dos fatores associados às principais características dos sistemas educacionais participantes. 96 O enfoque da avaliação em Leitura buscou medir os seguintes domínios: � compreensão de textos – leitura de vários textos contínuos e descontínuos, a partir dos quais é realizado um trabalho intratextual ou intertextual, e � domínio metalinguístico e teórico – domínio dos conceitos de linguagem e literatura, foco no idioma para reconhecer e designar propriedades ou características de textos e suas unidades. Além desses domínios, buscou-se avaliar também os processos cognitivos, constituídos pela: � compreensão literal – composta das habilidades ligadas ao reconhecimento, ou seja, à capacidade de identificação de elementos explícitos do texto e localização de informações em segmentos específicos do texto; � compreensão inferencial – composta das habilidades relacionadas, por um lado, ao entendimento, isto é, à capacidade de relacionar a informação presente nas diferentes sequências do texto, e, por outro lado, às relacionadas à análise, isto é, à capacidade de dividir a informação nas suas partes constituintes e estabelecer como elas se relacionam de acordo com o propósito e a estrutura do texto, e � compreensão crítica – composta das habilidades relacionadas à avaliação, ou seja, à capacidade de avaliar ou julgar o ponto de vista do emissor do texto e distingui-lo ou contrastá-lo com os outros e com o próprio. Os resultados do Terce foram apresentados de duas maneiras. Primeiramente, por meio de um escore em uma escala cuja média foi fixada em 700 pontos, com desvio-padrão de 100 pontos. Em seguida, os escoares foram alocados em níveis de desempenho, definidos por pontos de corte escolhidos pelo método do Bookmark (CIZEK; BUNCH, 2007; MITZEL et al., 2001). 97 De maneira a possibilitar uma interpretação pedagógica e empírica dos resultados dos alunos, foram estabelecidos três pontos de corte em cada teste, dando origem a quatro níveis de desempenho (I, II, III e IV), ordenados em um contínuo de crescente complexidade. Os pontos de corte que definiram os níveis são apresentados na tabela a seguir, para os níveis da 3ª série: Tabela 34 – Descrição dos pontos de corte por nível de desempenho – 3ª série pontos de corte nível de desempenho até 675 pontos I entre 676 e 728 pontos II entre 729 e 812 pontos III a partir de 813 pontos IV Fonte: Flotts, 2015, p. 33-34. Os resultados de leitura da 3ª série nos mostram que 61% dos estudantes encontram-se nos níveis I e II de desempenho. Isso indica que há maior aprendizagem relacionada à compreensão de textos familiares e próximos dos estudantes, em que a tarefa típica é reconhecer informações explícitas e evidentes. Dessa forma, o principal desafio é expandir o entendimento dos alunos para textos menos familiares, em que é necessário estabelecer relações, interpretar e inferir significados. 98 No gráfico a seguir, podemos analisar a distribuição dos estudantes da 3ª série por nível de desempenho em Leitura: Figura 16 – Distribuição de estudantes da 3ª série do ensino fundamental por nível de desempenho em Leitura Fonte: Flotts et al., 2015, p. 34. Ao analisarmos a distribuição dos estudantes da 3ª série, verificamos que o Brasil possui maior percentual de alunos nos níveis I e III. O País tem, portanto, uma posição comparável às posições de Argentina, Colômbia, Equador, México e Peru. Sendo que, entre esses países, somente a Argentina e o Equador têm menor percentual de alunos no nível IV. Todo o restante apresenta maior percentual de alunos nesse nível, o que é um indicativo da necessidade de trabalho pedagógico em busca de ofertar aos estudantes reforço necessário para consolidar a base da aprendizagem, mas também incentivos para que possa avançar no domínio de habilidades mais complexas. 99 Vejamos, agora, os pontos de corte para os níveis de desempenho da 6ª série: Tabela 35 – Descrição dos pontos de corte por nível de desempenho – 6ª série pontos de corte nível de desempenho até 611 pontos I entre 612 e 753 pontos II entre 754 e 809 pontos III a partir de 810 pontos IV Fonte: Flotts, 2015, p. 44-45. Quando trata dos resultados de leitura da 6ª série, Flotts (2015) identifica que 70% dos alunos encontram-se em níveis de desempenho I e II. O autor identifica maior aprendizagem na área relacionada à compreensão de textos baseados em códigos explícitos e implícitos, o que permite inferências sobre o significado dos textos e os seus propósitos comunicativos, além de identificar como desafio o favorecimento da capacidade de as crianças interpretarem expressões de linguagem figurativa e fortalecer o conhecimento dos componentes da linguagem e as suas funções. 100 No gráfico a seguir, podemos analisar a distribuição dos estudantes da 6ª série por nível de desempenho em Leitura: Figura 17 – Distribuição de estudantes da 6ª série do ensino fundamental por nível de desempenho em Leitura Fonte: Flotts et al., 2015, p. 45. Analisando os resultados do Brasil referentes à 6ª série, identificamos um comportamento diferente daquele apresentado na 3ª série: há um maior percentual de estudantes nos níveis II e III. Os resultados brasileiros são, portanto, parecidos com os resultados obtidos por Argentina, Colômbia, México, Peru e Uruguai, sendo a Colômbia, o México e o Uruguai os países com maior percentual de alunos no nível IV. A maioria dos estudantes brasileiros encontra-se no nível II (mais de 52%), o que indica um cenário parecido com aquele apresentado na 3ª série, em que se observa a necessidade de desenvolver estratégias pedagógicas que possibilitem ao estudante consolidar o que aprendeu, mas também ampliar as suas habilidades para tarefas maiscomplexas. Análise critica Embora amplamente divulgados no Brasil, o Perce, o Serce e o Terce não recebem a atenção devida. Muito similares ao Saeb, as informações desses estudos permitem-nos situar o Brasil no contexto regional e constatar que a sua posição, mesmo na América Latina, é modesta. 101 Como lições para o Brasil, dois sistemas educacionais podem ser destacados: � o de Cuba (no Perce e Serce), com resultados estelares comparáveis aos melhores do mundo, e � o do Chile (no Terce), que é o país da América Latina que apresenta melhoras consistentes tanto no nível regional quando no nível global. Carnoy (2009) faz uma comparação detalhada dos processos sociais e pedagógicos que garantem a vantagem acadêmica de Cuba em relação ao Brasil e mesmo em relação ao Chile. Os informes do Terce têm solidez técnica e merecem servir de base para estudos acadêmicos na área educacional. Isso, infelizmente ainda não ocorreu, pois as bases de dados não estão disponíveis para estudos. Comparação internacional Pisa O Projeto Internacional de Avaliação da Educação (Pisa, na sua sigla em inglês), é um exame que, organizado pela Organização para a Cooperação e Desenvolvimento Econômico (OCDE), é aplicado a uma amostra de estudantes de 15 anos dos países-membros da organização, e de países e economias convidados. O objetivo é verificar se os estudantes que estão terminando a educação básica obrigatória nos países participantes adquiriram conhecimentos e habilidades em Leitura, Matemática e Ciências que os habilitem a uma participação plena na sua sociedade. São avaliados estudantes de países da OCDE e de alguns outros países convidados. Organização para Cooperação e Desenvolvimento, a OCDE é uma entidade internacional formada por 35 países. Fazem parte da OCDE países com alto Índice de Desenvolvimento Econômico (IDE), exceto Chile, México e Turquia. Apesar de não ser membro do OCDE, o Brasil é considerado um país cooperador da organização. Por conta disso, algumas pesquisas realizadas pela OCDE incluem dados relacionados ao nosso país. O primeiro ciclo do Pisa foi realizado em 2000 e, desde então, tem-se repetido a cada três anos. No ano 2000, participaram 32 países: 28 países da OCDE e alguns países convidados, entre os quais estava o Brasil. Já em 2015, participaram 70 países, sendo 35 países-membros da OCDE e 35 países/economias parceiras. 102 No Pisa, além dos testes, os alunos respondem a questionários contextuais que permitem analisar a sua motivação para aprender, a concepção que têm sobre si mesmos e as suas estratégias de aprendizado. Composição da amostra Em cada país/economia participante, a população de referência para definição da amostra do Pisa é composta de “estudantes entre 15 anos e 3 meses (completos) e 16 anos e 2 meses (completos) no início do período de aplicação da avaliação, matriculados em instituições educacionais localizadas no país participante, a partir da 7ª série/7º ano” (Inep, 2016, p. 26). A tabela a seguir mostra-nos os percentuais de alunos em cada ano escolar, no ano de 2015, no Brasil. Tabela 36 ج Percentual dos alunos brasileiros que fizeram o Pisa em 2015 segundo o ano escolar em questão 7° ano (EF) 8° ano (EF) 9° ano (EF) 10° ano (EM) 11° ano (EM) 12° ano (EM) 3,5 6,4 12,5 35,9 39,2 2,5 Fonte: Relatório Inep 2016, p.27. Como podemos observar, a grande maioria dos alunos brasileiros testados pelo Pisa está no ensino médio, e o 2º ano do ensino médio concentra a maior quantidade de alunos. Assim sendo, os alunos brasileiros estão na parte superior da curva de idade quando se consideram todos os estudantes participantes. No Pisa, um número mínimo de 150 escolas é requerido para cada país participante. O Brasil participa, desde 2006, com uma amostra maior, a fim de obter resultados mais descritivos por unidade da Federação, com níveis de precisão aceitáveis. Determinou-se um quantitativo de 964 escolas para a amostra brasileira no Pisa 2015, com especial destaque para Minas Gerais e São Paulo, devido à sua maior concentração populacional de estudantes de 15 anos. Para saber mais sobre a forma de escolha das escolas para compor a amostra brasileira, acesse: � Relatório do Inep 2016. Disponível em: < http://download.inep.gov.br/ acoes_internacionais/pisa/resultados/2015/pisa2015_completo_final_baixa.pdf >. Acesso em: fev. 2018. 103 Questionários contextuais O objetivo dos questionários contextuais do Pisa é coletar dados que possam ajudar os formuladores de políticas e os educadores a compreenderem o motivo e de os estudantes atingirem determinados níveis de desempenho e a forma como isso acorre. Esses questionários incluem itens de caracterização sociocultural dos estudantes e dos processos mais importantes da aprendizagem dos alunos, tanto no nível individual quanto escolar, e também dados relativos ao sistema de ensino. De forma específica, os questionários de contexto incluem itens sobre características do aluno, antecedentes familiares de estudantes, percepções dos alunos, características escolares e percepções dos diretores da escola. Indicadores de características dos estudantes Alguns dos itens do questionário contextual produzem informações que podem ser usadas diretamente nas análises. No entanto, a maioria dos itens desse questionário foram desenhados para ser combinados em uma medida de um construto latente, obtida com as metodologias de construção de índices. Entre esses índices, há um particularmente importante: o índice Pisa de status econômico, social e cultural (ESCS). Para a sua construção, são sintetizadas as informações de bens de conforto doméstico existentes na residência do estudante. A coleta de informações sobre os itens de conforto existentes na residência dos estudantes como informação indireta de riqueza familiar tem uma longa tradição na pesquisa sociológica e educacional. Assume-se que os bens presentes na residência captam melhor a riqueza da família do que a declaração de renda, pois refletem uma fonte de riqueza mais estável. No Pisa 2012, os questionários incluíram questões sobre a presença de 14 itens na residência dos estudantes. Além disso, os países participantes puderam adicionar três itens específicos que captam evidência da riqueza familiar de forma mais adequada a cada país participante. Essas informações foram agregadas no indicador Homepos, um indicador síntese de todos os itens existentes na casa, mais uma informação sobre o número de livros em casa. Além dessa medida, o ESCS é inclui dois outros indicadores: � a ocupação do pai e da mãe – essas informações coletadas e colocadas em uma escola internacional ICSEI. A maior ocupação dos pais dos alunos é escolhida como segunda variável e � a escolaridade dos pais – essa informação é coletada e colocada na escala ISCEB. A maior escolaridade dos pais é escolhida como a terceira variável. Essas três variáveis são sintetizadas em um indicador, por meio de uma análise de componentes principais. 104 Indicadores de características das escolas De forma análoga ao que foi feito com o questionário respondido pelos alunos, vários indicadores são construídos com as informações obtidas pelo questionário da escola, preenchido pelo diretor. Em particular, são criados indicadores de liderança escolar, autonomia e de recursos escolares. Os documentos técnicos do Pisa explicam como cada um desses indicadores é feito e constituem, por isso, uma excelente fonte de informação de como construir indicadores. O que é testado? O Pisa foi desenhado com a finalidade de conhecer a capacidade de os estudantes analisarem e resolverem problemas em uma grande variedade de situações, manusearem informação e enfrentarem situações que lhes serão apresentadas durante a vida adulta e que lhes exigirão odomínio de habilidades que deveriam ter sido desenvolvidas durante a sua permanência na escola de educação básica (OCDE, 2012). O teste do Pisa em Ciências, por exemplo, usa questões que contemplam situações da vida do aluno, como consumo de energia, biodiversidade e saúde humana, mais do que conhecimentos específicos, como nome de plantas, fórmulas químicas, etc. Cada ciclo concentra-se em uma das três capacidades, ainda que o teste inclua, em todas as edições, questões das três áreas. As definições dos três domínios avaliados no Pisa enfatizam a aquisição de conhecimento funcional e de habilidades que permitam a participação ativa na sociedade. Tal participação requer mais do que apenas a capacidade de realizar tarefas impostas externamente, por exemplo, por um empregador. Significa também estar equipado para participar dos processos de tomada de decisão. Nas tarefas mais complexas do Pisa, os alunos são solicitados a refletir e avaliar o material. As definições abordam a capacidade de os alunos extrapolarem o que aprenderam e aplicarem os seus conhecimentos em contextos novos, e também se concentram na capacidade de os alunos analisarem, raciocinarem e comunicarem-se efetivamente ao apresentar, resolver e interpretar problemas em uma variedade de situações. Vejamos a definição de cada um dos domínios avaliados pelo Pisa (OCDE, 2016a): a) Leitura: Capacidade de um indivíduo compreender, usar, refletir e se envolver com textos escritos, a fim de atingir os seus objetivos, desenvolver o seu conhecimento e potencial, e participar da sociedade. b) Matemática: Capacidade de um indivíduo de formular, empregar e interpretar a Matemática em uma variedade de contextos. Inclui o raciocínio matemático e o uso de conceitos matemáticos, procedimentos, fatos e ferramentas para descrever, explicar e prever fenômenos. Ajuda os indivíduos a reconhecerem o papel que a Matemática desempenha no mundo e a desenvolverem julgamentos e decisões bem fundamentados, necessários à formação de cidadãos construtivos, envolvidos e reflexivos. 105 c) Ciências: Conhecimento científico de uma pessoa e o seu uso para identificar questões, adquirir novos conhecimentos, explicar fenômenos científicos e tirar conclusões baseadas em evidências sobre questões relacionadas à ciência. Compreensão dos traços característicos da ciência como forma de conhecimento humano. Consciência de como a ciência e a tecnologia moldam os nossos ambientes materiais, intelectuais e culturais. Ajuda a desenvolver a vontade de se envolver em questões relacionadas com a ciência e com as ideias da ciência, como um cidadão reflexivo. Descrição dos testes Aproximadamente dois terços dos itens do Pisa são composto de questões de múltipla escolha de diversos formatos. O um terço restante é composto de questões de resposta aberta. Isso exige a construção de padrões de resposta e a atribuição de escores por corretores que são treinados para a tarefa. Atualmente, os itens que compõem os testes do Pisa são desenvolvidos em centros de pesquisa educacional de diferentes partes do mundo, de forma a garantir a presença de situações que representem a diversidade de vivências que os estudantes dos diferentes países enfrentam no seu dia a dia. Ao mesmo tempo, exigem, para a sua solução, os conhecimentos e habilidades que, na concepção do Pisa, devem ser dominados por jovens de quinze anos. Os documentos que descrevem as matrizes de avaliação explicam o que é avaliado, por que e como. Além disso, fornecem exemplos detalhados de itens incluídos nos testes. Esse material é particularmente rico em reflexões e informações pedagógicas. O processo de desenvolvimento dos itens incluídos nos testes se estende por vários anos, desdobrando-se em várias etapas desenvolvidas concomitantemente. Trata-se de um processo muito sofisticado. Para saber mais sobre as matrizes do PISA, acesse: � Relatório do Inep 2016. Disponível em: < Relatório do PISA 2015. Disponível em: <http://www.oecd.org/pisa/data/2015-technical-report/>. Acesso em: fev. 2018. 106 Escala de proficiência As respostas dos estudantes aos itens do Pisa são transformadas, por meio de modelos da Teoria de Resposta ao Item, em escores. A interpretação pedagógica dessa escala e feita por meio de um mapa de itens, como apresentado na figura a seguir. Figura 18 – Escala de proficiência Pisa Fonte: OCDE (2016), PISA 2015 Results (Volume I): Excellence and Equity in Education. Como podemos verificar, cada item usado no teste nos dá a informação sobre um ponto da escala. A partir do escore de cada estudante, é possível sabermos em quais itens ele tem proficiência e em quais não tem. Claro que essa é uma afirmativa probabilista, pois o ocorre com um estudante individual reflete muitas características pessoais não captadas em testes padronizados. Níveis Os resultados do Pisa são apresentados em seis níveis. No entanto, em 2009, para facilitar a comunicação, o Pisa utilizou apenas quatro níveis: � alto desempenho que agrega os níveis 6 e 5; � desempenho sólido que representa o nível 4; � desempenho moderado agregando os níveis 2 e 3, e � baixo desempenho, composto pelo nível 1 ou abaixo. 107 Em anos posteriores o nível 1 foi dividido em 1a e 1b. O nível 3 é tomado como o nível de aprendizado adequado. Desse modo, para acompanharmos o desenvolvimento dos alunos, podemos verificar o percentual de alunos abaixo desse nível. Os níveis são interpretados da mesma maneira da escala, isto é, por meio dos itens que estão nele situados. Os relatórios do Pisa mostram um mapa de itens, como exemplificado na tabela a seguir: Tabela 37 – Mapa de perguntas científicas selecionadas que ilustram níveis de proficiência nível pontuação mais baixa do nível item dificuldade do item 6 708 fazenda sustentável de peixes – (S601Q01) 740 5 633 4 559 migração de aves – (S656Q02) 630 investigação de encosta de declive – (S637Q05) 589 fazenda sustentável de peixes – (S601Q04) 585 migração de aves – (S656Q04) 574 3 484 investigação de encosta de declive – (S637Q01) 517 migração de aves – (S656Q01) 501 2 410 meteoroides e crateras – (S641Q01) 483 fazenda sustentável de peixes – (S601Q02) 456 meteoroides e crateras – (S641Q02) 450 meteoroides e crateras – (S641Q04) 438 1a 335 1b 261 meteoroides e crateras – (S641Q03) 299 Fonte: OCDE, 2016, p. 59. 108 Podemos observar que, na tabela apresentada, cada item é situado em um nível. Desse modo, um estudante que está em um nível não é capaz de resolver os itens dos níveis mais altos, sendo capaz apenas de resolver os itens do seu nível e dos níveis mais baixos. Essas são, no entanto, afirmativas probabilísticas, que não valem para estudantes específicos. A seguir, podemos ver um exemplo do item S601Q01, extraído do Relatório do Inep de 2016 (INEP, 2016, p. 65-66): Figura 19 – fac-símile da prova de ciências, extraída do sistema eletrônico do Pisa 2015. Nota: esse item serve apenas como referência visual. A versão em inglês pode ser visualizada no relatório internacional (OCDE, 2016). 109 Como podemos observar, nesse caso, o formato da resposta foi o de múltipla escolha complexa. Já a competência solicitada foi a de explicar fenômenos cientificamente. A tarefa do item apresentou um diagrama do projeto experimental de uma fazenda de criação de linguado e descreveu os hábitos alimentares dos organismos componentes dos tanques do sistema. Para responder a essa questão, os estudantes deveriam mover os organismos para os tanques apropriados, considerando as informações sobre os seus hábitos alimentares e as respectivas contribuições na manutenção da sustentabilidade do sistema. Para receber o crédito completo, os componentes teriam de estar dispostos nos tanques conformeconsta na figura. A competência avaliada na questão não se restringiu ao conhecimento do conteúdo (cadeia alimentar), envolvendo também a capacidade de associar esse conhecimento a uma situação hipotética. É possível que a forma de apresentação da tarefa tenha agregado dificuldade, pois mais de 30% dos estudantes brasileiros omitiram a resposta e, dos que responderam, menos de 2% receberam crédito (delta igual a 21,56). De fato, a estrutura textual do item era complexa – composta de linguagem verbal e não verbal –, com muitas informações que deveriam ser integradas para a produção da resposta. Embora essas informações fossem necessárias à resolução da questão, a forma como estavam dispostas pode ter dificultado o entendimento. O texto verbal descrevia, adequadamente, o funcionamento do viveiro e a função trófica dos organismos componentes dos tanques. Entretanto, a sua associação com o diagrama exigia a decodificação de setas com funções distintas (indicações do fluxo da água nos tanques e localização de elementos do diagrama) e o entendimento de informações textuais complementares situadas no próprio diagrama (legenda e textos explicativos dos componentes). 110 Resultados do Brasil As mazelas estruturais do sistema brasileiro de educação básica fazem com que o nosso país se apresente em posição desfavorável quando comparado a outros países. Franco (2002), ao analisar os primeiros resultados brasileiros no Pisa, mostra-nos que, no Brasil, mesmo as escolas consideradas boas não o seriam se o padrão de comparação incluísse escolas de outros países. O autor ressalta ainda que o ensino brasileiro não enfatizava, à época, as habilidades demandadas no mundo de hoje. Além disso, observa que, mesmo considerando somente os alunos brasileiros de alto nível socioeconômico, os resultados ainda são menores do que os de alunos equivalentes de outros países. Esse diagnóstico continua atual e pertinente. Essa é uma situação que precisa mudar. Se quiser ocupar um lugar de destaque no concerto das nações, o Brasil não pode ter um padrão educacional, em áreas tão básicas como Leitura, Matemática e Ciências, aquém dos resultados de outros países com o mesmo nível de desenvolvimento econômico. A tabela a seguir nos mostra o percentual de alunos do Brasil em cada um dos quatro níveis de competência leitora, conforme o Pisa realizado em 2009, bem como o resultado de alguns outros países para comparação. Esses países incluem a Coreia, usada frequentemente como exemplo, os Estados Unidos, que são um país grande, com uma população tão diversa quanta a brasileira, e alguns países latino-americanos. Vejamos: Tabela 38 – Percentual de alunos por nível e país – Leitura (Pisa 2009) país baixo desempenho desempenho moderado desempenho sólido alto desempenho Brasil 49,6 43,0 6,1 1,3 Chile 30,6 58,8 9,3 1,3 México 40,1 54,2 5,3 0,4 Uruguai 41,9 48,3 8,1 1,8 Coréia do Sul 5,8 48,4 32,9 12,9 Espanha 19,5 59,4 17,7 3,4 Estados Unidos 17,6 52,0 20,6 9,8 Portugal 17,6 58,0 19,6 4,8 Fonte: Baseado nos dados divulgados pelo Relatório Pisa 2009 (INEE, 2010). 111 Como podemos notar, os resultados do Brasil são muito ruins. O percentual de alunos brasileiros com baixo desempenho em Leitura chega a quase 50%. Além disso, o Brasil possui um percentual baixo de alunos com desempenhos sólido ou alto: 7,4%. À época de divulgação dos últimos resultados, foi muito veiculada a informação de que o Brasil foi um dos países que tiveram a maior evolução de desempenho desde 2000. Essa informação, no entanto, recebeu uma análise crítica recentemente. Klein (2011) observa que a mudança na data da aplicação do Pisa modifica o percentual de alunos nas séries em que os alunos selecionados estão matriculados. Isso tornou os universos dos alunos avaliados, referentes aos anos de 2000 e 2009, não comparáveis. Desse modo, são frágeis algumas das conclusões amplamente veiculadas de que houve melhoria de desempenho dos alunos brasileiros entre esses dois anos. A tabela a seguir nos fornece o percentual de alunos com desempenho em Leitura no Pisa 2015. Nela podemos observar um comportamento similar entre os países da Argentina, Chile, Espanha e Portugal, onde o percentual de alunos em leitura com baixo desempenho diminuiu e o percentual de alunos em leitura com alto desempenho aumentou. Por outro lado, países como o Brasil, o México e os EUA apresentaram resultados mais estáveis em todos os níveis de desempenho, apesar de observamos um aumento do percentual de alunos no nível baixo desempenho. Vejamos: Tabela 39 – Percentual de alunos por nível e país – Leitura (Pisa 2015) país baixo desempenho desempenho moderado desempenho sólido alto desempenho Brasil 51,0 41,2 6,4 1,4 Chile 28,4 56,9 12,4 2,3 México 41,7 53,7 4,2 0,3 Uruguai 39,0 49,1 9,3 2,5 Coréia do Sul 13,7 48,2 25,5 12,7 Espanha 16,2 56,7 21,6 5,5 Estados Unidos 19,0 50,9 20,5 9,6 Portugal 17,2 53,3 21,9 7,5 Fonte: Elaborada com base nos dados disponíveis em: <http://dx.doi.org/10.1787/888933432569>. Acesso em fev. 2018. 112 Impactos no Brasil A participação do Brasil no Pisa possibilitou a circulação dos documentos técnicos usados para a tomada das decisões técnicas desse exame. Esses documentos foram construídos usando-se a melhor literatura da área e, assim sendo, são uma fonte segura sobre como organizar uma avaliação externa de forma adequada. O desempenho dos alunos brasileiros no Pisa foi utilizado para a escolha das metas criadas no âmbito do Índice de Desenvolvimento da Educação Básica (Ideb) e do movimento Todos pela Educação. A nota técnica do Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep) explica os procedimentos. 5 É importante notarmos, entretanto, que não se mudou a especificação dos testes brasileiros a partir da experiência do Pisa. Por conta disso, para atingir metas como a do aumento da proporção de alunos brasileiros nos níveis de alto desempenho do Pisa, serão necessárias ainda muitas mudanças nos currículos, e não simplesmente uma melhoria no desempenho dos alunos nos testes brasileiros. Pouco se faz no Brasil com os resultados do Pisa, exceto nos momentos de divulgação dos resultados, quando a imprensa apresenta matérias críticas sobre a posição do Brasil entre os países participantes. Essa atitude contrasta com a decisão de outros países como o México, que criou materiais de orientação para professores explicando a abordagem pedagógica latente nesse exame (INEE, 2010). Outra demonstração desse pouco impacto é o fato de que, no Brasil, não existe nenhum grupo de pesquisa em educação que tenha o Pisa como uma de suas áreas de interesse. 5 Para mais informações, acesse: <http://download.inep.gov.br/educacao_basica/portal_ideb/o_que_sao_as_metas/ Nota_Tecnica_n3_compatibilizacao_PISA_SAEB.pdf >. Acesso em: fev. 2018. Gráficos comparativos do percentual de alunos em cada nível de desempenho em Leitura A primeira coluna dos gráficos a seguir é referente aos percentuais de alunos com desempenho em Leitura no Pisa de 2009. Já a segunda coluna é referente aos percentuais de alunos com desempenho em Leitura no Pisa 2015. Gráfico 1 – Percentual de alunos em Leitura por nível de desempenho – baixo desempenho (Pisa 2009 e 2015) ANEXO I 114 Gráfico 2 – Percentual de alunos em Leitura por nível de desempenho – desempenho moderado (Pisa 2009 e 2015) Fonte: OECD, Pisa 2015 Database, Table I.4.1a. Gráfico 3 – Percentual de alunos em Leitura por nível de desempenho – desempenho sólido (Pisa 2009 e 2015) Fonte: OECD, Pisa 2015 Database, Table I.4.1a. 115 Gráfico 4 – Percentual de alunos em Leitura por nível de desempenho – alto desempenho (Pisa 2009 e 2015) Fonte: OECD, Pisa 2015Database, Table I.4.1a. Gráfico 5 – Percentual de alunos em Leitura por nível de desempenho – desempenho sólido (Pisa 2009 e 2015) Fonte: OECD, Pisa 2015 Database, Table I.4.1a. 116 BIBLIOGRAFIA ALVES, Maria Teresa Gonzaga; SOARES, José Francisco; XAVIER, Flavia Pereira. Desigualdades educacionais no Ensino Fundamental de 2005 a 2013: hiato entre grupos sociais. Revista Brasileira de Sociologia-RBS, v. 4, n. 7, p. 49-82, 2016. ANGOFF, W. H. Scales, norms, and equivalent scores. In: THORNDIKE, R. L. (Ed.). Educational measurement. Washington, DC: American Council on Education, 1971. BEATON, A. E.; ALLEN, N. L. Interpreting scales through scale anchoring. Journal of Educational Statistics, v. 17, n. 2, p. 191-204, 1992. BOURDIEU, P.; PASSERON, J.-C. A reprodução: elementos para uma teoria do sistema de ensino. Petrópolis: Editora Vozes. 2008. BRASIL. Lei de diretrizes e bases da educação (Lei n° 9.394/96). Brasília, DF: 1996.BRASIL. Lei nº. 13.005, de 25 de junho de 2014. Aprova o Plano Nacional de Educação–PNE e dá outras providências. Brasília, DF: 2014. BRASIL. Congresso Nacional. Lei nº 9.394 de 20 de dezembro de 1996. Estabelece as diretrizes e bases da educação nacional. Brasília, DF: 1996. BRASIL. Constituição Federal. Constituição da República Federativa do Brasil. Brasília, DF: Senado Federal, 1988. BROOKE, N.; SOARES, J. F. Pesquisa em eficácia escolar: origem e trajetórias. Belo Horizonte: Editora UFMG, 2008. CARNOY, M.; GOVE, A. K.; MARSHALL, J. H. A vantagem acadêmica de Cuba: por que seus alunos vão melhor na escola. São Paulo: Ediouro, 2009. CASASSUS, J. et al. Primer estudio internacional comparativo sobre lenguaje, matemática y factores asociados en tercero y cuarto grado. Santiago de Chile: LLECE Unesco-Santiago, 1998. CIZEK, G. J. More unintended consequences of high‐stakes testing. Educational Measurement: Issues and Practice, v. 20, n. 4, p. 19-27, 2001. 117 CIZEK, G.; BUNCH, M. Standard setting: a guide to establishing and evaluating performance standards on tests. California: Sage Publications, 2007. COLEMAN, J. S. et al. Equality of educational opportunity. Washington DC: US Government Printing Office. 1966. DELORS, Jacques et al. Educação: um tesouro a descobrir: relatório para a Unesco da Comissão Internacional sobre Educação para o século XXI. 1998. DÍAZ, G. M.; FLORES, G. México en PISA 2009. México: INEE, 2010. EUROPEIA, Comissão (CE). Recomendação do Parlamento Europeu e do Conselho de 18 de Dezembro de 2006 sobre as competências essenciais para a aprendizagem ao longo da vida. Jornal Oficial da União Europeia, p. 10-18, 2006. EURYDICE. Diferenças de género nos resultados escolares: estudo sobre as medidas tomadas e a situação actual na Europa. (Relatório), EACEA, Comunidade Europeia: Gabinete de Estatística e Planeamento da Educação, Ministério da Educação. doi:10.2797/51375. 2010. FLOTTS, M. P. et al. Informe de resultados Terce. Tercer estudio regional comparativo y explicativo. 2015. FONTANIVE, N. S.; ELLIOT, L. G.; KLEIN, R. Os desafios da apresentação dos resultados da avaliação de sistemas escolares a diferentes públicos. Revista Electrónica Iberoamericana sobre Calidad, Eficacia y Cambio en Educación, 2007. FRANCO, Creso. et al. O referencial teórico na construção dos questionários contextuais do SAEB 2001. Estudos em avaliação educacional, n. 28, p. 39-74, 2003. HAMBLETON, R. K.; SWAMINATHAN, H.; ROGERS, H. J. Fundamentals of item response theory. Newburry Park, Califórnia: Sage Publications Inc., 1991. INEP. Relatório Nacional Saeb 2003. Brasília, DF: Inep, 2006. 266 p. INEP. Brasil no Pisa 2015: análises e reflexões sobre o desempenho dos estudantes brasileiros/ OCDE-Organização para a Cooperação e Desenvolvimento Econômico. São Paulo: Fundação Santillana, 2016. Disponível em: <http://download.inep.gov.br/acoes_internacionais/pisa/ resultados/2015/pisa2015_completo_final_baixa.pdf >. Acesso em: fev. 2018. 118 KLEIN, R. Alguns aspectos da teoria de resposta ao item relativos à estimação das proficiências. Avaliação e Políticas Públicas em Educação, v. 21, n. 78, p. 35-56, 2013. KLEIN, R. Uma re-análise dos resultados do Pisa: problemas de comparabilidade. Avaliação e Políticas Públicas em Educação, v. 19, n. 73, p. 717-741, 2011. MEC/INEP. Dicionário de indicadores educacionais: fórmulas de cálculo. Brasília. 29 p. 2004. Disponível em: <http://inep.gov.br/informacao-da-publicacao/-/asset_publisher/6JYIsGMAMk W1/document/id/486420>. Acesso em: fev. 2018. MEC/Inep. Diretoria de Estatísticas Educacionais. Nota técnica n° 03/2013: cálculo das taxas de rendimento escolar – Censo da Educação Básica. Brasília, DF: 2013. MITZEL, H. C.; LEWIS, D. M.; PATZ, R. J.; GREEN, D. R. The bookmark procedure: psychological perspectives. Setting performance standards: concepts, methods, and perspectives, 249- 281. 2001. PERRENOUD, P. Práticas pedagógicas, profissão docente e formação. Lisboa: Dom Quixote, 1993. OCDE. Pisa 2015 assessment and analytical framework: science, reading, mathematic and financial literacy. 2016a. Disponível em: < http://www.oecd.org/publications/pisa-2015-assessment-and- analytical-framework-9789264281820-en.htm>. Acesso em: fev. 2018. OCDE. Pisa 2015 results: excellence and equity in education. v. I. Paris: OECD Publishing. 2016. OECD. Pisa 2009 technical report. Pisa/OECD Publishing, 2012. Disponível em: <http://dx.doi.org/10.1787/9789264167872-en>. Acesso em: fev. 2018. PESTANA, M. I. O sistema de avaliação brasileiro. Revista Brasileira de Estudos Pedagógicos, v. 79, n. 191, 2007. RIOS-NETO, E. L. G. Educação e população – ação 2.2. Módulo produtividade educacional com base nas pesquisas domiciliares e no censo demográfico. 1.6 Sumário executivo: análise dos indicadores educacionais calculados durante o convênio Inep/Cedeplar nº29/2002, Belo Horizonte, 2005. SIMIELLI, L. E. R. Equidade educacional no Brasil: análise das oportunidades educacionais em 2001 e 2011. 133 f. Tese (Doutorado em Administração Pública e Governo) – Escola de Administração de Empresas de São Paulo: São Paulo, 2015. 119 SOARES, J. F. Índice de desenvolvimento da educação de São Paulo – Idesp: bases metodológicas. São Paulo Perspectivas, São Paulo, v. 23, n. 1, p. 29-41, jan./jun. 2009. SOARES, J. F. A qualidade da educação, a qualidade das escolas. IN: OLIVEIRA, Marcus (Org.). A qualidade da escola pública no Brasil. Belo Horizonte: Mazza Edições, 2012. SOARES, José Francisco; DELGADO, Victor Maia Senna. Medida das desigualdades de aprendizado entre estudantes de Ensino Fundamental. Estudos em Avaliação Educacional, v. 27, n. 66, p. 754-780, 2016. OECD. Are the new millennium learners making the grade? Technology use and educational performance in Pisa, 2010. Disponível em: < https://www.oecd-ilibrary.org/education/are-the-new- millennium-learners-making-the-grade_9789264076044-en >. Acesso em: fev. 2018. TODOS PELA EDUCAÇÃO. Anuário da Educação Básica 2016. Disponível em: https://www.todospelaeducacao.org.br/biblioteca/1545/anuario-brasileiro-da-educacao-basica- 2016/. Acesso em: fev. 2018. TRAYNOR, A.; RAYKOV, T. Household possessions indices as wealth measures: a validity evaluation. Comparative Education Review, v. 57, n. 4, p. 662-688, 2013. VALDÉS, Héctor et al. Los aprendizajes de los estudiantes de América Latina y el Caribe: Resumen ejecutivo del primer reporte de resultados del segundo estudio regional comparativo y explicativo. Santiago do Chile: Unesco/ LLECE, 2008. 120 PROFESSOR-AUTOR José Francisco Soares possui pós-doutorado em Educação pela University of Michigan (Ann Arbor), é doutor em Estatística pela University of Wisconsin (Madison), mestre em Estatísticapelo Instituto Nacional de Matemática Pura e Aplicada (IMPA) e bacharel em Matemática pela Universidade Federal de Minas Gerais (UFMG). É professor titular aposentado da Universidade Federal de Minas Gerais (UFMG), onde continua as suas atividades de pesquisa no Grupo de Avaliação e Medidas Educacionais (Game). Na área de avaliação educacional, foi membro do comitê consultivo do Inep, membro do Conselho de Governança do movimento Todos pela Educação e membro do Conselho Nacional de Educação de 2012 a 2014. Atualmente, é membro do Conselho Técnico do Instituto Nacional para la Evaluatión de la Educatión (INEE) do México. Foi o primeiro presidente eleito da Associação Brasileira de Avaliação Educacional (Abave) e continua a integrar o seu comitê cientifico. De fevereiro de 2014 a fevereiro de 2016, foi presidente do Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira (Inep/MEC). Em 2011, foi o escolhido pela Abave para a homenagem especial e, em 2012, recebeu o prêmio Bünge pelas suas contribuições na área de avaliação educacional.