Los resultados de lectura del informe PISA en España fueron anómalos por disposición negativa de los alumnos, según OCDE

Europa/España/.elmundo.es

Siete meses después de congelar los datos por las «anomalías» en Lectura, apunta a la «falta de compromiso» de estudiantes de Madrid, País Vasco, Navarra, La Rioja y Cantabria. España cae 19 puntos y registra la cifra más baja en 14 años

Alumnos del instituto Ames en Bertamiráns (A Coruña).
Alumnos del instituto Ames en Bertamiráns (A Coruña).

 

La Organización para la Cooperación y el Desarrollo Económicos (OCDE) no publicó el año pasado los resultados españoles de Lectura del Informe PISA porque encontró «anomalías» en las respuestas de los estudiantes. Aquello generó un escándalo que lesionó la fiabilidad de la estadística más exhaustiva sobre el rendimiento académico de los alumnos de 15 años en 79 países. Siete meses después, el organismo internacional ha terminado su análisis para ver qué falló exactamente en el caso español. En un informe publicado este jueves, indica que los alumnos de cinco autonomías (MadridPaís VascoNavarra, La Rioja y Cantabria) «se mostraron negativamente dispuestos hacia la prueba PISA y no hicieron todo lo posible para demostrar su competencia» porque la evaluación les coincidió con los exámenes finales de 4º de la ESO y acabaron hartos y saturados.

«Se puede establecer una asociación clara entre la fecha del examen y la proporción de estudiantes con anomalías», señala el análisis de la OCDE, realizado con los datos del Ministerio de Educación, que asegura que conforme más coincide la realización de PISA con otras evaluaciones más aumentan los errores, una tendencia que también se repite conforme avanzan las semanas, lo que apunta a un posible cansancio de los estudiantes.

En 2018 varias comunidades autónomas eliminaron las recuperaciones de septiembre y adelantaron ese examen a junio. Eso obligó a modificar todo el calendario escolar y a anticipar los finales en la tercera y la cuarta semanas de mayo, cuando antes se hacían en junio. Coincidiendo con PISA. El calendario fue caótico. Había alumnos de 4º de la ESO que tenían el examen final de Física a las 10.00 horas y el de PISA a las 12.00 horas.

El informe de la OCDE concluye que en aquellas regiones donde se hicieron otros exámenes esos días aumentó un 16% el porcentaje de respuestas «inverosímiles». Los alumnos usaron «patrones» irreflexivos, diciendo a todo que sí o a todo que no. En muchos casos, contestaron «de manera apresurada, empleando menos de 25 segundos en total para responder más de 20 preguntas» cuando los que lo hicieron bien dedicaron hasta dos minutos. Además, en la encuesta interna que realizaron los examinados hubo muchos que «admitieron haber gastado muy poco esfuerzo en la prueba PISA»: en una escala de esfuerzo del 1 al 10, se situaron en el 1, el 2 o el 3. Ese alumnado tuvo 14 puntos menos que el resto en Lectura.

La OCDE ha incorporado los datos de Lectura al informe global pero con todas las cautelas y anotaciones al margen. El Ministerio de Educación también ha decidido difundir los resultados en su web y facilitárselos a las CCAA. ¿Por qué se publican? «Es una buena pregunta», responde un portavoz oficial de la OCDE, que insiste que los datos «no son válidos en términos de ser comparables con resultados de años anteriores o con los obtenidos en otros países». «Es la elección del Ministerio español publicar los resultados», señala.

Según detalla la responsable de Análisis de Datos de la PISA, Miyako Ikeda, «si bien esta disposición negativa de los estudiantes tuvo un impacto negativo en el rendimiento en PISA, el impacto general en el rendimiento medio del país no superó un puñado de puntos. «Sin embargo, el impacto es mayor en los resultados de las cinco regiones con los primeros exámenes de alto riesgo. Por lo tanto, los resultados se deben interpretar cuidadosamente. La comparabilidad de los datos de PISA 2018 para España con los de evaluaciones PISA anteriores no puede garantizarse por completo».

Otras fuentes educativas consideran que el Gobierno ha decidido difundir los datos de cara a una posible justificación de su reforma educativa, que actualmente se encuentra en tramitación en el Congreso. PISA pone a prueba la Lomce del PP, que se aprobó en 2013 y que en 2018 se encontraba vigente, aunque con las reválidas paralizadas.

LAS POLÉMICAS PREGUNTAS

La parte de la prueba de Lectura contaminada era nueva e instaba a los alumnos a decir si consideraban lógicas o no frases como «Los aviones son construidos con perros» o «El coche rojo tiene la rueda desinflada». Eran preguntas muy sencillas, que estaban más bien destinadas a alumnos de niveles muy básicos de los países en vías de desarrollo.

Estos datos que ahora se publican dan a España 477 puntos en Lectura, una decena de puntos por debajo de la media de la OCDE y de la UE y el peor resultado en los últimos 14 años. Estamos en el puesto 32 de 79 países. Hay que remontarse a 2006 para encontrar unas notas tan malas (entonces obtuvimos 461 puntos), que sitúan a nuestros estudiantes al nivel de Bielorrusia.

Lo preocupante, en cualquier caso, es que hemos bajado 19 puntos respecto a la edición anterior, lo que nos sitúa en el equivalente a medio curso académico de atraso. Además, vuelven a ponerse de manifiesto las enormes diferencias entre las CCAA: entre los 497 puntos de Castilla y León y los 404 de Ceuta hay un abismo de dos cursos académicos de diferencia.

No sólo estamos muy alejados de la excelencia de China (555), Singapur (549), Estonia (523) o Finlandia y Canadá (520), sino que también nos adelanta la mayor parte de nuestros vecinos -Reino Unido (504), Alemania (498), Francia (493), Portugal (492)-, lo que sitúa a la generación de los nacidos en la burbuja inmobiliaria, y a la vez los que más han sufrido la crisis económica, en una situación de inferioridad para competir en un mundo globalizado.

Navarra, que ha sido sido la mejor región en Matemáticas (con 503 puntos), está en Lectura al nivel de Canarias, con sólo 472 puntos. Es decir, queda la décimotercera cuando en la edición anterior fue tercera. También Madrid, que en PISA 2015 era la segunda mejor, baja en 2018 a la undécima posición, con 474 puntos que la sitúan casi como Canarias. Ha sido una caída en picado de 46 puntos, el equivalente a un curso completo. Ambas son dos de las regiones a las que alude la OCDE y esto podría explicar las diferencias. ¿Pero por qué no quedan mal en otras áreas?

«Es verdad que un estudiante puede tener un mayor interés o competencia en una materia sobre las demás, pero más sorprendente sería que una mayoría de alumnos de una clase, centro o zona geográfica tuvieran sistemáticamente un mejor resultado en una misma materia sobre las demás», expresa Ismael Sanz, profesor de la Universidad Rey Juan Carlos y ex chair del PISA Strategic Development Group.

La Comunidad de Madrid sigue considerando los resultados «totalmente inexactos». «No reflejan la realidad del sistema educativo madrileño, ni el esfuerzo de los alumnos ni el de los docentes», expresa el consejero de Educación, Enrique Ossorio., que censura que no se hayan corregido las «anomalías» admitidas por la OCDE, pues la calificación es la misma que la que se les comunicó en noviembre. Considera «a todas luces insuficiente para unos resultados tan anómalos» la explicación dada ahora por los autores del estudio.

Esta región llegó a pedir a la OCDE la retirada de los resultados de Matemáticas y Ciencias, alegando que «toda la prueba estaba contaminada». Argumentaba, en primer lugar, que el resultado en estas áreas del 60% de los alumnos se obtuvo extrapolando las notas de Lectura, lo que llevó a la OCDE a reconocer que estos datos también estaban afectados por este «comportamiento anómalo», aunque en «menor medida». Además, sospechaba que una parte de los examinadores, subcontratados por el Ministerio a la empresa TYPSA, pudieron dar instrucciones confusas a los estudiantes, porque los que estaban bajo su supervisión presentaron un 30% de errores frente a otros que sólo cometieron el 6% de fallos.

La principal hipótesis que se manejó entonces fue que las preguntas que iban al inicio del cuestionario pudieron ser interpretadas por los alumnos como un entrenamiento que no formaba parte del examen en sí y eso les llevó, en noviembre de 2018, a responder de forma precipitada y sin rigor, bien porque se les dieron mal las instrucciones, bien porque la empresa que diseñó el programa informático no lo dejó suficientemente claro. También se encontraron otras «inconsistencias» en la base de datos del informe. Nada de esto aclara la OCDE en un informe de apenas ocho páginas.

Entonces, ¿son válidas o no las notas de Ciencias y Matemáticas que la OCDE publicó en diciembre? Miyako Ikeda responde: «Los resultados de Matemáticas y Ciencias no fueron contaminados por el comportamiento de respuesta problemático de Lectura. Sin embargo, la disposición negativa de los estudiantes tuvo un impacto negativo en el rendimiento de estos estudiantes en PISA en general. Es decir, no se limita a la Lectura».

La OCDE intenta minimizar los efectos de estas reconocidas anomalías, pero, a la vez, ha admitido este jueves que cambiará las preguntas para «limitar» la pérdida de interés de los estudiantes y «mitigar sus consecuencias».

Sean cuales sean los datos, si hay algo en que los profesores coinciden es que «cada vez los alumnos leen con más dificultad». «Mientras la escuela sigue centrada en experimentos emocionales, los alumnos ya no son capaces ni de leer los enunciados. Cada vez comprenden menos, de modo que la educación se convierte más en una carrera que debe acabar pronto que en un ámbito en donde se tenga que estudiar, leer o analizar», advierte Andreu Navarra, profesor en un instituto de la provincia de Barcelona.

EL PRÓXIMO PISA SE RETRASA UN AÑO POR LA COVID

La OCDE ha decidido posponer los dos próximos informes PISA por la crisis de la Covid-19. La prueba se realiza cada tres años y tocaba en 2021, pero el examen se hará en 2022 y los resultados se publicarán en diciembre de 2023. La siguiente se publicará en 2026, no en 2025. «Las pruebas llevan un estudio de campo previo en que se realiza un test a la propia prueba, para conocer si las preguntas permiten diferenciar entre los alumnos que sobresalen y los que se encuentran rezagados o si hay algún problema con los enunciados, por ejemplo. La realización de este estudio de campo y la incertidumbre que aún rodea la crisis del coronavirus han llevado a la OCDE al retraso», explica Ismael Sanz. «En cualquier caso, es muy importante que esta prueba se siga realizando, para conocer si la pronunciada caída de España en 2018 ha sido coyuntural o real y, más relevante aún, cuál es el efecto del cierre de los centros educativos en el aprendizaje de los alumnos».

Fuente: https://www.elmundo.es/espana/2020/07/23/5f187856fdddff27198b4606.html

Comparte este contenido:

Vietnan: Over 866,000 students take HS Exam

Vietnan/Junio de 2017/Fuente: Vietnan News

Resumen: Más de 866,000 estudiantes de todo el país se reunieron en 2.364 lugares de prueba ayer por la tarde para completar todos los procedimientos de registro para el Examen Nacional de la Escuela Preparatoria de tres días, los estudiantes de examen importante que pasan 12 años preparándose. El examen está programado para correr desde hoy hasta el 24 de junio. Los candidatos tomarán cinco pruebas: matemáticas, literatura, lengua extranjera, ciencias naturales (incluyendo física, química, biología) y ciencias sociales (incluyendo historia, geografía y educación ciudadana). El profesor asociado Mai Văn Trinh, jefe del Departamento de Pruebas y Aseguramiento de la Calidad de la Educación, dijo que las pruebas incluyen un 60 por ciento de conocimientos básicos.

Over 866,000 students across the country gathered at 2,364 testing locations yesterday afternoon to complete all registering procedures for the three-day National High School Exam, the all-important exam students spend 12 years preparing for.

The exam is scheduled to run from today through June 24.

Candidates will take five tests: math, literature, foreign language, natural science (including physics, chemistry, biology) and social science (including history, geography and citizen education).

Associate Professor Mai Văn Trinh, head of the Department of Testing and Education Quality Assurance, said the tests include 60 per cent basic knowledge.

The 40 per cent ‘knowledge’ portion of the tests will be used to classify the levels of candidates. It goes toward university admissions, Trinh said.

As of 2015, high school graduation and university entrance exams have been mixed into one national exam called the national high school exam.

The results of the national high school exam are considered for both high school graduation and university admissions.

New changes made

Deputy Minister of Education and Training Bùi Văn Ga said this is the first year the ministry assigned each locality to chair the exam under instructions from the ministry.

Ga said the ministry has sent representatives to co-operate with localities to organise and ensure a smooth exam for candidates.

This year, all supervisors will take lucky draws before a test to choose their testing room. The move is expected to ensure a transparent exam, he said.

Each testing room only has 24 candidates. In previous years, the number was 30-40 candidates, he said.

Trinh said the ministry has also published sample tests before the real tests so that candidates could prepare more fully.

“This is the first time the ministry has done this,” he added

Candidates are allowed to bring recorders and video cameras into the testing rooms with the conditions that the recorders do not transmit information and receive audio signals, he said.

The purpose of the movement was to allow candidates to record violations in the testing rooms and send to authorised agencies, he added.

Everything ready

Ga said the ministry’s inspection teams has visited localities to check their preparedness for the exam.

Nguyễn Huy Bằng, chief inspector of the Ministry of Education and Training’s Office, said two hotlines will receive complaints and feedback from candidates, parents and others. People can contact 04 3623 1285 and 0923 006 757. Faxes can be sent to 04 3869 3145. Inspectors will verify and deal with violations based on the complaints and feedback.

The hotlines will be operated 24 per hours daily until July 06 when the test-marking activities finish, he said.

Ten inspection teams will randomly visit testing locations, he added.

This year, the Department of High-Tech Crime Prevention under the Ministry of Public Security also participated in the national high school steering committee.

The police force worked with the department of education and training to prepare for incidents related to hi-tech violations during the exam.

In Hà Nội, the city administration has even planned for incidents of flood, thunderstorms, food poisoning.

The health sector has conducted more inspections to ensure on food hygiene and safety. It arranged medical staff and medicines to be ready at testing locations in case of food poisoning and emergencies. Additionally, mobilised medical teams stand at the ready.

The Hà Nội Youth Union made plans to deal flooding during the exam. The voluntary team of up to 10,000 members was tasked to provide assistance if necessary.

According to the National Centre for Hydro-meteorological Forecasting, Vietnamese temperatures will range from 23-35 degrees Celsius during the next three days.

Hà Nội and HCM City are the two localities with the highest number of candidates. The number is 72,939 in Hà Nội and 71,469 in HCM City.

In a related movement, the Hà Nội’s Education and Training Department yesterday announced results of the high school entrance exam.

Candidates can access hanoi.edu.vn to search the results. Around 76,000 students in Hà Nội attended the high school entrance exam last Friday.—

Fuente: http://vietnamnews.vn/society/education/378760/over-866000-students-take-hs-exam.html#ohdQWLEjGehP0ahc.97

Comparte este contenido:

Sin excusas ante la colgada en las pruebas PISA.

Por: Nicolas Ramos Gandia.

La calamidad que encarna el desempeño de los estudiantes de nuestro sistema educativo en las pruebas PISA -informada a fines del año pasado-, ha sido escondida debajo de la alfombra de la discusión pública.  Como pueblo seguimos creyéndonos que con ignorar los problemas estos se resolverán mágicamente sin ninguna intervención de nuestra parte.  El naufragio de la inversión multimillonaria que hacemos anualmente en la educación fue tratado, si acaso, livianamente por los rimbombantes programas radiales de comentarios.

En recientes declaraciones, la designada secretaria del Departamento de Educación nos dijo que basará su gestión en cuatro pilares que los componentes del sistema educativo deben internalizar para que así todos remen en la misma dirección.  Se trata de “mejorar el aprovechamiento académico de los estudiantes, atender las necesidades de los alumnos como un ser completo, profesionalizar a maestros y directores escolares y reducir el tamaño de la agencia a nivel administrativo”.

No cabe duda que el aprovechamiento académico de los estudiantes es la misión primordial de nuestro sistema educativo. Entonces, preguntémoslo: ¿cómo sabremos, en los próximos años, si las políticas establecidas y las acciones correspondientes llevadas a cabo por el gobierno han cumplido con su propósito?  Pues no es ningún misterio: los resultados de los estudiantes puertorriqueños en las pruebas PISA y las puntuaciones en las cinco pruebas del College Board pueden convertirse en la métrica para ponderar la efectividad del sistema educativo.

Las pruebas del College Board son tomadas por los estudiantes de escuela superior anualmente y, en los últimos 30 años, los resultados de las escuelas públicas nunca han alcanzado un promedio de 500 puntos o más.  Si bien en los últimos años el promedio de las escuelas privada ha mostrado un descenso, el promedio de estas todavía es superior al de la escuela pública en las cinco pruebas.  Así pues, el sistema educativo habrá mejorado el aprovechamiento de nuestros estudiantes si estos superan, en promedio, los 500 puntos dentro de cuatro años.

Por el otro lado, cuando nos contextualizamos a nivel mundial debemos poner en nuestra mira las pruebas PISA.  El secretario general de la OCDE, Ángel Gurría, lo expone claramente: “el Programa para la Evaluación Internacional de Alumnos, PISA, se ha convertido en el principal baremo mundial para evaluar la calidad, equidad y eficiencia de los sistemas educativos. PISA ayuda a identificar las características de los sistemas educativos de mayor rendimiento, lo que puede permitir a gobiernos y educadores reconocer políticas efectivas que pueden adaptar a sus contextos locales”.

Si nos encontramos en el fondo del escalafón de las pruebas PISA, no queda otra que aspirar a salir de ahí lo antes posible.  Por ejemplo, el desempeño en las pruebas de los años 2018 y2021 debe ir moviéndonos de los últimos diez puestos a una posición equivalente al promedio del escalafón mundial para el 2021, año de nuestra cuarta participación en la prueba.

¿Qué hemos hecho en realidad con los resultados en las pruebas PISA?  Pues nada, y como siempre buscamos explicaciones latosas que en realidad son escusas y racionalizaciones para no enfrentar como país la colgada estrepitosa que nos debería provocar calor en la cara.

Fuente: http://www.elnuevodia.com/opinion/columnas/sinexcusasantelacolgadaenlaspruebaspisa-columna-2286361/

Imagen: http://rec-end.gfrcdn.net/images/tn/0/188/2544/1455/900/447/2017/01/31/c4cbbbde-daac-4564-9db0-94c1c7c22041.jpg

Comparte este contenido:

Pisa y la estandarización de la educacion.

Publicado Originalmente desde Rebelion

Cuarto Poder

Al mismo tiempo que circula un Manifiesto internacional que pide la supresión de las pruebas PISA, se acaba de hacer público el último informe del Programa Internacional para la Evaluación de Estudiantes que se realiza al alumnado de 15 años. Se aplica a más de medio millón de alumnos de 72 países del mundo; en nuestro país participaron 37.000 alumnos de todas las comunidades autónomas. Los alumnos españoles han superado la media de la OCDE en Lectura, pero no avanzan en Matemáticas y Ciencias.

¿Los datos son una buena o una mala noticia? De entrada hay que relativizarlos. Hay quién pone el acento en el estancamiento en Ciencias y en Matemáticas y en que seguimos en el vagón de cola. Lo cierto es que se puede constatar que la pequeña mejoría de España se produce en un contexto de empeoramiento de todos los países.También está el ridículo afán del Gobierno de apuntarse un tanto como si los datos tuvieran que ver con la LOMCE. Intentan ocultar que el informe PISA es de 2015 y no puede reflejar ningún efecto de la misma, ya que se realizó a alumnado de 4º de ESO cuando aún no se había aplicado la ley.

Del Informe se puede obtener más información que la posición en el ránking. Por un lado, las importantes diferencias entre comunidades autónomas reflejan el nivel socioeconómico y la inversión educativa. Así, las comunidades con mayor renta son las de mejores resultados en PISA (Madrid, Navarra, Cataluña, Aragón o Rioja), mientras que las de menor renta son las últimas en estos resultados (Extremadura, Andalucía, Canarias o Murcia). Lo que explica los buenos resultados en PISA de Castilla y León, Navarra, Galicia, Asturias o Cantabria es la mayor inversión educativa. No hay más que ver el cuadro de gasto por alumno en centros públicos. Claro que invertir más mejora la calidad.

Por otro lado, las diferencias entre los resultados en centros públicos y privados reflejan la extracción social y tipo de alumnado. Es muy interesante el estudio que sitúa que las diferencias en el rendimiento entre centros públicos y privados es mínimo si se descuentan las diferencias en el estatus socioeconómico, los recursos humanos y materiales utilizados y los inmigrantes escolarizados. Lo que mejora resultados en la concertada no es calidad educativa, sino la selección del alumnado.

Más allá de los datos, hay que profundizar sobre qué es el Informe PISA y cuál es su intención. De entrada, no es una evaluación de todo el sistema educativo sino sólo del alumnado y de tres competencias, dejando muchas otras fuera. Busca dar información orientada a cambiar la escuela para mejorar el crecimiento y la competitividad económica. Es una evaluación supuestamente educativa pero la realiza un organismo económico internacional. En él están disfrutando de una canonjía Juan Ignacio Wert y Monserrat Gomendio, autores intelectuales y materiales de la LOMCE, que se basaron en PISA para perpetrar la fechoría.

Dada la política neoliberal que defiende la OCDE no podemos esperar que sus estudios busquen el desarrollo de un modelo pedagógico para el desarrollo integral de los alumnos como personas y como ciudadanos. Su principal objetivo radica en ser un vehículo para estandarizar la educación en el mundo y optimizar el gasto educativo (prefieren considerarlo un gasto más que una inversión) en relación a su utilidad de cara al mercado. Por eso se ha utilizado como arma arrojadiza en los debates en torno a nuevas leyes como ha pasado en España con la LOMCE y con los recortes educativos. Esto acaba afectando directamente a la finalidad de la educación, si debe de ser la formación de personas y ciudadanos o de simples “recursos humanos” al servicio de las empresas. Por cierto, la OCDE ha contratado a la multinacional Pearson para su informe de 2018. De ahí las cada vez mayores críticas que desata.

Hay en estos momentos en circulación un Manifiesto internacional contra PISA que critica las anomalías político-educativas, técnicas, pedagógicas, sociales y psicológicas. Está impulsado por la Red Social para la Educación Pública en las Américas (Red SEPA) y la Coalición Trinacional en Defensa de la Educación Pública (México, Estados Unidos, Canadá) y exige la anulación de los contratos que los diversos gobiernos han firmado con la OCDE y el fin de estas pruebas estandarizadas de negativas consecuencias a nivel nacional. Como cita Enrique Díez, “PISA es un inmenso dispositivo de control que aspira a imponer una perspectiva educativa que nos aleja del reconocimiento de la educación como un derecho y nos aproxima a su interpretación como un bien de consumo”. ¿Dónde queda formar personas libres, cultas, creativas, críticas, solidarias, comprometidas en la mejora de su sociedad? De eso no se ocupa PISA.

Por último, hay que decir que los problemas (recortes y LOMCE) y los retos siguen ahí. El sistema educativo español sigue siendo mediocre y está claro que la calidad mejora con mayor inversión y con el consenso social en cuanto a su importancia estratégica. Para hacerse una idea de cómo está el debate de cara al llamado pacto educativo, sólo hay que escuchar lo que ha dicho el ministro de Educación. En el colmo de la desfachatez, Méndez de Vigo, ha declarado que España “rompe la brecha educativa y se sitúa, por primera vez en la historia, al nivel de los países más avanzados del mundo. Los responsables son los maestros. El Ministerio contará siempre con ellos para seguir mejorando”.

Decir esto es bastante cínico cuando el profesorado es uno de los colectivos de empleados públicos peor tratados por las autoridades educativas, soportan altas ratios de alumnado, un endurecimiento de las condiciones de trabajo, congelación salarial, la reducción de la formación, etc. Por no hablar de campañas directas para denigrarle como la realizada por Lucía Figar -consejera del Gobierno de Esperanza Aguirre- usando dineros públicos para ello. Señor ministro ¿para cuándo una evaluación sobre el grado de satisfacción del profesorado? La manera de lograr una mejora es contar con los enseñantes, que participen en las negociaciones y tener en cuenta sus propuestas para revertir los recortes y acordar una nueva ley que considere la educación pública un derecho social. Lo contrario es antidemocrático y demagogia barata.

Fuente: http://www.cuartopoder.es/laespumaylamarea/2016/12/07/pisa-y-la-estandarizacion-de-la-educacion/1744

Imagen tomada de: http://noticias.caracoltv.com/sites/default/files/250515_pruebas_pisa.jpg

Comparte este contenido: