TEMA 17.- PRINCIPIOS Y MODELOS GENERALES DE EVALUACIÓN EN EL SISTEMA EDUCATIVO. TIPOS, FINES Y PROCEDIMIENTOS DE EVALUACIÓN EDUCATIVA.
17.1.- Introducción
Incremento educación, modernización currículos, presupuestos, infraestructura en progreso desde II Guerra Mundial
Calidad primer plano agencia educativa
Evaluación vinculada a planificación y grado cumplimiento objetivos, originariamente evaluación procede del mundo empresarial
En educación evaluación inicialmente para selección estudiantes, ahora perspectiva comprensiva en función concepción aprendizaje y técnicas empleadas, pero se sigue utilizando para jerarquizar y clasificar
Tendencias
Renovación pensamiento hacia aprendizaje significativo e importancia calidad conocimiento prime sobre cantidad contenidos aprendidos
Evaluación al servicio necesidades alumnado
Explicación causas que producen un determinado nivel rendimiento
Diagnóstico aprendizaje, causas dificultades, medición rendimiento
Evaluación elemento esencial en proceso e-a
Evaluación formativa regula y dirige mejora aprendizajes, corrección continua
Evaluación todos elementos que confluyen en educación, papel profesores, alumnos, centros, equipos directivos
Evaluación proceso recogida información orientado a emisión juicios mérito o valor respecto sujeto u objeto o intervención, asociado a toma decisiones mejora u optimización objetos, sujeto o intervención (Mateo, 2000)
Evaluación mejor conocimiento realidad, provocar reflexión para facilitar consecución objetivos planificados, y permitir innovación y mejora
Necesidad y exigencia evaluar sistema educativo, y dentro mismo rendimiento alumnado y práctica docente, no sólo para conocer sino para introducir mecanismos motivación y corrección, haciendo sistema educativo más rentable y eficaz, más calidad y logros
LOE Título VI Evaluación alumnado, profesorado, centro, currículo, Administraciones
Evaluación sistema educativo competencia estatal encargada al Instituto de Evaluación
Art. 151.c función Inspector evaluar sistema educativo y elementos que lo componen
Definición concepto evaluación y ámbitos, surgimiento actividad evaluación, períodos relevantes y modelos de evaluación, tipos y fines de evaluación (función, momento, amplitud, agente, criterio comparación), procedimientos y clasificación
17.2.- Principios de la evaluación
Evaluación = obtención información y formular juicios (Tenbrink, 1981)
Evaluación = examinar grado adecuación conjunto informaciones y criterios adecuados a objetivo ... tomar decisión
Evaluación
Recogida datos (instrumentos cuantitativos: cuestionarios o pruebas objetivas, e instrumentos cualitativos: observación y análisis trabajo)
Análisis información y emisión juicio: comparación datos con criterios de evaluación
Toma decisiones de acuerdo a valoración
Ámbitos evaluación
Evaluación currículos o programa aprendizaje,
Evaluación práctica docente y profesorado (aspectos didácticos y organizativos)
Evaluación de la dirección del centro (estilo, relaciones, liderazgo)
Evaluación centro escolar (organización, horarios, participación familias, actividades extraescolares):
Evaluación procesos y resultados en organización / gestión / funcionamiento y proceso e-a.
Evaluación sistema educativo, evaluación procesos aprendizaje / resultados alumnos / actividad profesorado / procesos educativos / función directiva / centros / Inspección / propia Administración,
Principios evaluación (Sanmartín, 2007)
Evaluación motor aprendizaje (qué y cómo se enseña y aprende)
Finalidad regulación dificultades y errores, y proceso enseñanza, orientar acción profesor y aprendizaje alumno
Error útil para regular aprendizaje clarificando y encontrando camino
Gestión autoaprendizaje = autoevaluación (estrategias gestión aprendizaje permanente)
Coevaluación enriquece auto y heteroevaluación, diferentes perspectivas
Función calificadora y seleccionadora importante, personas idóneas
Evaluación motivadora si proporciona criterios e instrumentos comprender errores y reconocer éxitos
Variedad instrumentos mejora evaluación
Evaluación externa útil si método promueve prácticas innovadoras
Profesor variable que más influye, autoevaluación profesorado importante
Principios (Zabalza, 1987)
Evaluar = comparar, medimos y valoramos y luego comparamos (grupo de referencia estadístico, marco externo y objetivos previos criterio, individualizado evolución)
Evaluación como proceso y sistema: pasos secuenciales actuación integrada dentro proceso e-a y con respecto conjunto componentes sistema educativo
Condición comprensividad evaluación, suministra información de marcha enseñanza y profundidad o diversidad metodológica
Utilidad mejora
Realizable y pragmática
Ética compromiso derechos implicados y conocimiento procedimientos y objetividad resultados
Contextual adaptada a realidad
17.3.- Modelos de evaluación
Periodos (Pimienta, 2008) antes vs después Tyler (1902 - 1994) profesor Ralph Tyler padre evaluación educativa sistemática y profesional Univ Ohio, ligada a EEUU, experiencias previas China 2000 años a.C, selección funcionarios gobierno imperial, cuestionario oral Sócrates siglo V a.C., Univ Edad Media, siglo XIX más rigor Reino Unido comisiones reales evaluación servicios públicos, y EEUU tests estudiantes 1845, final siglo XIX generación medida (evaluación = medida, estudio diferencias individuales, grupos normativos referencia, curriculum no objeto evaluación)
Antes Tyler evaluación juicios alumnos a partir pruebas normativas
Época tyleriana (1930 - 1945) pedagogía experimental comparando grupo exptal y control, comparaciones internas resultados y objetivos, no entre grupos alumnos
Época inocencia (1944 - 1957) periodo postbélico, progreso taxonomía objetivos (Bloom) y vuelta a pedagogía experimental influencia tratamientos en programa aprendizaje, avance tratamiento estadístico datos
Época del realismo (1958 - 1972), evaluación programas educativos, tests nacionales estandarizados, evaluación adaptada al currículo con muchas dudas (Cronbach, Stufflebeam, Stake, Scriven)
Época de profesionalización (1973 - actualidad) formación especialistas en evaluación educativa, centros investigación educativa y revistas especializadas, se amplía evaluación a docencia, centros y sistema educativo
Evaluación, medida, control e investigación
Medida recogida datos y comparación con unidad, cuantas unidades caben en dimensión escogida, EVALUACIÓN compara con el criterio y valora para tomar decisión mejora
Control obligación sociedad subsidiaria regulación acción educativa, responsabilidad poder y asociado a cultura normativa y mantenimiento organización, EVALUACIÓN incide en aprendizaje social valores
Investigación diferente a evaluación aunque elementos comunes (definición problema, planificación instrumentos y técnicas, ejecución análisis resultado, informe final conclusiones), investigación también plantea hipótesis, EVALUACIÓN termina con valoración objeto evaluado y una toma de decisiones
Tipos de modelos (Pérez Gómez, 1983) tendencia positivista cuantitativista examen grado consecución objetivos vs perspectiva cualitativista yendo mas allá datos funcionamiento proceso e-a
Clasificación modelos (Tercero Sauco, 2011)
Modelos evaluativos consecución metas (evaluación objetivos Tyler, comparando hipótesis con técnicas objetivas y homologadas)
Modelos basados en toma de decisiones o evaluación elementos que rodean objeto de evaluación (CIPP Stufflebeam)
Modelos obtención información de diversas fuentes de forma formativa y sumativa (Scriven)
Modelos centrados en cliente, atención proceso y buscan coparticipación agentes implicados
Clasificación modelos (Casanova, 2008): modelos cuantitativos conductuales Tyler, transición Stufflebeam y Scriven, subjetivistas e interpretativos (modelo respondente Stake, evaluación iluminativa de Parlett y Hamilton, evaluación democrática McDonald), sociocríticos (crítica artística Eisner, modelos cuasijudiciales Owens y Wolf), modelos calidad ISO 9000 o EFQM
17.4.- Modelos cuantitativos - objetivistas
Modelo tyleriano o centrado en objetivos 1932: evaluación objetivos comportamiento, grado alcance al final programa educativo, comparación objetivos - resultados (establecer metas, ordenar y enumerar objetivos en clasificaciones, definir objetivos en términos comportamiento, seleccionar instrumentos y métodos medida, recopilar datos, comparar resultados con objetivos, aceptar o rechazar, análisis fortalezas y necesidades programa, modificar programa en función diferencia resultados - objetivos)
Curriculum previamente definido en torno objetivos preestablecidos (programa base PPDD y orientación contenidos / materiales / evaluación
Modelo orientado toma de decisiones (1963): Cronbach importancia contexto y proceso desarrollo programa
Evaluación continua, evaluación estructura programa vs comparación grupos control y exptal
Diferencia juicio vs evaluación (juicio opinión o información relativa, evaluación toma decisión motivada, objetivo mejora realidad
Alkin (educación informa sobre necesidades y obtiene datos para toma decisiones): necesidades tomando en cuenta los objetivos logrados frente a los previstos, planificación previa evaluación de la misma, desarrollo programa y modificaciones, evaluación progresos, evaluación resultados y toma decisiones continuidad o no)
17.5.- Modelos de transición
Modelo CIPP Stufllebeam, 1973, evolución modelo toma decisiones
Contexto con condicionantes y limitaciones e identificación población objeto estudio
Input o entrada (planificación métodos en función contexto y diseño)
Proceso (desarrollo en consecución metas, comprobación plan obteniendo información sobre proceso / desarrollo actividades / utilización recursos) ... decisiones perfeccionan planificación y procedimiento programa
Producto resultados en función de objetivos y necesidades
Stufflebeam, 1966
CIPP no pretende demostrar validez sino perfeccionar sistema, más adaptado a evaluación centros o sistema que aprendizajes individuales
Evaluación parte integrante programa y no parte especial puntual
Evaluación formativa
Aporte información personas interesadas, sobre actividades / recursos / planificación, ayuda y orientación modificación plan, indicar niveles satisfacción usuarios y gestores, informe final calidad / rentabilidad / resultados
Modelo orientado a consumidor (Scriven, 1973), se aparta línea tyleriana y concibe método interpretativa, evaluación = determinación mérito o valor programa
Valoración efectos y necesidades
Función formativa (información planificación y puesta en marcha programa, y contribuir perfección procesos) y sumativa (valor programa tras desarrollo, atención necesidades usuarios valorando logros previstos y no previstos, importancia valoración procedente de audiencia profesores y alumnos)
Modelo sin metas
Etapas: descripción, solicitante cliente evaluación, antecedentes y contexto, recursos, función agentes implicados, funcionamiento (inicio, mantenimiento, perfeccionamiento, control), consumidores y necesidades, normas preexistentes aplicables a valor, beneficios y costes además de limitaciones, resultados, generalización, comparaciones, síntesis, recomendaciones, informe, metaevaluación propio diseño evaluación programa
Evaluación efectos secundarios por fortaleza y evitar sesgo evaluador no dándole a conocer objetivos (debe evaluar consecuencias y no intenciones)
Objetivos distinto a función, evaluación formativa perfecciona y sumativa comprueba eficacia
Evaluación no es estimación logro objetivos (importante análisis bondad, no grado consecución)
17.6.- Modelos subjetivistas - interpretativos (negociación, perfección comprensión interesados en evaluación, modelos cualitativos enseñanza proceso dinámico con cambio significados y cualidades, sustento en negociación participantes y audiencias, estrategias observación participante y entrevistas informales, evaluación servicio información a implicados, concentración en procesos programa y percepción participantes y audiencia programas y efectos)
Modelo evaluación iluminativa de Partlett y Hamilton (1973): análisis procesos negociación aulas, previamente familiarización con aulas, diseño no por anticipado sino a través de participación, problemas determinan métodos
Instrumentos: observación, entrevistas, análisis documentos, cuestionarios
Relevancia contexto, análisis autónomo e interrelacionado miembros, conocer percepción problema participantes, numerosas perspectivas que hay que valorar sin manipular proceso, realidad aula singular e irrepetible
Modelo evaluación respondente Stake (1975), iniciado en 1967 (tiene en cuenta agentes implicados) y ampliado en 1983 (tiene en cuenta antecedentes, procesos, datos juicios valorativos, informe educadores)
Responde a problemas planteados por agentes educativos en su actividad diaria
Atiende a diferencias audiencias afectadas por desarrollo programa negociando con cliente lo que debe hacerse (modelo centrado en cliente) teniendo en cuenta perspectivas presentes e influencia en éxito programa mediante interacción evaluador - evaluados
Contempla evaluación programa completo (antecedentes, procesos con interpretaciones agentes y resultados)
Utiliza técnicas cualitativas (estudio casos, observación, entrevista, debate, grabaciones)
Dos matrices: descriptiva (intenciones y observaciones x antecedentes, procesos y resultados) y juicios (normas y juicios x antecedentes, procesos y resultados)
Retrato completo y holístico programa (descripciones y narraciones), centro en actividades vs intenciones, considera interpetaciones diferentes implicados, responde a necesidades información y nivel conocimiento interesados
Modelo evaluación democrática (máximo exponente evaluación cualitativa)
Stenhouse, McDonald y Elliot
Realidad dinámica, evaluación qué y cómo hacer, procedimientos y metodologías naturalistas
Evaluación = valor observado comparado con norma ... descripción programa
Al servicio comunidad (tiene en cuenta valores), evaluador facilita intercambio de información entre diferentes grupos
Evaluador debe sumergirse en campo evaluación, conoce interpretaciones agentes implicados, invitar a participantes investigar y evaluar su realidad, propicia emergencia pensamiento libre y autónomo, refleja en informe opiniones e interpretaciones participantes
Evaluación finalidad promover cambio, modificar práctica educativa, fomentar cultura autoevaluación
Procedimientos y técnicas: entrevistas, debates, evaluador neutral favorece diálogo y discusión
17.7.- Modelos sociocríticos (transformación destinatarios programa, análisis crítico circunstancias personales y sociales, evaluador ayuda a manifestación necesidades y se recogen en informe)
Modelos cuasijudiciales Owens y Wolf (1981)
Owens acuerdo entre dos grupos evaluadores externos explorando valores programa, estimando congruencia sistema referencia e innovaciones, o debatiendo interpretaciones sobre datos
Wolf incluye propuesta problemas por implicados, selección problemas relevantes, argumentaciones con juez / defensor / testigos / expertos, y audiencia pública
Modelo crítica artística Eisner (1986)
Evaluador como crítico obras de arte, enseñanza = arte y profesor = artista
Evaluador = experto intérprete medio cultural lleno significados
Promueve entre participantes interpretación y reflexión práctica educativa ... conseguir cambio (describe fenómenos y relación con contexto, interpreta fenómenos mediante investigación causas y significados, valora críticamente mediante juicios subjetivos)
Crítica educativa capta lo singular de la vida aula y relaciones así como procesos
Validez y fiabilidad triangulación datos diversas fuentes o teorías diferentes explicativas hechos
17.8.- Modelos de calidad (mezcla cualitativos y cuantitativos)
EFQM calidad total inicialmente diseñado para mundo empresa, punto central procesos, izquierda agentes facilitadores (liderazgo personas, política y estrategias, alianzas y recursos, procesos) y a la derecha resultados (persona, cliente y sociedad)
ISO 9000 normas internacionales garantía calidad
Modelo evaluación por competencias clave necesarias para desarrollo personal y ciudadanía activa
Aprendizaje imprescindible planteamiento integrador y orientado aplicación conocimientos adquiridos
Competencias no evaluábles por sí mismas, hay que inferirlas a través acciones específicas
Capacidad fundamentar saber hacer en contexto específico
Logro ponderado % (nivel complejidad contexto específico) ... logro alto / medio / bajo
De concepto se evoluciona a competencia, por eso seguimiento comprensión concepto, pero competencia no es concepto
Objetivo propósito general comprendido
Indicador logro parte cuantificable objetivo propuesto
Estándar = meta específica tras formación o adquisición competencia
Evaluar competencia = definir indicadores logro en contexto dadas condiciones y especificando qué sabe o no sabe hacer estudiante con conceptos aprendidos
17.9.- Tipos y fines de la evaluación educativa
17.9.1.- Clasificación evaluación por su función
Diagnóstica (estudio previo a proceso educativo, adapta programa a características alumnado)
Formativa (valoración procesos como estrategia mejora y ajuste a realidad, simultánea a proceso e-a, también productos educativos para mejora, evaluación continua)
Sumativa (valoración productos procesos terminados, no pretensión mejora o modificación objeto evaluación, sino determinar valor, evaluación final, vinculada a toma decisiones)
17.9.2.- Clasificación según momento aplicación
Inicial (comienzo proceso, fin diagnóstico, conocer situación partida)
Procesual (recogida datos, análisis y valoración continua para consecución objetivos, gran importancia para función formativa al permitir tomar decisiones mejora mientras se desarrolla programa)
Final (al final período tiempo previsto desarrollo programa, recoge datos momento final, aunque puede tener en cuenta datos recogidos a lo largo todo el proceso, evaluación sumativa)
17.9.3.- Clasificación según su extensión
Global (abarca todos componentes o dimensiones objeto evaluación, ya persona o centro, consideración holística, comprensión aumenta por aspectos estudiados e interrelación, más compleja y a veces no es posible evaluar todas las dimensiones)
Parcial (valora sólo determinadas dimensiones objeto de evaluación)
17.9.4.- Clasificación según agentes evaluadores
Interna (propios agentes implicados en participación programa, autoevaluación tras reflexión, Orden 6 de marzo de 2003 evaluación interna CLM propone ámbitos, dimensiones e indicadores)
Externa (heteroevaluación, agente evaluador experto, complemento con autoevaluación)
Coevaluación (evaluación conjunta entre implicados, emisión juicio sobre trabajo de otros)
17.9.5.- Clasificación según el referente con que se compara el objeto de evaluación
Idiográfica o personal (referencia propio sujeto, diferencias entre capacidades o habilidades, carácter formativo)
Nomotética (referente comparación externo)
Normativo: nivel general grupo normativo, indica posición sujeto respecto a media, sigue distribución normal
Criterial: referente patrones realización, situaciones deseables y previamente establecidas, con cierta flexibilidad acción, no tan cerrados como objetivos operativos de Bloom
TEMA 17 OPOSICIÓN INSPECCIÓN PRIMERA PARTE
TEMA 17 OPOSICIÓN INSPECCIÓN SEGUNDA PARTE
TEMA 17 OPOSICIÓN INSPECCIÓN TERCERA PARTE
TEMA 17 OPOSICIÓN INSPECCIÓN CUARTA PARTE
TEMARIO
No hay comentarios:
Publicar un comentario