Vista previa del material en texto
DEPARTAMENTO DE INGENIERÍA MECÁNICA Y FABRICACIÓN
ESCUELA SUPERIOR DE INGENIEROS INDUSTRIALES
UNA METODOLOGÍA PARA EL ANÁLISIS Y OPTIMIZACION DE
MODELOS PARA EVALUAR LA CALIDAD DE LAS ENSEÑANZAS
TESIS DOCTORAL
AUTOR: FRANCISCO ALBA JUEZ - INGENIERO INDUSTRIAL
DIRECTOR: FRANCISCO APARICIO IZQUIERDO - DR. INGENIERO
ANO: 2000
TRIBUNAL CALIFICADOR
PRESIDENTE:
VOCALES:
VOCAL SECRETARIO:
CALIFICACIÓN:
AGRADECIMIENTOS
Quiero expresar mi más sincero agradecimiento a las siguientes personas e
instituciones que de alguna manera ayudaron para que este trabajo de tesis se
hiciera realidad:
A D. Francisco Aparicio Izquierdo por su invalorable ayuda en todo momento,
sus aportes fundamentales y estimulo constante, y por su siempre acertadas
críticas y observaciones en la dirección de esta tesis.
- A D. Emilio Bautista Paz, Director del Departamento de Ingeniería Mecánica y
Fabricación de esta Escuela por su constante apoyo.
- A D. Santiago Poveda por su invalorable colaboración en la obtención y
recolección de datos, sin los cuales hubiera sido imposible esta tesis.
- A D. Jesús Misas, Jefe de la Sección gestión Administrativa de esta Escuela por
su ayuda y asesoramiento permanente en todos los tramites administrativos
pertinentes.
- A Da. Maríela Felicito, por su invalorable ayuda en la compaginación y
confección de esta tesis por ordenador.
A SECAI y todas las Universidades involucradas en este trabajo, que
gentilmente accedieron a facilitar la documentación referente a las
evaluaciones internas y externas de cada una de ellas.
- A todos los Profesores, personal y compañeros de la ETSII por su siempre trato
amable y cordial.
ÍNDICE
1. Tema de la Tesis 1
2. Estado del Arte 1
2.1. Estados Unidos 2
2.1.1. ABET 2
2.1.2. US News 4
2.2. Japón 6
2.3. Holanda 8
2.3.1. Faculty of Systems Engineering Poiicy Analysis and Management Delfy
University of Technology (SEPA) 8
2.3.2. University of Twente - Faculty of Technology and Management 11
2.4. Dinamarca 15
2.4.1. Center for Quality Assurance and Evaluation on Higher Education
Copenhagen 15
2.4.2. Engineering College ofOdense 17
2.5. Portugal 19
2.5.1. Universidad Técnica de Lisboa - Instituto Superior Técnico (IST) 19
2.6. Suiza 20
2.6.1. Swiss Federal Institute of Technology (ETH) 20
2.7. Italia 22
2.7.1. Politécnico di Torino 22
2.8. Conclusión 25
3. Introducción 26
3.1. El significado de "Control" y de "Calidad" 26
3.2. Características de calidad 27
4. Objetivos de la tesis 29
4.1. Objetivo general 29
4.2. Objetivo específico 29
4.2.1. El Modelo SECAI 30
4.2.1.1. Calidad del Plan de Estudios 33
4.2.1.2. Calidad de Proceso 33
4.2.1.3. Calidad de Resultados Inmediatos 34
4.2.1.4. Calidad de Integración y Calidad de Servicio 35
4.2.1.5. Indicadores de Calidad 36
4.2.1.6. Diagrama Gaieral con los Elementos Fundamaitals del Proc«o de
Evaluaciái de la Calidad de las EnsMíanzas mediante Aplicación del SECAI,. 37
4.2.1.7. Factores e Indicadores de Cali dad 38
4.2.1.7.1. Factores de Calidad 38
4.2.1.7.2. Indicadora de Calidad 38
4.3. Metodología de Aplicación e Instrumentos 44
4.3.1. Evaluación Litema (Autoevaluación) y Evaluación Extema 44
4.3.2. Metodología y Criterios de Evaluación 45
4.3.3. Indica de Calidad 46
5. Metodología para el Análisis y Optimización dd Modelo SECAI 49
5.1. Aplicación al Moddo SECAI 49
5.2. Matriz de Correlaciói 51
5.3. Análisis de Componente Principal^ (ACP) 66
5.3.1. Análisis de Correlación Factorial 74
5.4. Evaluación de la pertinencia y aplicabilidad de los indicadores, resultado de
las encuestas a evaluadores extemos 87
5.5. Propuesta de Modelo Final 107
5.5.1. Análisis de congruencia en base a concqjtos técnicos y de experiaicia 107
5.6. Aplicación del Sistema Optimizado de Indicadores al Modelo SECAI 126
5.7. Conparación entre los índices de calidad obtenidos con la utilizaciói de los
indicadores del Moddo Original, los obtaiidos con el Moddo Reducido y los
obtaiidos con el Modelo Optimizado 126
6. Conclusiones Finales 209
7. Futuras tareas que puedei desarrollarse en el ámbito de estudio abordado en
esta tesis 210
8. Bibliografía 211
Anexo I: Matriz de Correlación Global (94 x 94) obtaiida a través del
Software STATGRAPH PLUS
Anexo ü: Corrdación obtaiida mediante la aplicacim del Método de
Análisis de Componentes Principales a través del Software MINITAB
Francisco Alba Juez
l.TEMA DE LA TESIS
El tema de la presente tesis, está encuadrado dentro de los campos del Control de
Calidad Total y de la Educación Superior, y dentro de esta, específicamente en lo que
hace a la formación de ingenieros, sin que esto impida extenderlo a Escuelas o
Facultades de otras especialidades o incluso a procesos o sistemas que no tengan nada
que ver con la educación superior.
La naturaleza del problema a plantear y su resolución es de una alta complejidad, y a
pesar de haberse realizado una exhaustiva búsqueda bibliográfica que ha abarcado
varios países, tales como EE.UU., JAPÓN, HOLANDA, DINAMARCA, PORTUGAL,
SUIZA, ITALIA, ESPAÑA, FRANCIA, ALEMANIA, NORUEGA, ESCOCIA,
INGLATERRA, ESLOVAQUIA, RUSIA, ARGENTINA, COLOMBIA, CHILE,
BRASIL y PERÚ, no se han podido encontrar antecedentes ni bibliografía referente a
trabajos similares al que se aborda en la presente tesis. Sí, se han encontrado abundantes
antecedentes y bibliografía referentes a sistemas o modelos para evaluar Universidades
[1], [2], [3], [4], [5], [6], [7], [8], [9], [10], [11], [12], [13], [14], [15], [16], [17], [18],
[19], [20], [21], [22], [23], [24], [25], [26], [27], [28], [29], [30], [31], [32], [33], [34],
[35], [36], [37], pero no referentes a "Metodología o sistemas de análisis y optimización
de estos modelos de evaluación", que es el tema central del presente trabajo.
Por tanto, se considera que esta tesis puede tener una signifícación considerable en el
campo de la enseñanza superior dado que en ella se presenta una metodología que
constituye una herramienta importante y novedosa, que permite analizar y optimizar
científicamente modelos o sistemas de evaluación de la calidad de las enseñanzas.
L ESTADO DEL ARTE
Como ya se ha dicho, no se ha podido encontrar antecedentes referentes al tema
planteado a pesar de la intensa búsqueda realizada, la cual en todos los casos ha
culminado con la obtención de diversos sistemas para evaluar la calidad de distintas
instituciones de enseñanza superior.
Si bien en algunos casos estos sistemas han sido diseñados e implementados desde y por
los organismos gubernamentales competentes en el tema, en la mayoría de los casos se
trata de sistemas diseñados y ejecutados por las mismas universidades, que han
comprendido la necesidad de embarcarse en un proceso de autoevaluación para
posteriormente requerir de otros organismos - incluso extranjeros - una evaluación
extema. En el caso de Estados Unidos, por ejemplo, además de los organismos
gubernamentales, la Acreditation Board for Engineering and Technology (ABET), y las
propias Universidades, está el caso de la revista US. News, que todos los años realiza un
ranking de Universidades sobre la base de una calificación que la misma revista realiza
utilizando un sistema de factores e indicadores, que normalmente es criticado por las
Universidades, pero que al mismo tiempo es utilizado por ellas para realizar su propia
evaluación, por cuanto el sistema empleado por US. News es permanentemente
estudiado, actualizado y mejorado por expertos en el tema. [2]
La evaluación realizada por US. News goza - pese a las criticas de las Universidades -
de un acierto y prestigio aceptado por la inmensa mayoría de los estadounidenses y de
los Organismos Gubernamentales que entienden en el tema.
Francisco Alba Juez
A modo de ejemplo se presentará a continuación algunos de estos sistemas
implementados en distintas instituciones de enseñanza superior de diversos países.
2.1. ESTADOS UNIDOS2.1.1. ACREDITATION BOARD FOR ENGINEERING AND TECHNOLOGY
(ABET)
ABET es reconocida en los Estados Unidos como la única agencia responsable para la
acreditación de programas de grado en ingeniería. La Primera Declaración del Consejo
de Ingenieros para el Desarrollo Profesional (ECPD, ahora ABET) sobre la
Acreditación de los Programas de Enseñanza de Ingeniería fue propuesta por la
Comisión de Facultades de Ingeniería y aprobada por el Consejo de Ingenieros en 1933.
La Declaración original, con enmiendas subsiguientes, fue la base para la Acreditación
hasta el año 2000. La nueva Declaración que se presenta a continuación es para los
programas del año 2001.
Los Programas de Enseñanza de Ingeniería pueden ser acreditados a nivel básico o
avanzado, sin embargo, un programa puede acreditarse a un solo nivel en una
institución en particular. Para ser considerados para acreditación, los Programas de
Ingeniería deben preparar graduados para la práctica de ingeniería a nivel profesional.
ABET ha fijado una seríe de críteríos mediante los cuales efectúa la acreditación de las
Universidades. La acreditación en función de estos criterios asegura que:
• Los graduados de un Programa Acreditado están preparados adecuadamente para
comenzar y proseguir con la práctica de la ingeniería.
• Se estimula el mejoramiento de la enseñanza de la ingeniería.
• Fomenta nuevos e innovadores métodos de educación en ingeniería.
• Identifica a estos programas con las necesidades de la sociedad.
Para obtener la acreditación la Institución debe demostrar que:
• Se realiza evaluación, supervisión y tutorización de los estudiantes para asegurar
su éxito en la consecución de los objetivos del Programa.
• Tiene publicado los objetivos acordes con la misión de ella misma y sus criterios.
• Existe un proceso basado en las necesidades de un programa en el que están
fijados los objetivos, los cuales a su vez, son evaluados periódicamente.
• Posee un sistema de evaluación permanente que demuestre el logro de estos
objetivos y use los resultados para mejorar la eficacia del programa.
Los programas de ingeniería deben demostrar que los graduados tienen:
• Capacidad para aplicar conocimientos de matemáticas, ciencia y tecnología.
Francisco Alba Juez
Capacidad para el diseño y realización de experimentos e interpretación de
resultados.
Capacidad para diseñar sistemas, componentes o procesos para una necesidad
expresa.
Capacidad para integrarse en equipos de trabajo multidisciplinarios.
Capacidad para identificar, formular y resolver problemas de ingeniería.
Entendimiento de la ética y responsabilidad profesional.
Capacidad para comunicarse correctamente.
Amplia educación para entender el impacto de las soluciones de ingeniería en el
contexto global de la sociedad.
Conocimiento de la necesidad de la continua adquisición de conocimientos.
• Conocimiento de la actualidad.
• Capacidad para la utilización de técnicas y herramientas de la ingeniería
moderna.
Cada programa debe tener un proceso de evaluación con resultados documentados.
Debe comprobarse que los resultados son aplicados al desarrollo y mejoramiento
posterior del programa. El proceso de evaluación debe demostrar que se miden los
resultados importantes para la misión de la institución y los objetivos del programa,
incluyendo los que ya se han enumerado.
La institución debe demostrar, además, que posee los recursos humanos, materiales y
financieros necesarios para el desarrollo de los programas.
A los fines de ajustarse a estos criterios y consecuentemente obtener la acreditación, las
distintas universidades han implementado diversas metodológicas de autoevaluación
que, en general, consisten en evaluaciones de las clases de cada asignatura por parte del
jefe del departamento o algún profesor que él designe. El evaluador presencia la clase y
debe calificar determinados ítems previamente establecidos con algunos de los valores
fijados en alguna escala determinada. Posteriormente, deben contestar una encuesta que
contiene, en general, cuatro secciones. La primera es acerca del estudiante mismo,
donde éste debe contestar una serie de preguntas por si o por no para finalmente,
realizar algunos comentarios acerca de su participación en el curso durante el semestre y
su preparación previa.
La segunda sección trata específicamente sobre el curso, y en ella, el alumno debe
descubrir los aspectos específicos del curso, evaluándolos usando una escala de 1
(bajo/pobre) a 5 (alto/sobresaliente), utilizándose el O (cero) cuando el alumno no sabe y
no responde.
La tercera sección es referente al profesor. En ella el alumno debe evaluar al profesor
contestando una serie de preguntas. Finalmente, la cuarta sección esta dedicada a todos
los comentarios adicionales que el alumno desee expresar y que pudieran no haber sido
cubiertos adecuadamente por las preguntas de las secciones anteriores.
Posteriormente, todas estas encuestas realizadas a los alumnos, son analizadas y
comparadas con las evaluaciones realizadas por el jefe del departamento. De este
análisis surge la evaluación final del curso y del profesor.
Francisco Alba Juez
A continuación se analizan en forma conjunta todas las evaluaciones finales de los
distintos cursos y profesores de una misma carrera, de donde surge la evaluación de la
carrera en cuestión. [1]
2.1.2. US NEWS
US. NEWS es una revista que se ha convertido en el medio de consulta insoslayable
para los norteamericanos a la hora de elegir la universidad donde realizarán sus estudios
superiores.
Esta revista efectúa todos los años la calificación de todas las universidades
norteamericanas. Dicha calificación ha provocado calurosos debates, y si bien los
responsables de esta revista tienen en claro que nunca habrá unanimidad sobre la mejor
forma de evaluar los colleges y las universidades, el método utilizado para realizar dicha
evaluación esta basado en años de experiencia trabajando e informando sobre la
educación superior, consultando y contratando expertos de ese campo para diseñar y
mejorar el modelo de factores e indicadores utilizado para la misma.
El método que US. News usa para calificar colleges y universidades consta de tres pasos
básicos: Primero, los colleges son categorizados por su objetivo y región. Segundo, de
cada institución se recogen datos de hasta 16 factores de excelencia académica, cada
factor esta constituido por items a los cuales se les asigna un indicador. A cada factor se
le asigna una ponderación en la formula de calificación, que refleja, a juicio de los
expertos de US. News sobre que medidas de calidad tienen más importancia.
Tercero, los colleges en cada categoria están calificados entre sus pares según una
valoración compuesta, y si bien la mayor parte de los datos, que son la base de las
calificaciones, proviene de los propios colleges y universidades, US News se toma un
gran trabajo en verificar su precisión, controlándolos con otras fuentes. Las estadísticas
sobre los horarios de los profesores, por ejemplo, se comparan con la información
reunida por la Asociación Americana de profesores Universitarios (AAUP).
En el año 1998, el 92% de los colleges devolvieron los cuestionarios completos
solicitados por US. News. La información sobre los colleges que decidieron no
contestar la encuesta fije recogida de otras fuentes, tales como: el Departamento
Nacional de Educación, el Consejo de Ayuda a la Educación, la National Collegiate
Athletic Association, la AAUP, la Editorial Wintergreen/Orchard House Inc.. También
se han realizado estimaciones estadísticas cuando ha sido necesario hacerlo.
Los indicadores que la US. News utiliza para captar diversas dimensiones de calidad se
dividen en siete grandes categorías: reputación académica; retención de los estudiantes;
recursos humanos (profesores); selectividad de los alumnos; recursos financieros; aporte
de los egresados y tasa de graduación (diferencia de la proporciónde estudiantes con la
probabilidad de graduarse y la cantidad que efectivamente lo hace).
Los indicadores incluyen "medidas de entrada", que reflejan la calidad de los alumnos,
profesores y otros recursos usados en educación, y "medidas de salida" que indican
cuan bien educa la institución al alumno.
Francisco Alba Juez
Con respecto a la reputación académica, se determina investigando a los presidentes,
directivos y decanos de admisión en los colleges y universidades de la misma categoría.
Los programas académicos de las instituciones son evaluados por pares de otras
instituciones y calificados con una escala de 1 a 5, que es el mismo procedimiento que
utiliza el Consejo Nacional de Investigaciones para evaluar los programas doctorales.
El evaluador que no conoce suficientemente una institución debe calificar con las
palabras "no sé".
La formula de evaluación y calificación de US News da un considerable peso (25%) al
ítem reputación académica, ya que un diploma de un college famoso ayuda al
estudiante a obtener buenos trabajos o a ser admitido en programas de postgrado de
primera línea.
En cuanto a la retención, esta medida tiene dos componentes: una tasa de graduación en
un término de 6 años (80% del valor de retención) y la tasa de retención de alumnos de
Primer Año (20%).
En lo que hace a recursos de profesores, el compromiso de una universidad a una
instrucción de primer nivel y a la interacción de los alumnos con los profesores, se
analiza examinando 5 factores durante el año académico en cuestión:
• El tamaño de las clases (40% de la calificación)
• El salario de los profesores (35% de la calificación)
Se toma el salario promedio más beneficios, en general, durante dos años académicos,
ajustado a las diferencias regionales en el costo de vida.
• La cantidad de profesores con el grado más alto en su
especialidad (15%) de la calificación)
• La relación profesor - alumno (5% de la calificación)
• Cantidad de profesores fijll - time (10%) de la calificación)
Respecto de los recursos financieros, están medidos por el gasto promedio por
estudiante por instrucción, investigación, servicios y gastos relacionados a la educación
(incluyendo biblioteca) durante los años fiscales en cuestión.
Otro indicador desarrollado por la US News es la tasa de graduación, que ha sido
diseñado para captar el efecto de los programas y de las políticas del college para la tasa
de graduación, después de controlar el gasto y la aptitud de los estudiantes. Se obtiene
una calificación midiendo la diferencia entre la tasa de graduación de 6 años para la
clase que ingresó, por ejemplo, en 1991 y la tasa pronosticada para dicha clase. Esta tasa
pronosticada se calcula usando una formula que responde por las calificaciones
estandarizadas de las pruebas de estos estudiantes como alumnos de primer año y los
gastos del college durante los años que dichos alumnos tardan en graduarse. Si la tasa
de graduación es mayor que la pronosticada, el college esta aumentado el rendimiento
de los alumnos.
Francisco Alba Juez
Finalmente aparece la tasa de aporte de los alumnos: El porcentaje de los alumnos que
aportaron al college en los años académicos en cuestión, es una muestra de satisfacción
de los alumnos. Para obtenerla, primero se calcula un valor para cada indicador. Al
college con el valor más alto para cada medida, se le asignó un grado del 100% y cada
uno de los otros grados se calcula como un porcentaje del valor más alto. Los valores
resultantes fueron ponderados y luego totalizados para detenninar los valores para cada
categoría de indicadores - reputación, retención, profesores, etc. Estos valores se
ponderan y totalizan para obtener un valor final. Los valores finales para cada college
calificado fijeron redondeados, reconociendo que las pequeñas diferencias estadísticas
entre las instituciones, no pueden influir demasiado en la diferenciación de un college
de otro. [2]
2.2. JAPÓN
En Japón el Gobierno establece diversos estándares que son los requeridos para la
creación y diario manejo de las instituciones de educación superior, al mismo tiempo
que son tomados como referencia para la evaluación de las mismas.
Estos estándares son establecidos por la "Asociación de Acreditación Universitaria
Japonesa", que a su vez, tiene la misión de evaluar las instituciones de enseñanza
superior. Muchos de los estándares creados por la "Asociación" han sido adoptados por
el Ministerio de Educación como reglamentaciones, y la mitad de los miembros de la
Subcomisión Estatutaria Universitaria del Consejo Estatutario Universitario, son
designados entre las personas recomendadas por la "Asociación".
La Asociación de Acreditación de Universidades de Japón ha establecido un listado de
ítems a ser evaluados que están incluidos en VII Capítulos. Estos Capítulos con sus
correspondientes ítems son los siguientes:
/. El rol de la universidad en la sociedad: lo que debe ser una universidad.
II. Organización y estructura de la universidad.
a) Organización de la universidad
b) Junta ejecutiva y junta de directores
c) Presidente
d) Claustros de facultades
e) Organización administrativa
f) Organización de los estudiantes
III. Contratación, promoción y despido de personal docente
a) Contratación y despido de personal docente exclusivo (tiempo completo)
b) Promoción de docentes exclusivos
IV. Actividades educativas
a) Incorporación y selección de nuevos estudiantes
b) Planes de estudio
c) Carga docente
Francisco Alba Juez
d) Clases
e) Personal docente de tiempo parcial
f) Transferencia de créditos
g) Extensión universitaria
h) Estudios posteriores
V. Actividades de investigación
a) Fondos
b) Intercambio de investigaciones
c) Distribución de la información académica
d) Participación de las sociedades académicas
e) Publicaciones
VI. Instalaciones y equipamiento
a) Condición actual de instalaciones y equipamiento
b) Efectividad de las instalaciones y equipamiento
c) Manejo de las instalaciones y equipamiento
d) Mejoramiento de las instalaciones y equipamiento
e) Transporte
f) Relación con la comunidad
VII. Finanzas
a) Presupuesto
b) Desembolso
c) Balance de ingresos y egresos
d) Relación entre componentes de ítems de ingresos e ítems de egresos
e) Planificación financiera a largo plazo
f) Salarios
g) Beneficios
h) Matricida y aranceles
Cada uno de estos ítems es evaluado a través de las respuestas a las preguntas que se
han establecido para cada uno de ellos. Así, en el Capítulo I (que no tiene ningún ítem)
se deben responder cinco preguntas.
En el Capítulo II se deben responder cuatro preguntas para el ítem a), cuatro preguntas
para el ítem b), dos preguntas para el ítem c), tres preguntas para el ítem d), dos
preguntas para el ítem e) y cuatro preguntas para el ítem f).
En el Capítulo III se deben contestar siete preguntas para el ítem a) y dos preguntas para
el ítem b).
En el Capítulo IV se deben contestar cinco preguntas para el ítem a), ocho para el ítem
b), tres para el ítem c), dos para el ítem d), una para el ítem e), una para el ítem f), una
para el ítem g) y una para el h).
En el Capítulo V se deben contestar dos preguntas para el ítem a), cuatro para el ítem b),
dos para el ítem c), una para el d), dos para el e), y una para el f).
Francisco Alba Juez
En el Capítulo VI se deben contestar una pregunta para el ítem a), una para el ítem b),
una para el c), una para el d), una para el e) y una para el f).
En el Capítulo VII se deben contestar una pregunta para el ítem a), una para el b), una
para el c), una para el d), una para el e), una para el f), una para el g) y dos para el h).
En total se deben contestar 84 preguntas, lo cual pone a disposición de la Asociación de
Acreditación de Universidades Japonesas 84 indicadores, a cada uno de los cuales se le
asigna un valor en una escala de 1 a 5, y mediante los cuales la "Asociación" realiza la
evaluación y posterior acreditaciónde las Universidades. [4], [5], [6]
2.3. HOLANDA
2.3.1. FACULTY OF SYSTEMS ENGINEERING POLICY ANALYSIS AND
MANAGEMENT DELFT UNIVERSITY OF TECHNOLOGY (SEPA)
En esta Facultad se está desarrollando un Sistema de Control Automatizado. Las
características principales de este sistema de control de la calidad incluyen un enfoque
hacia la estructura modular de los cursos del programa de estudios, basándose en los
niveles de logros finales, en una extensiva automatización de la evaluación, en la
entrada de datos por parte de los alumnos y retroalimentación a los mismos, como una
característica permanente en los diversos niveles (individual, grupo por año y niveles de
evaluación de cursos) y en la comunicación con graduados. Este sistema integrado se
denomina INTRAVIEW y consta de una cantidad de protocolos que incorporan tres
tipos de evaluación:
• Evaluación de módulos
Se esta desarrollando una evaluación de entrada para la evaluación de los
resultados finales, del contenido de los cursos, de los métodos de enseñanza y de la
relevancia del procedimiento de examen para cada módulo.
La idea subyacente es que un grupo de profesores considere con anticipación si los
logros finales, los materiales didácticos, los métodos seleccionados y los
procedimientos de examen son compatibles y relevantes a todo el programa de
estudio. Como punto inicial de este proceso los profesores involucrados prepararon
un documento, en el cual se describieron los niveles de logros finales para el
programa SEPA. Este documento sirvió como base para los planes modulares que
desde entonces han sido traducidos a módulos listos para su implementación.
• Evaluación de Cursos y Asesoraniienío de Estudiantes
Se han realizado ensayos de los sistemas de evaluación de los cursos
automatizados en los últimos años. El resultado es un sistema completamente
nuevo que se ha introducido en el curso del último año académico. Este sistema
es adecuado para distintas formas de evaluación y los estudiantes pueden
acceder a él por Internet.
Este aspecto del control de calidad de la enseñanza en SEPA puede ser dividido
en cuatro fases:
- Detección
Francisco Alba Juez
- Diagnostico de problemas
Enfrentando problemas
- Informe/documentación
Estas mismas cuatro fases pueden distinguirse en el área de asesoramiento de alumnos,
y ocurren a nivel de cada estudiante y a nivel más general cuando varios alumnos
expresan el mismo problema individual.
Veamos cada una de ellas con un poco más de detenimiento:
• Fase de detección: realizada por alumnos y profesores.
Los alumnos se encuentran en una buena posición para proveer información precisa
sobre lo que está bien en el curso y lo que no. El sistema de detección, consiste por lo
tanto, en encuestas automatizadas, que son completadas por los alumnos.
Estas encuestas pueden ser completadas en la red de la facultad o en Internet. Contienen
puntos sobre los datos de los alumnos, hábitos de estudio, cualidades didácticas del
personal, aspectos del contenido del curso, el examen y la ubicación del curso en el
programa de estudios. Estos puntos son también importantes para la visión de la
facultad con respecto a la enseñanza y los hábitos de estudio.
Todos los años, cada curso tiene su propio grupo de respuesta y hay grupos mentores en
la primera mitad del año propedeútico. Una o dos veces en cada período lectivo, estos
grupos evalúan todos los cursos en presencia del asesor educacional o consejero del
delegado de educación en la asociación de estudiantes. A los participantes de los grupos
de respuesta se les da instrucción previa sobre la forma en que deben realizar las
observaciones durante las clases. Hay suficiente interés entre los alumnos por participar
en estos grupos. Los miembros de los mismos, controlan activamente la enseñanza en el
curso. Se presentan a los profesores y a sus compañeros alumnos, y como tales, pueden
ser considerados como portavoces. Sus observaciones permiten tratar rápidamente los
problemas. Más aún, los resultados de las reuniones son comparados con los de las
encuestas de evaluación del curso. Las reuniones también se organizan regularmente
entre los grupos de respuesta y el personal académico para tratar cualquier problema en
sus comienzos.
Si se observan problemas en la fase de detección, se organiza una reunión entre el
asesor educacional de SEPA, los profesores y el miembro del personal de SEPA, que es
la contrapartida del curso bajo revisión. Tales reuniones se realizan por lo menos una
vez al año y más frecuentemente, si es necesario. La información detectada por los
alumnos, la provista por el consejero, las descripciones detalladas de los cursos en el
prospecto y los informes de los grupos de respuesta a las cátedras, forman el punto de
partida de este proceso de revisión.
El propósito de esta discusión es ponerse de acuerdo sobre la consolidación de las
mejoras.
Fase de diagnóstico:
Es posible que la información de la fase de detección pueda dar origen a una mayor
investigación sobre las causas de los problemas.
Francisco Alba Juez
En tales casos, el asesor organiza: entrevistas con alumnos, encuestas más extensas o
mediciones de tiempo para evaluar la carga de trabajo, charlas de retroalimentación con
profesores, observaciones durante las clases teóricas o prácticas.
El objetivo de estas actividades es llegar a un diagnóstico correcto del problema.
Enfrentando la fase de problemas:
Es la responsabilidad del asesor educacional mantener el proceso de control de calidad y
apoyar a los profesores cuando deben efectuarse acciones para mejorar la calidad de la
enseñanza. El trabajo del consejero consiste, entre otras cosas, en mejorar la situación
de los estudiantes individualmente.
También es la responsabilidad del asesor y del consejero traducir todos los resultados de
los análisis en acciones, recomendaciones y conclusiones y tratar estas medidas con los
diversos comités involucrados.
Los asuntos pertenecientes a alumnos en particular, son analizados por el consejero y si
es necesario, discutidos directamente con el / o los profesores en cuestión, o enviados al
asesor educacional.
Los asuntos pertenecientes a profesores en particular, son evaluados por el asesor
educacional en una entrevista privada con la persona involucrada, o en situaciones que
involucran cuestiones más generales, son tratados con todos los profesores en reuniones
organizadas por la facultad.
Los asuntos referidos a una materia en particular, son tratados directamente con el
profesor de la cátedra o el coordinador de la misma, generalmente en presencia de un
miembro de SEPA, responsable del claustro en que se enseña la materia.
A nivel de programa, los asuntos son sometidos para discusión al comité de estudio, el
cuerpo que asesora a la junta de la facultad sobre tales puntos. El comité de enseñanza,
en el que el asesor ocupa el cargo de secretario, hace una importante contribución para
solucionar los problemas de enseñanza.
El proceso de toma de decisión para el sistema de control de calidad en la enseñanza,
que pasa por el comité de enseñanza, la junta de la facultad y por último el consejo de la
facultad, generalmente fijnciona satisfactoriamente para los estudiantes y profesores. En
la práctica, sin embargo, todavía es frecuente el caso en que deben tomarse medidas de
emergencia para mantener este proceso en su propósito original. La falta de tiempo y las
fechas vencidas son, por lo general, la causa de esto.
Toda la debida atención y tiempo se asignan a esta fase como parte de las
responsabilidades del asesor educacional. El lema de la etapa de enfrentar problemas es:
"Asegurarse que la responsabilidad permanece a donde pertenece. "
Informe y documentación:
El sistema de evaluación no se escapa a esta obligación. Los acuerdos realizados para
mejorar, son obligatorios y son registrados.
Los resultados de las evaluaciones y las mejoras necesarias se publican y se reenvíanregularmente a los interesados, tanto personal académico como alumnos, en un informe
semestral. Los informes presentan los resultados para cada curso.
También se encuentran disponibles los resultados desgranados para cada profesor, pero
estos son confidenciales.
A fin de darle a los resultados del sistema de control de calidad un carácter más formal,
se ha acordado con el jefe del departamento de personal y organización, que éstos serán
tratados en las reuniones periódicas de evaluación de personal.
10
Francisco Alba Juez
Evaluación de alumnos:
Esta evaluación, basada en las sugerencias y opiniones de los alumnos del SEPA, está
diseñada para mantener la importancia del programa de estudios de la facultad con
respecto a la demanda de los lugares de trabajo.
Su propósito es descubrir, de alumnos anteriores y de sus empleadores, si los graduados
de la facultad poseen suficientes conocimientos y capacidad para cumplir con sus tareas
profesionales satisfactoriamente. La evaluación también puede indicar con respecto a
qué aspectos del programa de estudios, si los hay, deberían recibir más o menos
atención. [7]
2.3.2. UNIVERSITY OF TWENTE - FACULTY OF TECHNOLOGY AND
MANAGEMENT
La Universidad de Twente es una universidad con dos núcleos: el de Ingenieria y el de
Ciencias Sociales. Las carreras son de cinco años y el titulo que se expide es el de
Ingeniero en Administración.
En esta Universidad se ha diseñado' un sistema de evaluación académica teniendo en
cuenta el sistema de certificación ISO 9000, y se ha elegido a la Facultad como punto de
vista central, describiéndose el sistema de calidad de la Universidad como un sistema de
apoyo al sistema de administración de calidad de las facultades.
El sistema de control de calidad está dirigido a la calidad de todo el plan de estudios y
de los cursos por separado. Participan muchas personas y comisiones. La más
importante es el Consejo de la Facultad, responsable de la calidad de la educación; la
Comisión de Educación (OLC), responsable del proceso de enseñanza y preparación; y
la Comisión de Evaluación (OKC).
El sistema adoptado en la facultad para la evaluación de la calidad, se describe en
fijnción de los factores que son críticos para el éxito. Estos derivan de la misión y
estrategia de la facultad, y son la respuesta a la pregunta: ¿en qué dominio debemos
tener un alto rendimiento de manera de ser excelentes y seguir siéndolo, o como
podemos aventajar a nuestros competidores?.
De la misión de la facultad se deducen los siguientes puntos esenciales para la
estrategia: Garantizar un alto nivel académico, una flierte imagen, dar énfasis a
ingeniería en el programa de estudios y tener una posición sólida dentro de la
universidad. Estos puntos principales se pueden describir en términos de factores
estratégicos críticos para el éxito.
Para ser exitosa, la facultad necesita:
• Crear y mantener una imagen que sea atrayente para los mejores estudiantes.
• Dar énfasis a ingeniería de manera que los Ingenieros en Administración cubran
similar competencia que los Ingenieros Civiles, mecánicos o de Procesos.
• Enlazar la Ingeniería con la Administración.
• Crear y mantener un nivel académico superior.
11
Francisco Alba Juez
• Orientación Internacional para mantener una posición, como facultad, clave en la
Universidad, a fin de atraer suficiente presupuesto que permita designar
investigadores de alto nivel.
Además de estos factores estratégicos para la organización en general, se distinguen
factores funcionales críticos de éxito para cada parte funcional de la organización. En
una forma un tanto arbitraría, se ha elegido la siguiente división:
• Administración educativa
• Administración de recursos humanos
• Administración financiera
También se han distinguido factores operacionales críticos para el éxito, como la
eficacia y la eficiencia, o como se dice desde el gobierno: calidad y practicabilidad.
La calidad se refiere a si la Universidad forma los ingenieros que la sociedad desea
tener. La practicabilidad o eficiencia se refiere a si la universidad contribuye a obtener
los resultados deseados. Se puede decir que en cuanto a los conceptos calidad y
practicabilidad, la diferencia corresponde a calidad de producto y calidad de proceso.
Estos factores críticos para el éxito son descripciones cualitativas, por tanto, a la hora de
evaluar si se está cumpliendo con los niveles establecidos, es necesario traducir estos
factores cualitativos en datos cuantitativos. Esto se realiza tratando de encontrar
indicadores de rendimiento para cada factor crítico. Una vez logrado esto, se
establecen cifras para cada indicador de rendimiento. Esta cifra puede estar influenciada
por el presupuesto, pero a su vez, ella puede influenciar al presupuesto.
La facultad de tecnología y administración tiene un sistema de evaluación sistemática
para los cursos, con indicadores de rendimiento funcional bien definido.
Aunque en esta facultad se presta mucha atención a todo lo concerniente a la calidad,
esta atención es algo dispersa, y no se han desarrollado procedimientos estrictos para
medir los indicadores de calidad. Hay, sin embargo, una Junta Asesora Industrial que es
asesora de la Facultad y que se reúne dos veces por año con miembros de la facultad
para ajustar el Programa de Educación a las necesidades sociales y a los nuevos
desarrollos tecnológicos. Además, se han realizado encuestas entre los ingenieros cada
cinco años, en preparación para el procedimiento de evaluación externa. En los Países
Bajos existe un procedimiento de evaluación externa, en el cual todas las Universidades
cooperan.
Para el caso de la Facultad de Tecnología y Administración, esta evaluación está siendo
implementada por la Fundación Europea para Desarrollo de Administración (EFMD).
Un grupo auditor, formado por pares, visita todas las facultades en una rama de estudio
cada cinco años. Este grupo evalúa si el sistema de control de las facultades está
funcionando en una forma satisfactoria. Examina una cantidad de aspectos diferentes,
pero los principales son la calidad y la practicabilidad. La Facultad juega un rol
principal en cuidar el seguimiento sistemático de las recomendaciones de la Comisión
Evaluadora. La Universidad también inspecciona la calidad y la practicabilidad en
12
Francisco Alba Juez
forma centralizada, y a tal efecto ha desarrollado un sistema centralizado para registrar
el tiempo de estudio y de producción que tienen todas las facultades.
En un intento para mejorar su propio sistema de calidad, la Facultad está observando
otros sistemas como TQM o el ISO - 9000 para ver si es posible tomar de ellos algunos
elementos. El TQM esta enfocado en el mejoramiento de los procesos de negocios,
mientras que el ISO - 9000 se concentra en la aplicación consistente de los procesos.
Por tanto, en función de lo que ISO - 9000 requiere, se ha diseñado y adoptado:
• Un conjunto de procedimientos adoptados para cada actividad de negocios
• Prueba o verificación de que los procedimientos se siguen correctamente y
producen los resultados pretendidos.
• Auditorias periódicas de la calidad del proceso, realizadas a los procedimientos.
• Un proceso de acción correctiva, cuando los procedimientos no se siguen o no
producen los resultados deseados.
El sistema de certificación ISO, se desarrolla para establecer una calidad estándar de los
productos construidos. Esto trae a discusión el tema de cual es realmente el "producto"
de la educación. Se han escrito libros enteros sobre este tema y si bien se podrían
considerar a los programas o cursos como el producto, en realidad es el Ingeniero
diplomado el producto final deseado.
Cuando el producto es el Ingeniero diplomado, el estudiante principiante es, en cierto
sentido, la "materia prima". En la Universidad de Twente se ha tratado de traducir los
requerimientos de la ISO 9000 a la Facultad de Tecnología y Administración.Si bien en
el intento de construir una comparación consistente, basada en el Ingeniero Diplomado,
como el producto principal de dicha Facultad, se han especificado una considerable
cantidad de requerimientos, solo se presentarán aquí algunas observaciones importantes,
ante la imposibilidad de discutir cada requerimiento de éstos extensamente.
Toda persona nueva que cumple con los requisitos debe ser admitida. La selección
previa esta prohibida. La información para las personas nuevas esta dirigida a un
proceso de auto - selección. Está demostrado que los estudiantes de ingeniería necesitan
un cierto nivel en matemáticas y física (7 o más de 7 como cifra promedio en el examen
final antes de ingresar) para aprovechar realmente los estudios de ingeniería. Además,
los estudiantes tienen más éxito en algunos cursos de administración cuando han
elegido economía como una de sus materias de examen. La disciplina, el esfijerzo y una
actitud y motivación adecuadas hacia el estudio son tan indispensables como el factor
inteligencia. La selección debe realizarse en el primer año de estudio. Como la Facultad
no puede elegir que estudiantes pueden ingresar al programa de estudios, se organizan
reuniones informativas para los ingresantes. Hay un procedimiento estándar para la
organización de estas reuniones y el consejero de los estudiantes es la única persona que
brinda esta información.
Con respecto al control del proceso, la Facultad ha desarrollado su sistema de control
de calidad a fin de monitorear la calidad de los cursos, la capacidad de los docentes y la
13
Francisco Alba Juez
propiedad de los materiales didácticos y de los exámenes. La tarea evaluativa de calidad
es realizada por un Comité (OKC) formado por: estudiantes, el coordinador del
programa y el asesor de educación. Los docentes y los departamentos de la Facultad son
informados sobre los resultados de las evaluaciones efectuándoseles los requerimientos
pertinentes. También el coordinador del programa examina partes importantes del
mismo en lo que hace a la consistencia y coherencia de la asignatura en cuestión, y el
asesor de educación lo hace con respecto a los métodos didácticos y educativos.
A un micronivel, la Facultad monitorea el progreso de los estudiantes mediante un
sistema de notas computarizado (PEFASIT), el cual le permite a la junta de educación
(BOZ) informar a los estudiantes sobre su progreso.
Respecto del control de producto, los productos en desarrollo - estudiantes - son
evaluados constantemente mediante exámenes y tareas asignadas en prácticas y
proyectos.
El año propedeútico funciona para seleccionar aquellos estudiantes que no pueden
terminar sus estudios a tiempo. La selección de los estudiantes se hace examinándolos
en tres áreas diferentes: matemáticas, tecnología y administración. En los tres dominios
los estudiantes deben alcanzar un nivel determinado. Sin embargo, los estudiantes no
son rechazados cuando no cumplen los requisitos. A fin de año todos reciben un aviso
escrito de la Facultad relacionado con su progreso en los estudios. El aviso contiene
principalmente tres formatos:
a) Continúe con sus estudios en la misma forma y terminará a tiempo
b) Acelere su ritmo de estudio, de lo contrario no terminará
c) Considere seriamente abandonar sus estudios, porque sus logros se encuentran por
debajo del nivel requerido
La Facultad tomará acciones correctivas como resultado de las distintas evaluaciones de
calidad:
a) A nivel de curriculum, como reacción a los datos resultantes del mercado laboral.
b) A nivel de curriculum y de curso, haciendo el programa práctico para el estudio. Se
eliminan los obstáculos en la organización del programa que impiden un desarrollo
limpio del curso. Se realizan los cursos en los que fallan muchos buenos estudiantes,
y también se reemplazan profesores si no tienen un buen desempeño y no pueden
corregir sus errores.
c) A nivel de estudiantes, llamándolos a reunión con su consejero si no alcanzan el
nivel establecido. El consejero trata de descubrir por qué el estudiante no ha llegado
a dicho nivel y trata de desarrollar con él un nuevo método de estudio. Si es
necesario, el consejero aconseja al estudiante cambiar de estudios.
La Comisión Evaluadora (OKC) informa cada trimestre a los profesores involucrados y
a la Comisión de Educación sobre la calidad, aproximadamente, de cinco cursos del
programa. Además el OKC evalúa anualmente la mayor parte del programa de estudios,
por ejemplo: el grupo de las materias técnicas o el programa internacional Erasmus. En
14
Francisco Alba Juez
unos cuatro años todos los cursos del programa habrán sido evaluados y se habrán
implementado las acciones correctivas.
Cada cinco años, una Comisión auditora de calidad externa, comisionada por la Junta de
Inspección del Ministerio de Educación, visita la Facultad. A tal fin, ésta debe producir
un auto-informe, en el cual, los objetivos educacionales logrados son presentados en
detalle y sobre los cuales, la Facultad debe reflexionar críticamente.
Como consecuencia de la aplicación de este sistema, la Facultad de Tecnología y
Administración de la Universidad de Twente ha realizado algunas reflexiones y llegado
a las siguientes conclusiones: La conclusión más importante es que la facultad esta
fiiertemente dirigida a la calidad del proceso y no simplemente a la calidad del
producto.
La mayoría de las Universidades están enfocadas a mantener un cierto nivel académico,
pero es bastante difícil, en términos académicos, "garantizar" que el "producto" es
adecuado al mercado laboral.
Sumida entre la ignorancia relativa con respecto a la calidad del producto y a la
imposibilidad de seleccionar a los nuevos estudiantes, la facultad dedica mucha atención
y esfuerzo al control del proceso de instrucción.
La conclusión final es que los requerimientos ISO forman un instrumento útil para
reflexionar sobre el sistema de administración de calidad de la Facultad, pero el énfasis
en el mantenimiento de los procesos correctos no es totalmente adecuado para el
verdadero propósito: el continuo mejoramiento del programa educativo. [8], [9], [10]
2.4. DINAMARCA
2.4.1. CENTER FOR QUALITY ASSURANCE AND EVALUATION ON
HIGHER EDUCATION - COPENHAGEN
El Centro para la Seguridad de Calidad y Evaluación de la Educación Superior fije
establecido en 1992 con el objetivo principal del desarrollo de la calidad en la educación
superior en Dinamarca. Desde ese momento 27 programas educacionales han sido
sometidos a evaluación, entre ellos, los programas de Ingeniería de Construcción,
Ingeniería de Exportación, Ingeniería Mecánica, Ingeniería de Producción y
Arquitectura Naval.
A continuación se presenta el modelo de evaluación del Centro a la luz de la evaluación
especifica de los programas de Ingeniería Mecánica, Ingeniería de Producción y
Arquitectura Naval (Programas MPS).
El enfoque principal serán los aspectos metodológicos de importancia para la
interacción entre el Centro y las Instituciones con respecto a asegurar el desarrollo de
calidad de los programas.
El proceso de evaluación tiene tres fases: Iniciar y planificar la evaluación, reunir
documentación e informar.
15
Francisco Alba Juez
FASE I: INICIAR Y PLANIFICAR LA EVALUACIÓN
El Centro evalúa programas por disciplinas. Los programas de Ingeniería Mecánica,
Ingeniería de Producción y Arquitectura Naval fueron evaluados simultáneamente.
El Centro realiza evaluaciones exclusivamente a pedido de un "iniciador". En este caso,
la Junta Nacional Asesora de Tecnología, coopera con el Centro para establecer los
términos de referencia y designar una Comisión Directiva. Durante el proceso de
evaluación, el contacto entre el iniciador y el Centro, se reduce al mínimo a fin de
asegurar la imparcialidad necesaria de la evaluación.
La Comisión Directiva da el conocimiento intelectual en el área de la disciplina, evalúa
las ventajas y desventajas de losprogramas y efectúa las recomendaciones para el
mejoramiento de la calidad en el informe final.
Cuando se designan los miembros de esta Comisión, se da mucha importancia a la
relación profesional de cada uno de ellos con el campo sujeto a evaluación, aunque su
empleo principal debe encontrarse fiíera de las instituciones de enseñanza superior bajo
evaluación. Del mismo modo, se le da gran importancia a la reputación profesional y a
la credibilidad de cada uno de sus miembros.
FASEII: REUNIENDO DOCUMENTACIÓN
Una documentación sólida asegura antecedentes validos para que la Comisión
Directiva saque sus conclusiones y base sus recomendaciones. La documentación
incluye una auto evaluación, investigaciones del usuario y visitas a las instituciones
involucradas.
Cada institución de estudios superiores prepara una autoevaluación sobre la base de la
guía para autoevaluación del Centro. Los grupos de autoevaluación se establecen a
pedido del Centro.
Se realizan encuestas a los usuarios, cuyo propósito es el de obtener de ellos
retroalimentación sobre la calidad de los programas. Tales encuestas investigan sobre la
calidad del programa, sus puntos fuertes y débiles en general, como también en puntos
limitados, dependiendo del grupo de usuarios encuestados. Estas encuestas siempre
involucran a algunos de los siguientes grupos: estudiantes, graduados y empleadores.
La evaluación de los programas de Ingeniería Mecánica, Ingeniería de producción y
Arquitectura Naval incluyen encuestas a graduados de dos años y a diez empresas
empleadoras. Estas son elegidas por su alto nivel profesional y tecnológico.
Las visitas a las instituciones bajo evaluación constituyen la parte central de todas las
evaluaciones realizadas por el Centro. Estas visitas se realizan a la finalización de las
autoevaluaciones y de las encuestas a los usuarios. La Comisión Directiva puede invitar
expertos con un enfoque especial y con un enfoque especifico, por ejemplo: en el campo
de la educación, los problemas pedagógicos, los aspectos organizativos o la economía.
Durante estas visitas, se concertan distintas reuniones con estudiantes, docentes y
directivos. La experiencia dice que las reuniones con los estudiantes, docentes y
directivos proveen una oportunidad excelente para comunicar y tratar una serie de
16
Francisco Alba Juez
condiciones altamente relevantes sobre la calidad del programa que no siempre están
presentes en los informes de autoevaluación.
FASE IIÍ: INFORMES
Se prepara un informe preliminar en base a la documentación. El informe presenta
varios análisis de ésta, e incluye recomendaciones generales, así como sugerencias de
cambios concretos. El informe se trasmite a los grupos de autoevaluación para la
corrección de errores técnicos y de cosas mal o no suficientemente bien hechas. Luego
se realiza una conferencia, que al ser anterior a la publicación del informe, ofrece a los
representantes de las instituciones de altos estudios una excelente oportunidad para la
discusión abierta con la Comisión Directiva. La experiencia ha demostrado que la
conferencia es una ocasión para que la Comisión especifique, y algunas veces,
reconsidere sus observaciones.
Luego de la Conferencia se escribe el informe fmal y se trasmite al iniciador de la
transmisión. Este tiene la obligación de iniciar un seguimiento sobre las
recomendaciones generales, mientras que las instituciones de altos estudios juegan una
parte esencial al hacer un seguimiento de las recomendaciones especificas.
Basándose en la experiencia y en retroalimentaciones anteriores, el Centro ha definido
los siguientes criterios para un buen proceso de evaluación:
• Contacto y diálogo fluido entre el Centro y los programas de estudio bajo
evaluación
• Una relación equilibrada entre el desarrollo de la calidad y el control
• Una documentación sólida
• Punto de partida orientado hacia el proceso, sin ningún indicador de calidad
previamente definido
• El proceso de evaluación provee a los programas de estudio de herramientas
relevantes para la seguridad de calidad
• Los programas, a fin de cumplir con los requerimientos de la autoevaluación, han
tenido que establecer procedimientos para reunir información estadística relevante
• Las discusiones tradicionales internas y cerradas sobre calidad han sido
suplementadas con análisis externos. [12]
2.4.2. ENGINEERING COLLEGE OF ODENSE
El Sistema de Evaluación de cursos en la Facultad de Ingeniería de Odense -
Dinamarca, está sustentado en que las partes involucradas participen en un diálogo
activo durante todo el curso y que cualquier desviación del programa pueda ser vista
como consistente con los objetivos globales del mismo. Los conceptos básicos son:
diálogo y consecuencia.
17
Franasco Alba Juez
La evaluación, en su periodo inicial, tiene los siguientes componentes, los cuales, en
conjunto forman una imagen cualitativa del curso en su integridad:
1- La calidad académica del curso, incluyendo
a) Nivel académico del contenido del curso
b) Calificaciones de los estudiantes necesarias para el curso
c) Cobertura del curso
d) Contenido del curso en relación a las metas globales del programa de educación
e) Contenido del curso en relación a otras materias
2- La calidad de la docencia incluyendo:
a) La presentación del material
b) Libros de texto y otros materiales didácticos
c) Metodología
3- La calidad del medio de estudio incluyendo:
a) Participación del estudiante
b) Nivel de actividad de los estudiantes
En la práctica, la evaluación del curso comprende una discusión sobre el mismo y una
evaluación final. Los resultados de la evaluación se pasan al Consejo de Estudios para el
seguimiento y acción correctiva en caso de ser necesarios en el momento requerido.
La discusión del curso se lleva a cabo después de transcurrido un tercio del mismo. Los
estudiantes y los docentes se preparan con anticipación para el debate que se realiza
durante el tiempo programado de enseñanza, y dura unos cuarenta y cinco minutos. Se
debate sobre el curso hasta la fecha, tomando los componentes de calidad antes
mencionados como punto de partida. Al final de la discusión, se realizan las
conclusiones, y posteriormente, se labran actas que incluyen a aquellas y además, a las
decisiones adoptadas. El debate se limita estrictamente a los estudiantes y docentes.
La evaluación formal basada en encuestas, se realiza poco antes de finalizar el curso.
Las encuestas se llenan en casa y se entregan durante la clase antes de la sesión de
evaluación. A los estudiantes se les otorga un anonimato parcial, asignándoles
números. Solamente un estudiante y el consejo de estudios saben cual número les ha
sido asignado y a cual estudiante. Este estudiante es quien controla que los nombres y
los números sean los correctos y es, además, quien reúne las encuestas. La lista de
nombres con sus respectivos códigos se envía al Consejo de Estudios y las encuestas a
los docentes. El docente consolida la respuesta de los estudiantes en otro formulario y
luego escribe una conclusión a la luz de las respuestas y de los diversos comentarios. El
docente presenta esta conclusión a la clase, después de la cual, las encuestas y la
conclusión, pasan al Consejo de Estudio, que es el responsable de las acciones futuras.
18
Franásco Alba Juez
Los diversos consejos de estudios compilan las encuestas. Las preguntas realizadas en
ellas deben cubrir todos los componentes de calidad. Cada pregunta puede responderse
con una de tres a cinco posibilidades de respuestas, una de las cuales debe ser "no se".
Después de cada pregunta se provee un amplio espacio para comentarios adicionales.
También se establece claramente que las respuestas sin comentarios explicativos no se
considerarán significativas.
Las encuestas pueden incluir preguntas generales y especificas, pueden diferir de
departamento a departamento y de curso a curso, pero como reglageneral, no debe
haber demasiadas preguntas.
El Consejo de Estudios responsable, recibe y procesa los resultados de cada evaluación
del curso. Se saca una conclusión de cada proceso de evaluación, y ésta se envía a los
cuerpos directivos relevantes. Dicha conclusión debe mencionar cualquier acción
correctiva necesaria a tomar. El consejo de estudios debe informar a los docentes y
estudiantes sobre los resultados de la evaluación.
Si tal evaluación revela problemas serios, el Consejo debe implementar iniciativas
concretas y adecuadas, destinadas a mejorar la situación.[13]
2.5. PORTUGAL
2.5.1. UNIVERSIDAD TÉCNICA DE LISBOA - INSTITUTO SUPERIOR
TÉCNICO (IST)
La Facultad de Ingeniería de la Universidad Técnica de Lisboa (UTL) presenta un
modelo parametrizable de evaluación para cinco grupos distintos de usuarios.
Para cada universo de usuarios, se define un conjunto de objetivos, que ellos valúan en
su interfase con la institución de enseñanza superior en ingeniería (lESI). Se cuantifícan
los factores de éxito principales por medio de indicadores de éxito (lE), generalmente
correlacionados. Luego son divididos en endógenos (ej. El rendimiento del proceso
educativo) y exógenos (ej. Financiamiento público o contexto regional donde opera la
lESI).
Cada grupo de usuarios, j , atribuye factores de ponderación, Py, a los indicadores de
éxito que son valiosos para éste, permitiendo así, elaborar una matriz de valoración y
funciones de clasificación CF = f (IE|, Pij).
Los criterios de clasificación consideran los aspectos científicos, pedagógicos,
administrativos y socioeconómicos.
Con el fin de permitir una evaluación y clasificación justa, los indicadores de éxito
necesitan ser significativos para los distintos universos a los que se aplican.
El objetivo principal de la metodología propuesta es proveer indicadores que permitan
a los diferentes actores que tienen un papel en los procesos educativos, evaluar el
rendimiento y calidad de los programas e instituciones.
19
Francisco Alba Juez
El primer paso de ésta metodología es la caracterización, en términos de sus indicadores
de éxito, de los distintos cinco universos involucrados con el proceso educativo:
• Estudiantes
• Empleados
• Propietarios (públicos y/o privados)
• Otros fondos financieros
• Clientes (que puedan contratar servicios)
Cada uno de estos universos de usuarios tiene sus propios objetivos, que pueden ser
ubicados en el conjunto de características en el proceso educativo, especialmente
valuado por esos usuarios.
Una vez establecidos los objetivos, es posible definir los factores de clasificación
correspondientes, o Factores de Función de Clasificación (FFC), que se pueden
cuantificar mediante los indicadores de clasificación o indicadores de éxito (lE). La
evaluación, puede por lo tanto llevarse a cabo en términos de objetivos predefinidos,
permitiendo la clasificación y eventual evaluación, en términos del grado del logro de
los objetivos predefinidos.
La metodología propuesta permite una evaluación paramétrica de programas e
instituciones, cada indicador de éxito es evaluado en forma diferente por los distintos
universos. Se construye una matriz de evaluación, en la cual, cada entrada Pij describe el
peso atribuido por el universo j al indicador de éxito lEj.
El uso de factores ponderados provee enlaces entre los factores de clasificación y la
evaluación de programas y/o instituciones. Es posible entonces la definición de las
funciones de clasificación CF para cada universo j , que registran la importancia relativa
atribuida por los usuarios de ese universo a los distintos indicadores de éxito (lE).
La calidad es importante para todo el universo de usuarios, por lo tanto, los lE deben ser
elegidos cuidadosamente de acuerdo al objetivo que debe ser alcanzado y de manera
que pueda ser actualizado.
También pueden las ponderaciones afinarse dinámicamente de acuerdo a la experiencia
y preferencias cambiantes de los usuarios.[14], [15]
2.6. SUIZA
2.6.1. SWISS FEDERAL INSTITUTE OF TECHNOLOGY (ETH)
Mientras que la evaluación de la competencia en investigación se viene practicando en
Suiza desde largo tiempo atrás, usando procedimientos bien establecidos e
intemacionalmente aceptados, no había nada comparable para evaluar la enseñanza en
las instituciones suizas.
Dado que la legislación que rige los Institutos Federales de Tecnología Suizos,
publicada en 1992, incluyó la cláusula que establece que "el rendimiento de los
20
Francisco Alba Juez
profesores debe ser evaluado regularmente", al recién inaugurado Centro de Enseñanzas
y Aprendizaje (CTL) del Instituto Federal de Tecnología Suizo (ETH), se le encargo en
el año 1994 la tarea de desarrollar e implementar un modelo para realizar la evaluación
de la enseñanza en el ETH. La Junta Ejecutiva del ETH incluyó en el mandato del
centro las siguientes condiciones para el modelo:
• Debía utilizar las evaluaciones de los estudiantes como base
• Debía enfocarse en la calidad didáctica de la enseñanza
• Debía desarrollarse una encuesta standard para ser utilizada en todas las divisiones
de enseñanza
• Las encuestas debían ser distribuidas hacia el fm del semestre (es decir, evaluación
sumativa)
• El control debía ser tan amplio como fuera posible: la mayoría de los cursos en
todas las secciones de enseñanza y regularmente
El CTL, al desarrollar el modelo, incluyó otros aspectos que ampliaron el objetivo de la
Junta Ejecutiva con otros objetivos adicionales tendientes a reforzar el mejoramiento de
cada Facultad y el mantenimiento de la calidad de la enseñanza en sus cursos, a saber:
• El instrumento provee una retroalimentación rápida, aunque en una evaluación
sumativa, los resultados están disponibles antes de finalizado el semestre. A partir
de su calificación individual, los profesores pueden adaptar mejor su didáctica a
partir de las necesidades de los estudiantes. Pueden discutir los resultados con los
estudiantes que proveyeron las evaluaciones, aclarando así las respuestas ambiguas
y fomentando la comunicación entre los profesores y los alumnos sobre la eficacia
en la enseñanza y en el aprendizaje.
• El instrumento también provee información para el jefe de cada división de
enseñanza. (En ETH, las unidades se denominan divisiones a diferencia de
departamentos que incluyen las unidades de investigación).
El jefe de división recibe un panorama general de la calidad de enseñanza en su
división, además de un resumen de los resultados de cada curso.
Los resultados de dos proyectos piloto - el primero, que evalúa la calidad didáctica de
todos los cursos obligatorios en la división de ingeniería eléctrica, y el segundo, que
comprende la mayoría de las clase prácticas para resolución de problemas en la División
de Matemáticas y Física - dio la base para el Modelo de Evaluación Estándar. Dicho
modelo incluye las siguientes características:
• La evaluación regular de la calidad didáctica de los cursos en todas las divisiones
que ofrecen grado ETH, usando las evaluaciones de estudiantes cada tres semestres.
Los estudiantes completan un cuestionario estándar (múltiple cholee), pudiendo
agregar comentarios y sugerencias individuales en una hoja aparte.
La encuesta de dos hojas empleada en el procedimiento estándar, fije elaborada en
colaboración con varias divisiones. La primera hoja contiene preguntas sobre los
21
Francisco Alba Juez
datos personales básicos (sexo, lengua materna, división del alumno, semestre del
alumno, etc.) y a continuación cuatro preguntas que permiten obtener un "perfil de
motivación" de los alumnos en cualquier curso, incluyendo aspectos tales como el
motivo por el cual eligieron su curso de grado, la razones por las que asisten a este
curso en particular, con qué fi'ecuencia lo hacen, la cantidad de tiempo empleada en
este curso, etc..
La segunda hoja esta dedicada a la evaluación del curso y consta de veintiún ítemssobre la cátedra, las clases relacionadas con la resolución de problemas y la
capacidad didáctica del profesor.
Se intenta de esta manera, tener una imagen lo más completa posible - desde el
punto de vista de los estudiantes - de la calidad didáctica del curso.
Finalmente, los estudiantes deben juzgar si la encuesta es apropiada para evaluar el
curso en cuestión.
Los veintiún ítems sobre el curso y el profesor, tienen como objetivo reflejar los
diversos elementos de la "buena calidad de la enseñanza". Dan pautas de los
atributos de docencia que valen la pena lograr en la enseñanza.
Los alumnos evalúan cada ítem utilizando una escala Likert bipolar de cinco puntos
(de uno a cinco).
Cabe mencionar que no debe esperarse que ésta encuesta provea un instrumento
par,a investigaciones sofisticadas. Sin embargo, ha demostrado ser perfectamente
adecuada para diagnosticar serias deficiencias didácticas y organizativas en la
enseñanza, y para proveer una base de discusión sobre el curso, entre los alumnos y
el profesor.
• Los resultados se comunican de la siguiente forma: Cada profesor recibe las
evaluaciones de los alumnos (en forma de gráficos de barra por ítem de encuesta)
de su curso antes de finalizar el semestre, de tal forma que pueda discutirlo con los
alumnos. Este es el único momento que los alumnos ven las evaluaciones, ya que
no son publicadas después.
El jefe de división recibe un resumen de los resultados de la evaluación de todos los
cursos que pertenecen a su división.
Para decisiones administrativas, la Junta Ejecutiva del ETH pide a los jefes de
división que presenten un informe sobre la capacidad docente de un miembro de la
división. En este informe deben incluirse las evaluaciones de los estudiantes sobre
la persona en cuestión.
• Todos los resultados son tratados confidencialmente, no pueden ser publicados ni
puestos a disposición dentro de una división sin el permiso escrito de la persona en
cuestión. (Bajo la Ley Suiza, todos los datos personales están protegidos). [16]
2.7. ITALIA
2.7.1. POLITÉCNICO DI TORINO
El Comité Conjunto de Enseñanza (CPD) ha establecido un Sistema de Observación
compuesto por; Presentaciones de cursos extensivos, estadísticas de exámenes y
encuestas a estudiantes. Al finalizar cada año académico el CPD publica una serie de
volúmenes que contienen estadísticas sobre exámenes, y donde se describe cada curso
mediante una curva acumulativa, indicando el número de estudiantes que aprueba el
examen con tiempo. Cada curso es seguido durante cuatro años.
22
Francisco Alba Juez
El CPD ha desarrollado, también, un sistema de encuestas sobre la calidad de la
enseñanza, para ser distribuido entre los estudiantes. En ellas, los estudiantes proveen
información sobre sus tasas de asistencia, trabajo requerido por el instructor, carga de
trabajo para el semestre, aulas, sala de conferencias y otras instalaciones, capacidad
docente del profesor y asistentes, y horarios.
De los datos de las encuestas y de las estadísticas de exámenes o de los "descriptores"
se obtiene un sistema de "Indicadores" de calidad de la enseñanza, que son publicados
anualmente y puestos a disposición de las autoridades académicas de los distintos
niveles.
El Politécnico de Torino fue la primera Universidad en Italia que estableció un cuerpo
permanente de expertos para observar y evaluar los cuerpos docentes, las políticas de
enseñanza y los medios y servicios materiales conectados con ésta.
Varias Universidades en Italia han establecido comités que se ocupan de diversos
aspectos de la enseñanza. Sin embargo, solamente el Politécnico de Torino tiene un
CPD que se caracteriza por lo siguiente:
• Es un cuerpo permanente
• Consta de un número igual de profesores y estudiantes (8 + 8)
• Tiene la tarea estatutaria de organizar una observación permanente de la
funcionalidad de las actividades docentes
• Tiene la tarea estatutaria de evaluar la eficacia de las políticas implementadas por
los cuerpos que se ocupan de la enseñanza
El programa cristaliza las intenciones establecidas, por medio de un aro de
retroalimentación que une los cuerpos directivos universitarios y los "clientes". Los
cambios que se propongan al aro de retroalimentación serán relativamente lentos por
cuanto deberán tener en cuenta las necesidades políticas y sociales en general, además
de las de los "clientes" (incluyendo a los estudiantes mismos).
Debajo del nivel del programa, pueden establecerse un cierto número de aros
subsidiarios de retroalimentación para determinar si los procedimientos cumplen los
objetivos y si lo hacen eficientemente.
Desde 1993 el CPD ha estado trabajando con estos aros subsidiarios. El CPD es una
organización de control independiente, pero también somete propuestas a la
consideración (a nivel asesoramiento) de los cuerpos directivos de la Universidad.
Para contribuir al establecimiento de los aros subsidiarios de retroalimentación y con el
fin de continuar con la autoevaluación, se definen indicadores para: Rector y Senado
Académico, Facultades, Consejos de Cursos de Grado, Instructores individuales.
Desde 1993 a 1997 el CPD formuló, empleó y perfeccionó instrumentos de información
capaces de producir el "descriptor", cuya definición en si misma fije bastante difícil. A
tal fin, el CPD ha lanzado un sistema coordinado de instrumentos de información
integrados:
23
Francisco Alba Juez
• Presentaciones extensas de los cursos
• Encuestas de los estudiantes sobre la calidad de la enseñanza
• Estadísticas de los exámenes
Desde el comienzo del desarrollo de estos instrumentos, el CPD ha adoptado la
siguiente metodología de trabajo:
• Tratar los problemas con una visión global, sugiriendo al mismo tiempo, soluciones
particulares para cada instrumento, en forma de experimentación y evaluación de su
factibilidad
• Informar a los cuerpos universitarios sobre las acciones realizadas y recoger sus
opiniones
Con respecto a las presentaciones extensas de los cursos, estas fueron propuestas por
el CPD con un doble propósito:
1°- Dar a los estudiantes un mejor conocimiento del curso para organizar el trabajo del
semestre, organizar sus elecciones, planificar su estudio y saber con anticipación lo que
se espera de ellos.
2°- Darle a los responsables de los cursos de grado, medios para inspeccionar los
contenidos de los cursos, la extensión con que fueron tratados, los requerimientos y
cargas de trabajo, técnicas de examen, y capacidades que deben desarrollar los
estudiantes.
La presentación extensa del curso, no es solamente un documento útil para el alumno y
el docente sino que se considera indispensable para adoptar el Sistema Europeo de
Transferencia de Créditos dentro del proyecto Sócrates.
• En lo referente a las encuestas, éstas están fuertemente orientadas a evaluar la
enseñanza individual como parte de un sistema organizado. La encuestas constan
de dos partes: La primera es un formulario conteniendo preguntas, cuyas
respuestas son procesadas por el CPD y son usadas como base de su evaluación. La
segunda es un formulario para "comentarios personales", que son recibidos
directamente por cada profesor, son estrictamente confidenciales y actúan como un
medio de comunicación entre la clase y el profesor. Estos formularios son
anónimos y contienen diferentes preguntas agrupadas de la siguiente manera:
Estadísticas de los exámenes.
• Parte A: seis preguntas sobre el estudiante y educación previa
• Parte B: cinco preguntas sobre su asistencia a las clases y sus sesiones de
prácticas.
• Parte C: siete preguntas sobre la organización (tipo de curso) y los recursos de
materiales para la enseñanza provistos por la institución
• Parte D: cuatro preguntas sobre el contexto del curso (peso de los cursos
paralelos, carga general de trabajo, horarios)
• Parte E: once preguntas sobre el profesor, su desempeño, su capacidad para
comunicar, su compromiso
24
Francisco AlbaJuez
• Parte F: cinco preguntas sobre los asistentes docentes
• Parte G: cuatro preguntas de control (evaluación global, motivación)
A los estudiantes se les solicita que clasifiquen por caso o por valor con una escala de 1
a 5.
Las estadísticas sobre exámenes y su secuencia temporal han sido los primeros
objetivos realizados por el CPD.
El "universo" observado es la cohorte de alumnos inscriptos para un determinado curso
en cada año académico. Son seguidos durante cuatro años, obteniéndose entonces, una
curva acumulativa que debería tender idealmente al 100%, con características que
varían de curso a curso. Los parámetros básicos que se extraen de estos datos (% de
aprobados al final del semestre, % de aprobados al final del año académico) se
corresponde con los de las encuestas, y fiDrman la base para identificar los obstáculos de
las carreras de los estudiantes.
Los "descriptores" de las encuestas y las estadísticas de exámenes se elaboran para
obtener "indicadores" del rendimiento docente. Su desarrollo ha sido, y todavía sigue
siendo, objeto de gran debate y controversia. Los grupos homogéneos de descriptores se
combinan en un número reducido de indicadores ordenados por columnas. Cada
columna describe un curso y su profesor/instructores. Las columnas se agrupan en
hojas, cada una relativa a un año dado de un curso de grado dado. Las hojas del mismo
curso de grado (3 por Diploma, 5 para Laurea) son enviadas al Presidente del Curso de
Laurea.
Cada indicador tiene una escala de valor: 1 = muy pobre, 2 = pobre, 3 = aceptable, 4 =
bueno y 5 = muy bueno. [17]
2.8. CONCLUSIÓN
Si bien en este capítulo se han presentado una serie de casos reducida, referente a los
distintos programas para evaluar la calidad de la enseñanza que se han implementado en
diversas Universidades de diferentes países, se cuenta con abundante información con
respecto a muchas otras universidades de países tales como Perú, Argentina, Venezuela,
Colombia, Brasil, Polonia, Noruega, Inglaterra, Francia y Alemania, que no se han
tratado en el presente trabajo para no hacerio excesivamente extenso y por cuanto, si
bien cada una de las distintas universidades presenta su modalidad propia, tanto en el
diseño del programa particular como en la manera de aplicarío, finalmente, de una
forma u otra, todos los programas de todas las universidades de los distintos países
culminan en la definición de factores o descriptores que agrupan diversos ítems a los
cuales se les asigna indicadores que son valorados y/o ponderados con una escala de 1 a
5 con el objeto de tener una valoración numérica de cada uno de ellos, que permitirá
obtener una calificación del curso, del programa y en última instancia de la universidad,
a través, primero de una autoevaluación y posteriormente de una evaluación externa.
25
Francisco Alba Juez
3. INTRODUCCIÓN
El Control de Calidad moderno, esto es, el Control de Calidad Total o Control Total de
Calidad, podría definirse como : "El conjunto de esfuerzos efectivos de los diferentes
grupos de una organización para la integración del desarrollo, del mantenimiento
y la superación de la calidad de un producto, con el fín de hacer posibles
fabricación y servicio a satisfacción del consumidor y al nivel más económico".[38]
Por otra parte el Control de Calidad moderno posee cinco características que lo
distinguen:
• Control de Calidad en toda la organización, con la participación de todos los
miembros de la misma.
• Educación y capacitación en Control de Calidad para todo el personal
• Actividad de Círculos de Calidad
• Auditoría de Control de Calidad Interna y/o externa.
• Utilización de Métodos Estadísticos
3.1. EL SIGNIFICADO DE "CONTROL" Y DE "CALIDAD".
En la terminología industrial, el acto de delegar responsabilidad y autoridad en una
actividad directiva, liberándola en esta forma de detalles innecesarios, pero
conservándole los medios para asegurarse que los resultados sean satisfactorios, se
llama control.
El procedimiento seguido para alcanzar la meta de calidad industrial es, por lo tanto,
denominado "Control de Calidad".
En el Control de Calidad se deben seguir cuatro pasos que son los siguientes:
• Establecimiento de estándares para el funcionamiento, para la confíabilidad del
producto y para los costos de calidad.
• Estimación de conformidad : comparación de la concordancia entre el producto
manufacturado y los estándares.
• Ejercer acción cuando sea necesario : Aplicar la corrección necesaria cuando no se
alcancen o rebasen los estándares.
• Confeccionar planes para mejoramiento : Desarrollar un esfuerzo continuado para
mejorar los estándares de los costos, del comportamiento y de la confíabilidad del
producto.
26
Francisco Alba Juez
Por Otra parte, en la expresión "Control de Calidad", la palabra "calidad" no tiene
significado popular de "lo mejor" en sentido absoluto sino que significa "lo mejor
dentro de ciertas condiciones del consumidor".
Dentro de estas condiciones las más importantes son:
• El uso al que el producto se destina
• Su precio de venta
De acuerdo a todo esto, el fundamento del concepto del control de Calidad Total y su
diferencia básica con relación a otros conceptos, es que para proporcionar una
efectividad genuina, el control debe iniciarse con el diseño del producto, y no termina
sino cuando el producto llega a las manos del consumidor y le satisface.
En resumen, en su interpretación más estrecha o antigua "calidad" significa "calidad de
producto". En su interpretación más amplia o moderna "calidad" significa "calidad de
trabajo, calidad de servicio, calidad de personas (gerentes, trabajadores, ingenieros,
ejecutivos) calidad de sistemas, calidad de objetivos, calidad de la empresa".[38]
3.2. CARACTERÍSTICAS DE CALIDAD
Las características de calidad de un producto, proceso o sistema, cualesquiera sean
estos, son dos :
• Características de calidad reales
• Características de calidad sustitutas
Normalmente las funciones o capacidades de un producto se cuentan entre sus
características de calidad reales, por ejemplo, en un buen automóvil de turismo, las
características de calidad reales o atributos que los consumidores exigen son los
siguientes :
• Buen diseño
• Facilidad de conducción
• Confort
• Buena aceleración
• Estabilidad a altas velocidades
• Durabilidad
• Seguridad
• Facilidad de reparación
Como se puede ver, las características de calidad reales son generalmente subjetivas y
por lo tanto muy difíciles de medir, y aquí surge el problema fundamental a resolver,
que es: como lograr estas características, que son las que demanda el consumidor.
27
Francisco Alba Juez
Para esto habrá que tratar de medir u objetivar lo mejor o más que se pueda estas
características reales. Las empresas que mejor logran esto, son las que ganan el
mercado.
Las características de calidad sustituías son, en cambio, aquellas que se pueden medir y
las que hay que definir para poder lograr las características de calidad reales.
En el caso del automóvil, las características de calidad sustitutas serían, por ejemplo :
• las materias primas
• la resistencia de los materiales
• los procesos de fabricación y maquinado
• las tolerancias
• los tratamientos térmicos
• etc.
Características éstas que rápidamente se advierte que son medibles y por lo tanto
objetivas.
Ahora bien, el proceso a seguir para obtener las características reales a partir de las
sustitutas, es el siguiente :
• Definir las características de calidad reales para un producto dado.
• Resolver el problema de como medir tales características y como fijar las normas de
calidad para el producto.
• Determinar las características de calidad sustitutas
• Establecer la relación entre las características de calidad reales y las sustitutas
mediante estadísticas y análisis de calidad.
Sólo después de cumplir con estos cuatro pasos sabremos hasta qué puntopodemos
valemos de las características sustitutas para lograr las reales, y cuales de aquellas son
las que mayor relación o influencia tienen sobre las características reales. [33]
En general, una vez definidas las características de calidad reales (mediante encuestas,
estudios de mercado, etc.) y las posibles características de calidad sustitutas (mediante
el concurso de especialistas) que nos permitirán alcanzar dichas características reales, se
debe realizar un análisis de calidad estadístico para determinar cuales de estas
características sustitutas seleccionadas, son las que nos permitirán alcanzar las reales, e
incluso no habrá que extrañarse si algunas de ellas no tiene ninguna o escasa relación
con las reales.
Para poder realizar este análisis, normalmente se diseña un modelo que recurre a
indicadores de tipo cuantitativo y cualitativo, y en general, se puede decir que los
indicadores cualitativos representarán características de calidad reales, mientras que los
28
Francisco Alba Juez
indicadores cuantitativos se referirán a características de calidad sustitutas, aunque
alguno de ellos puede representar una característica de calidad real. Por lo tanto el
problema básico consiste en diseñar una metodología que nos permita determinar el
grado de correlación que existe entre estos indicadores.
Diseñada esta metodología, estaremos en poder de una herramienta que nos permitirá,
en primer lugar, analizar el modelo, y en segundo lugar, optimizarlo. [33]
Resolver este problema para un proceso, sistema o producto en el campo industrial,
presenta una complejidad considerable, y no son pocas las empresas que a pesar de
gastar millones de dólares en tratar de resolverlo, no lo han podido lograr, o por lo
menos, no han podido resolverlo con el grado necesario como para ganar el mercado.
[40]
4. OBJETIVOS DE LA TESIS
4.1. OBJETIVO GENERAL
El objetivo general del presente trabajo es diseñar una metodología que permita analizar
y optimizar modelos para evaluar la calidad de las enseñanzas. El problema ya de por si
complejo de determinar la calidad de un proceso, sistema o producto industrial, se
vuelve - en el caso de un proceso de enseñanza - aprendizaje - altamente complejo,
pues el producto final son personas que han sufrido una transformación intelectual. Esto
hace, que las características de calidad reales sean mucho más difíciles de definir y
naturalmente, mucho más difíciles de medir y objetivar.
Por otra parte, muchas de las que llamaríamos características de calidad sustitutas,
definidas por indicadores cuantitativos que se utilizan normalmente a la hora de evaluar
universidades, ni tienen relación, ni presentan ayuda alguna para definir las
características de calidad reales del "producto" ni del sistema, aunque puedan medir la
eficiencia de este, que en última instancia podría considerarse como una características
de calidad real de él, pero sin que tenga nada que ver en las características de calidad
reales del "producto", que es lo que finalmente importa [33]
4.2. OBJETIVO ESPECIFICO
El objetivo específico de la presente tesis es, una vez cumplido el objetivo general
(diseño de una metodología para analizar y optimizar modelos que evalúan la calidad de
las enseñanzas), aplicar dicha metodología para analizar y optimizar el modelo SECAI
(Sistema de Evaluación de la Calidad de las Enseñanzas de Ingeniería). Este modelo ha
sido desarrollado en el marco del programa Columbus, el cual, a su vez, fije creado por
la conferencia de Rectores, Cancilleres y Vicecancilleres de Universidades Europeas
(CRE) para promover la colaboración entre estas instituciones y las universidades
latinoamericanas.
A tal efecto se constituyó un grupo de expertos en evaluación de la Enseñanza de la
Ingeniería procedentes de las siguientes instituciones :
Escuela Politécnica Nacional de Ecuador; Imperial College of Science - Inglaterra;
Technologie and Medicine del Reino Unido; Instituto Tecnológico de Monterrey -
29
Francisco Alba Juez
México; Politécnico de Torino - Italia; Pontificia Universidad Javeriana de Bogotá -
Colombia; Teschnische Hochschule Darmstadt - Alemania; Universidad Católica de
Valparaíso - Chile; Universidad de Rio de Janeiro - Brasil; Universidad Nacional de
Mar del Plata - Argentina y Universidad Politécnica de Madrid - España.
El referido grupo de expertos, tomando como base un modelo originalmente elaborado
en el Instituto de Ciencias de la Educación (ICE) de la Universidad Politécnica de
Madrid, ha desarrollado un sistema completo de evaluación de la Calidad de las
Enseñanzas, aplicable á carreras de Ingeniería y fácilmente adaptable a otras carreras
universitarias.
4.2.2. EL MODELO SECAI
Analizando los conceptos y ñindamentos que han servido como base para el diseño y
estructuración del modelo SECAI, rápidamente se advierte que estos responden a los
conceptos y fundamentos del control de Calidad Total aplicado en la industria,
naturalmente, con las adaptaciones pertinentes al campo de aplicación para el que ha
sido diseñado, esto es, la enseñanza superior.
En dicho modelo se define Calidad de la Enseñanza, en un sentido amplio, como :
''Una enseñanza es de tanta más calidad en la medida en que mayor sea su
contribución al desarrollo personal de ios estudiantes y a través de ellos, al
bienestar sociai" [57], y aquí surgen las primeras dificultades, como son las de
"evaluar cuál es la contribución de una institución al desarrollo personal y al bienestar
social, aislándola de otros factores sociales y personales de los estudiantes y de
contexto, así como el tratar de poner en relación los logros con los medios utilizados
para alcanzarlos".[47]
Inmediatamente se propone una definición más concreta :
"La enseñanza es de calidad en la medida en que se logran los objetivos previstos y
estos son adecuados a las necesidades de la sociedad y de los individuos que se
benefician de ella". [57]
Esta definición plantea dos problemas a la hora de intentar evaluar o controlar la calidad
de la enseñanza :
• Averiguar en qué medida los objetivos formativos previstos, interpretan
adecuadamente las necesidades de la sociedad e individuos a los que la
Universidad trata de servir, de acuerdo con su propia misión, objetivos y
medios.
• Valorar en qué forma la estrategia educativa establecida para lograr tales
objetivos: medios, métodos, sistema de control de resultados, etc., aseguran
dicho logro; con qué eficacia y con qué eficiencia.
El primero de los problemas conduce directamente al diseño del plan de estudios y
especialmente, a los objetivos formativos, su pertinencia y su realismo.
30
Francisco Alba Juez
Pertinencia, en cuanto a que son adecuados a las necesidades sociales e individuales.
Realismo, porque tienen en cuenta las posibilidades institucionales de lograrlos en un
tiempo previsto por un porcentaje aceptable de estudiantes.
El segundo problema está conectado con dos aspectos de gran relieve a la hora de
establecer la adecuada estrategia de evaluación.
• Los resultados inmediatos de la enseñanza
• El proceso de enseñanza
Los resultados inmediatos se refieren a los logros formativos obtenidos en relación a los
objetivos previstos, al número de estudiantes que logran alcanzarlos y a la duración
efectiva de la carrera. Vale decir, metas alcanzadas a la salida del proceso.
En cuanto al proceso de enseñanza, se refiere al conjunto de condiciones que deben
cumplirse para alcanzar determinados objetivos de formación. La ciencia pedagógica y
la experiencia didáctica permiten atribuir ciertas relaciones entre factores de proceso y
resultados de la educación. [23], [24].
Lo indicado anteriormente ha sido considerado por los expertos de SECAI como una
buena base a la hora de establecer una estrategia de evaluación de la calidad de la
enseñanza, centrada en la institución que ofrece un programa de estudios, su misión, sus
fines, el contexto social al que debe servir,el proceso interno de enseñanza - aprendizaje
que desarrolla y la concordancia entre logros, objetivos previstos y recursos utilizados.
Quedaría por verificar cuál es el desenvolvimiento de los graduados en la sociedad y
especialmente:
• La forma en que se produce su integración en la misma, generalmente
mediante su incorporación al mundo laboral.
• En qué medida logran, con sus comportamientos profesionales y
personales, satisfacer las necesidades sociales e individuales ya
citadas.
Con respecto a estos dos aspectos hay que decir que para una institución universitaria
no resulta sencillo "medir" el segundo de los aspectos por tener, probablemente
influencia sobre él, otros factores de mayor incidencia que la formación recibida de la
universidad.
En cuanto al primero, y especialmente en lo que hace al proceso de integración de los
graduados en el mundo laboral, resulta más fácilmente evaluable y proporciona una
información de gran interés para valorar la calidad de las enseñanzas.
En el esquema siguiente en forma de gráfico cerrado, que empieza con las necesidades
sociales y concluye con la actuación profesional y social de los graduados, se incluyen
los conceptos comentados.
31
Francisco Alba Juez
PERFIL
PROFESIONAL
U
OBJETIVOS
EDUCATIVOS
CALIDAD DEL PLAN
DE ESTUDIOS
C
A
L
$
E
H
V
CALIDAD DE
ÍMTEGRACÍON
íríTEGRACtON
IC
C
A
D
E
L
P
R
O
C
E
S
O
I32
RECURSOS
HUMANOS
RECURSOS
MATERIALES
I33
CALIDAD DE
RESULTADOS
INMEDIATOS
12
ACESSO
ESTUDIANTES
I3
PROCESO
E-A
FACTORES
DIDÁCTICOS
I34
RESULTADOS iN*4eDÍAT0$
MARCO
NORMATIVO
GESTIÓN
EDUCATIVA
:i3i
FINANCIACIÓN
MODELO SECAI DE CALIDAD GLOBAL DE LAS ENSEÑANZAS [33|
Con todo esto, llegamos al concepto de "Calidad Global de la Enseñanza", paralelo al
de "Calidad Total" utilizado en las empresas industriales.
Este nuevo concepto lleva a plantear varios componentes de la calidad de la enseñanza :
• Calidad del plan de estudios
• Calidad del proceso de enseñanza
• Calidad de resultados inmediatos
• Calidad de integración
• Calidad de servicio o de resultados a medio y largo plazo
32
Francisco Alba Juez
Cada uno de estos componentes de la calidad permite analizar una serie de aspectos
importantes para comprender el fenómeno de la Enseñanza en su conjunto, emitir
juicios acerca de su calidad y extraer conclusiones válidas para mejorarla.
Veamos cada uno de ellos en detalle:
4.2.2.1. CALIDAD DEL PLAN DE ESTUDIOS
En relación con el plan de estudios, su calidad es, indudablemente, uno de los factores
determinantes de la calidad de la enseñanza, y constituye la interfase entre las
exigencias sociales y el proceso interno en un centro de enseñanza^ en lo que se
refiere a su labor educativa, y, en cierta medida, entre el presente y el futuro, si se tiene
en cuenta que el plan establece, o debe establecer, requisitos que, basados en los
contextos social, profesional y científico, servirán para formar a personas que han de
integrarse en la sociedad durante años o décadas posteriores. [47], [48].
La calidad del plan de estudios será tanto más elevada en la medida que :
- Defina con precisión el "producto educativo" que se desea formar, esto es:
• El perfil profesional deseable de los egresados.
• El perfil de formación, a través de los objetivos formativos que deben
alcanzarse al final del proceso educativo.
- Asegure la adecuación de ambos perfiles a las necesidades sociales del contexto para
el que la institución oriente su acción formativa.
- Tenga en cuenta los niveles de desarrollo científico y tecnológico y su evaluación
fiitura previsible.
- Valore los condicionamientos y oportunidades institucionales.
- Contenga los elementos que orienten, en forma efectiva, el proceso de enseñanza -
aprendizaje que será preciso desarrollar para alcanzar los objetivos previstos.
- Existan previsiones Randadas de medios y estrategias necesarias para su puesta en
marcha con elevada probabilidad de éxito.
4.2.2.2. CALIDAD DE PROCESO
La relación entre la calidad de la enseñanza y el proceso que se sigue en una institución
educativa ha quedado indicada en los párrafos anteriores e indudablemente, el proceso
de enseñanza - aprendizaje, y, cada uno de los elementos que intervienen en él, ejerce
influencia en el logro de los objetivos previstos en el plan de estudios y costos globales
que comportan tales logros.
33
Francisco Alba Juez
La calidad de proceso implica una alta correlación entre cada una de las variables
puestas en juego durante el mismo y las condiciones objetivas que deben cumplirse para
que los objetivos formativos previstos sean susceptibles de ser alcanzados.
Dichas variables estarán asociadas a los siguientes factores:
- Gestión educativa
- Recursos humanos
• Profesorado
• Personal de Administración y Servicios
- Recursos materiales
• Instalaciones
• Equipamiento y Material Fungible
- Factores didácticos
La definición anterior implica un cierto control sobre las variables de entrada de los
estudiantes : conocimientos, capacidad de aprendizaje, actitudes y motivaciones. El
proceso relaciona un punto de partida (nivel de los estudiantes a la entrada) con uno de
llegada (perfil de formación previsto en el plan de estudios). Si no puede conocerse o
controlarse el punto de partida, o el comportamiento de los estudiantes durante el
proceso se viese afectado significativamente por factores extrainstitucionales, la calidad
del mismo no podría valorarse tomando como base la definición anterior. [47]
En cualquier caso, el análisis de los factores asociados al proceso es un elemento
importante para emitir juicios acerca de la calidad del mismo. Su valoración, tomando
como base criterios técnicos, puede ayudar a discriminar entre distintas causas de
fi"acaso escolar, no todas relacionadas con la calidad del proceso. [47]
4.2.2.3. CALIDAD DE RESULTADOS INMEDIATOS
La calidad de resultados inmediatos debe medirse mediante atributos cualitativos y
cuantitativos de los mismos, referidos a la formación adquirida por los estudiantes hasta
el momento de graduarse y al "esfiaerzo" requerido para ello. Concretamente :
• Nivel de logro, por parte de los alumnos que se gradúan, de los objetivos
formativos previstos en el plan de estudios.
• Relación entre los estudiantes que se gradúan y los que inician sus
estudios.
• Duración real media de la carrera.
La calidad de la formación de los estudiantes que logran graduarse, se refleja por la
primera de estas tres variables que asociamos a la calidad de los resultados. El nivel de
34
Francisco Alba Juez
logro de los objetivos, informa de la eficacia del proceso; sin embargo, si no se
consideran los otros dos, no sería posible valorar la eficiencia del mismo al prescindir
del costo efectivo que supone para los estudiantes alcanzar ciertos niveles de formación.
Existen ejemplos de procesos de gran eficacia, en cuanto que forman excelentes
ingenieros, y pésima eficiencia por el alto costo económico y social que debe pagarse,
especialmente por los alumnos que son "desechados" por el camino, o el número
elevado de años que deben dedicar los que logran quedarse, con su repercusión en los
costos.
También existen ejemplos opuestos; instituciones en las que resulta muy fácil a los
estudiantes lograr su graduación en el tiempo nominal de la carrera, pero su formación
no alcanza los niveles deseables.
Una elevada calidad de los resultados inmediatos debe contemplar ambos aspectos: la
eficacia y la eficiencia del conjunto formado por el plan de estudios y el proceso
formativo, esperándose una adecuada correlación entre dichos objetivos y el
desenvolvimiento de los diferentes factores señalados en el párrafo anterior. [48], [57]
4.2.1.4. CALIDAD DE INTEGRACIÓN Y CALIDAD DE SERVICIO
La calidad de integración y la calidad de servicio o de resultados a medio y largo plazo,
se manifiestaen ámbitos externos a la institución y ponen de relieve el comportamiento
de los graduados frente a la sociedad.
Empezando por la segunda, se puede definir calidad de servicio como:
"El grado en que los titulados, en su conjunto, satisfacen las demandas sociales en
sus áreas especificas de actividad, a la vez que logran su propio desarrollo personal".
[48], [57]
Normalmente, tras finalizar los estudios, los graduados sufren un proceso de
integración, a través del cual reciben una formación complementaria a cargo de las
empresas u otros empleadores, o por iniciativa propia. Esta variable debe ser
considerada a la hora de realizar un análisis global de la calidad. Podría suceder, por
ejemplo, que determinados universitarios tuviesen un desenvolvimiento profesional y
social excelente, que condujese a una valoración muy alta de la calidad de servicio y, en
cambio, no deberse ésta a la formación recibida de la institución universitaria, sino de
un proceso costoso de integración.
Teniendo en cuenta estas ¡deas, se puede decir que: la calidad de integración es tanto
más elevada en la medida en que resulta más fácil a los graduados alcanzar las
competencias profesionales y nivel de desarrollo personal que se considera
imprescindible para realizar adecuadamente las actividades más características,
asociadas a las funciones convenientemente atribuidas a dichos graduados, en el
contexto social correspondiente.
Para una institución universitaria es posible, con un costo razonable, analizar los
factores relativos al Plan de Estudios, Acceso de Estudiantes, Proceso y Resultados
Inmediatos, y por tanto, evaluar su calidad. En cambio, encuentra mayores dificultades
35
Francisco Alba Juez
para evaluar las condiciones de integración y especialmente las de servicio, puesto que
éstas se ven afectadas por un conjunto de variables ajenas a la propia institución, cuyo
efecto se amplía a medida que transcurre más tiempo desde que los graduados
abandonan las aulas.
Teniendo en cuenta estas dificultades, SECAI ha prescindido de evaluar la calidad de
servicio, limitándose el análisis de lo que sucede después de la graduación, a la calidad
de integración, cuya evaluación es, en general, más asequible desde los puntos de vista
metodológico y económico. [57]
4.2.1.5. INDICADORES DE CALIDAD
Para evaluar cada uno de los componentes de calidad antes definidos, se utilizan
indicadores de calidad. No existe un total acuerdo en la definición de indicador, ni
tampoco en los indicadores más adecuados, aunque se aceptan algunos de manera más
generalizada que otros.
Un sistema de indicadores capaz de ofrecer una visión completa y rigurosa de la calidad
de la enseñanza deberá incluir:
- Indicadores cuantitativos y cualitativos
- Indicadores de resultado y de proceso
El uso de indicadores cuantitativos exclusivamente, si bien puede pensarse que ofrecerá
mayor objetividad, supone una mutilación inadmisible del fenómeno que se evalúa, que
es de naturaleza eminentemente cualitativa. Cualquier índice cuantitativo, por si solo, no
refleja el fenómeno evaluado y, en ocasiones, un mismo dato puede ser reflejo de una
enseñanza de calidad o de todo lo contrario. Supongamos, por ejemplo, que la relación
entre el número de estudiantes que logran graduarse y los que ingresan es muy elevado.
¿Significa este dato que los métodos de enseñanza son excelentes, que los niveles de
exigencia son inadmisiblemente bajos, que los estudiantes que ingresan son en su
mayoría de un altísimo nivel intelectual y de formación, o una combinación de los
anteriores supuestos? [57]
La utilización de indicadores de naturaleza cualitativa es insoslayable y, sin embargo,
resulta extraordinariamente dificil su valoración objetiva.
Por otro lado, como ya se ha señalado, la evaluación global implica el uso de
indicadores de proceso junto a los de resultado, por cuanto, la mejora de la calidad solo
será posible si se conocen los factores que están influyendo negativamente en ella, lo
cual conduce a la necesidad de analizar y valorar la influencia de cada una de las
variables significativas del proceso. [57]
Teniendo en cuenta las ideas anteriores, se propone la siguiente definición de indicador:
"Dato o conjunto de datos objetivos u objetivables que contribuyen a valorar los
resultados de la enseñanza, algunos de los factores que condicionan el logro de los
resultados o la adecuación de éstos a las necesidades sociales"
36
Francisco Alba Juez
Naturalmente, para que un indicador contribuya a emitir alguno de los juicios de valor
señalados, es necesario que informe de la manera más objetiva y rigurosa posible acerca
de algún atributo del "producto" o del "proceso", cuya relación con la calidad de la
enseñanza esté probada o admitida en base a la experiencia docente.
Lamentablemente, existen aún escasos trabajos de investigación capaces de establecer,
en forma cuantitativa, relaciones entre determinados indicadores o agrupaciones de ellos
y la calidad de la enseñanza, por lo cual, a la hora de establecer un sistema de
indicadores para evaluada, será preciso formular hipótesis razonables y buscar el
máximo consenso, entre los implicados en el proceso de evaluación, acerca de ellos.
En resumen, no existen apenas indicadores indiscutibles, y mucho menos un modelo de
aplicación universal basado en contrastaciones científicas irrefutables. Lo único posible
es formular propuestas razonables que puedan ser aceptadas como patrón de medida, en
contextos determinados, con la única condición de que de su aplicación se deriven
indicaciones validas para evolucionar en la dirección correcta, según el concepto de
calidad de la enseñanza tomado como fundamento del modelo.
4.2.1.6. DIAGRAMA GENERAL CON LOS ELEMENTOS
FUNDAMENTALES DEL PROCESO DE EVALUACIÓN DE LA
CALIDAD DE LAS ENSEÑANZAS MEDIANTE APLICACIÓN DEL
M O D E L O SECAL [57]
FACTORES
INDICADORES
EVALUACIÓN
ÍNDICES DE
CALIDAD
CRITERIOS 1
ANÁLISIS DE
COHERENCIA
EVALUACIÓN
GLOBAL
DIAGNOSTICO Y
RECOMENDACIONES
Elementos condicionantes o asociados a
calidad de las enseñanzas de la Ingeniería.
la
Atributos de cada factor cuya correlación con la
calidad de la enseñanza está probada o admitida.
Condiciones u orientaciones que se establecen
para atribuir calificaciones numéricas a cada
indicador, basados en datos o hechos y
considerando su relación con la calidad.
Calificación de cada indicador y
acuerdo con los criterios establecidos.
factor de
Valoración hecha de cada factor relativo a la
puntuación niá.xima posible de acuerdo con las
valoraciones de los indicadores.
Estudio comparativo y global de las diferentes
valoraciones e índices para detectar posibles
incongruencias.
Valoración de la calidad de la carrera.
Determinación de puntos fuertes y débiles
relacionados con factores e indicadores que
afectan a dicha calidad y recomendaciones de
mejora.
37
Francisco Alba Juez
4.2.1.7. FACTORES E INDICADORES DE CALIDAD
Teniendo en cuenta los anteriores conceptos, el modelo se estructura en un conjunto de
94 indicadores a través de los cuales se pretende evaluar los siguientes factores de
calidad.
4.2.1.7.1. FACTORES DE CALIDAD
1. Plan de Estudios
2. Condiciones de ingreso de los estudiantes (entrada proceso)
3. Proceso de enseñanza - aprendizaje
• Gestión académica
• Recursos humanos
- Profesorado
- Personal de administración y servicio
• Recursos materiales
- Instalaciones
- Equipamiento y otro material
• Factores didácticos
4. Resultados inmediatos (salida proceso)
5. Integración de los graduados
4.2.1.7.2. INDICADORES DE CALIDAD
Para evaluar cada uno de los anteriores factores se utilizan los siguientes indicadores:
1. PLANES DE ESTUDIOS
1.1. Participación
11001 Participación de los agentes externos relacionados con la carrera.
11002 Participación de los miembros de la comunidad educativa de la
Institución.
11003 Naturaleza y estructurade la participación. Procedimiento de
aprobación.
1.2. Metodología de elaboración del plan
12001 Definición de ámbitos y perfiles profesionales de los titulados en
función de la demanda social.
12002 Análisis y valoración de la evolución de los conocimientos
científicos y tecnológicos relacionados con la carrera.
38
Francisco Alba Juez
12003 Análisis y valoración de los conocimientos, capacidades e
intereses de los estudiantes que acceden al plan.
12004 Definición de los modelos y perfiles de formación y su
concreción en objetivos generales, teniendo en cuenta las
demandas sociales y misión de la universidad.
12005 Definición de los contenidos, metodologías y recursos necesarios,
en función de los objetivos.
12006 Valoración aprioristica de la adecuación del plan a las
necesidades sociales.
12007 Valoración aprioristica de las posibilidades de logro por parte de
los estudiantes durante el tiempo previsto para cursar la carrera.
1.3. Contenidos del plan
13001 Definición expresa del modelo de fiarmación y de los objetivos
educativos generales de la carrera.
13002 Contenido de las enseñanzas. Actualización y adecuación a los
objetivos.
13003 Orientaciones metodológicas y su adecuación a los objetivos.
13004 Orientaciones relativas a la evaluación de conocimientos y su
adecuación con los objetivos.
13005 Estructura: carga lectiva; distribución en cursos y asignaturas;
enseñanzas teóricas y prácticas, etc.
13006 Plan académico de cada asignatura: objetivos específicos,
contenido, metodología, evaluación, bibliografía básica y de
ampliación, etc.
13007 Previsión, en su caso, de actividades propedéuticas para mejorar
la integración de los estudiantes en el plan.
/. 4. Condiciones de puesta en marcha
14001 Previsión de necesidades: recursos humanos, instalaciones,
equipos y material. Adecuación al contenido del plan.
14002 Conocimiento amplio del contenido del plan por parte de los
responsables de su desarrollo.
14003 Nivel de aceptación del plan por parte de los miembros de la
comunidad educativa.
39
Francisco Alba Juez
14004 Programa de seguimiento, evaluación y revisión del plan durante
el proceso de puesta en marcha del plan.
14005 Mecanismos para la actualización periódica del Plan de Estudios.
2. CONDICIONES DE INGRESO DE LOS ESTUDIANTES
20001 Calificaciones globales de la enseñanza secundaria o pre-
universitaria y, en su caso, pruebas de acceso, exámenes de estado
o similar, con la que ingresan los estudiantes.
20002 Calificaciones obtenidas en áreas básicas para la carrera, durante
la educación secundaria y pruebas de acceso (Matemáticas,
Física, Química, Dibujo, etc.)
20003 Conocimientos previos en áreas básicas al iniciar los estudios de
la carrera.
20004 Capacidades intelectuales generales y específicas en función de
las exigencias de la carrera de ingeniero.
20005 Procedencia de los estudiantes: tipo de centro o estudios,
situación socioeconómica.
20006 Motivos por los que fije elegida la carrera y centro.
3. PROCESO DE ENSEÑANZA
3.1. Gestión académica
31001 Planificación y coordinación de las actividades educativas.
31002 Organización académica.
31003 Funcionamiento de los servicios de apoyo, extensión educativa y
acogida de estudiantes.
31004 Funcionamiento de los servicios de apoyo a la función docente.
31005 Mecanismos de control de logro de los objetivos previstos.
31006 Seguimiento del proceso escolar de los estudiantes, detección de
anomalías funcionales que afectan negativamente al rendimiento
escolar y mecanismos correctores.
31007 Gestión de los recursos destinados a actividades docentes.
31008 Programas de captación, formación y perfeccionamiento,
retención y renovación de profesores.
40
Francisco Alba Juez
31009 Mecanismos de evaluación de la calidad de la enseñanza y planes
de mejora.
31010 Clima de trabajo y relaciones humanas.
3.2. Recursos humanos
3.2.1. Profesorado
32101 Número (N° de Estudiantes/ N° de profesores).
32102 Distribución según su régimen de dedicación: completo o parcial,
etc.
32103 Distribución de profesores por edades y años de experiencia
docente.
32104 Distribución en función de unidades docentes y actividades.
32105 Nivel académico.
32106 Formación y experiencia pedagógica.
32107 Formación y experiencia investigadora.
32108 Formación y experiencia profesional.
32109 Producción científica.
32110 Producción de material de apoyo a la enseñanza.
31111 Dedicación a cada una de las actividades docentes, investigadoras
de extensión y de gestión.
32112 Actitudes frente al trabajo en equipo e integración en la
institución.
3.2.2. Personal de Administración y Servicios (PAS)
32201 Número (Relaciones PAS/Profesores y PAS/AJumnos)
32202 Distribución en función de servicios y actividades
32203 Preparación técnica para la función.
32204 Actitudes y motivaciones en relación con el trabajo.
41
Francisco Alba Juez
3.3. Rea^rsos materiales
3.3.1. Instalaciones
33101 Número, capacidad y adecuación de aulas, seminarios, etc.
33102 Número, capacidad y adecuación de los laboratorios y talleres
docentes.
33103 Bibliotecas, capacidad y adecuación de sus instalaciones.
33104 Instalaciones informáticas: centro de cálculo, aulas especiales,
etc. capacidad y adecuación.
33105 Instalaciones destinadas a los servicios de apoyo, extensión y
acogida de estudiantes.
33106 Instalaciones destinadas a servicios de apoyo a la función
docente.
33107 Instalaciones destinadas al trabajo del personal docente y relación
entre sus miembros.
3.3.2. Equipamiento y otro material
33201 Mobiliario y equipamiento de aulas.
33202 Equipamiento de laboratorios y talleres docentes y de
investigación.
33203 Recursos informáticos a disposición de profesores y alumnos.
33204 Recursos didácticos: impresos, audiovisuales, etc.
33205 Dotación bibliográfica: libros, revistas, etc.
33206 Recursos económicos para actividades docentes, su distribución y
facilidad de uso.
3.4. Factores didácticos
34001 Diagnóstico de los niveles reales de conocimientos y capacidades
de los estudiantes que acceden a la carrera.
34002 Actividades propedéuticas.
34003 Adecuación de los objetivos específicos de cada disciplina a los
generales de la enseñanza.
34004 Actualización de los contenidos y su adecuación a los objetivos.
42
Francisco Alba Juez
34005 Metodología didáctica y su adecuación a los objetivos, tanto en
enseñanzas teóricas como prácticas.
34006 Utilización eficaz de recursos didácticos en función de la
metodología adoptada.
34007 Sistema de verificación y evaluación del aprendizaje y su
coherencia con los objetivos, contenidos y metodología aplicada.
34008 Distribución de alumnos en fijnción de instalaciones, equipos y
métodos de trabajo.
34009 Utilización por parte de los alumnos de los medios de laboratorio.
34010 Utilización por parte de los alumnos de los medios informáticos.
34011 Utilización por parte de los alumnos de los medios bibliográficos
y otros.
34012 Funcionamiento de las tutorias y otras actividades de apoyo a los
estudiantes.
34013 Dirección de trabajos de fin de carrera.
34015 Clima de trabajo e integración de los estudiantes en la institución.
RESUL TADOSINMEDIA TOS
40001 Nivel medio de logro de los objetivos previstos por parte de los
estudiantes que se gradúan.
40002 Relación entre los estudiantes que logran graduarse y los que
iniciaron sus estudios.
40003 Duración real media de los estudios.
5.
40004 Identificación de los graduados con el centro: facultad,
departamento, etc.
40005 Desenvolvimiento de los titulados que participan en programas
para postgraduados, incluyendo doctorado.
INTEGRACIÓN DE LOS GRADUADOS
50001 Tiempo en el que el (80%) de cada promoción logra su primer
trabajo
50002 Período de iniciación profesional.
50003 Formación complementaria exigida para el ejercicio profesional
en diferentes actividades.43
Francisco Alba Juez
50004 Porcentaje de graduados que trabajan en áreas de actividad
relacionada con su formación (graduados en los tres últimos años)
50005 Porcentaje de graduados que trabajan en áreas de actividad
diferentes, pero con análogo nivel profesional (graduados en los
tres últimos años)
50006 Porcentaje de subempleados entre los graduados de los tres
últimos años.
50007 Porcentaje de graduados desocupados (1 año) después de finalizar
sus estudios.
50008 Valoración de los empleadores respecto a la adecuación entre
formación y ejercicio profesional.
4.3. M E T O D O L O G Í A DE APLICACIÓN E INSTRUMENTOS
4.3.1. EVALUACIÓN INTERNA (AUTOEVALUACION) Y EVALUACIÓN
EXTERNA
La autoevalunción se considera clave en el proceso general de evaluación. Para llevarlo
a cabo se designa un Comité de Evaluación Interna (CEI) compuesto por cinco
evaluadores, cuyas misiones fundamentales son:
- Recogida y elaboración de información
- Evaluación propiamente dicha, entendiendo el correspondiente informe
- Coordinación con el Comité de Evaluación Externa
La evaluación externa, que servirá de contraste y ampliación de la interna, se lleva a
cabo por un Comité de Evaluación Externa (CHE), compuesto por tres evaluadores,
designado por CRE - Columbus con la aceptación por parte de la institución evaluada.
El CHE realiza dicha evaluación y emite informe tomando como base la información
preparada por el CEI y un informe de evaluación, así como la información directamente
recopilada en una visita a la institución de aproximadamente una semana. Este Comité
emite un informe de evaluación externa (lEE). [57]
44
Francisco Alba Juez
4.3.2.METODOLOGIA Y CRITERIOS DE EVALUACIÓN
SECAI define para cada indicador "criterios orientativos" que ayuda a calificarlos.
Como se desprende de su denominación, estos criterios no son cerrados y no contienen
barreras o escalas para asignar, de forma más o menos automática, valores en fianción de
determinados datos o condiciones presentes en la institución. Únicamente pretenden
señalar las condiciones más destacadas que se esperan cuando la calidad de las
enseñanzas es alta o, por el contrario, deficiente. Los evaluadores deberán utilizar su
propio juicio, tomando como referencia dichos criterios, pero teniendo en cuenta, de
manera destacada, los objetivos formativos que se propone alcanzar la institución.
Según los diferentes grupos de indicadores, se propone contestar a una pregunta distinta
a la hora de evaluar cada indicador. Sin embargo, para todos se utiliza la misma escala
de valoración con seis posiciones
5 MUY ALTA
4 ALTA
3 MEDIA
2 BAJA
1 MUY BAJA
O SIN CALIFICACIÓN POR FALTA DE DATOS U OTRAS RAZONES.
El O no corresponde a una valoración negativa y no debe influir ni positiva ni
negativamente en cualquier valoración global de los resultados. [57]
Para establecer el valor de la calificación otorgada a cada indicador, los evaluadores
deberán tratar de contestar las preguntas que aparecen especificadas en los manuales de
evaluación y teniendo como base la información recopilada mediante documentos,
consultas y observación sobre el terreno, utilizando los criterios contenidos en el
documento "criterios orientativos para calificar los indicadores", y el propio juicio de
los evaluadores. [57]
Cada indicador se presenta en una ficha que contiene los siguientes campos:
• Código de la institución evaluada
• Identificación del indicador y factor al que pertenecen, incluyendo
código.
• Descripción del indicador
• Información utilizada, fiaente y documento
• Valoración del indicador
• Nombre y firma del evaluador
• Fecha
45
Francisco Alba Juez
• Justificación de la valoración (dorso)
• Recomendaciones y otros comentarios
El auditor o evaluador debe cumplimentar los campos 1,4,5,6,7,8, y 9.
También se le provee al evaluador de una Planilla Resumen, en la que se indican los
factores y subfactores de manera abreviada y cada uno de los indicadores mediante su
código.
Junto a cada indicador aparece una casilla en blanco en la que debe trasladarse, en
forma numérica, la calificación otorgada a cada indicador, con el objeto de poder
obtener una visión de conjunto de manera más sencilla.
4.3.3.INDICES DE CALIDAD
Con el objeto de que el auditor o evaluador pueda emitir un juicio globalizado acerca de
cada factor o subfactor, con la misma escala de valoración utilizada para los indicadores
correspondientes, en la parte inferior de la Planilla Resumen de Evaluación se han
previsto unas casillas para indicar las evaluaciones globales en forma de índices de
calidad .
Estos son:
11: índice de calidad de elaboración del Plan de Estudios
11.1 : Participación
11.2: Metodología
11.3: Contenido
11.4: Puesta en marcha
12: índice de condiciones de Ingreso de los Estudiantes
13: índice de calidad del Proceso de enseñanza - aprendizaje
13.1: Gestión educativa
13.2: Recursos humanos
13.2.1: Profesorado
13.2.2: Personal de servicios
13.3; Recursos materiales
13.3.1: Instalaciones
13.3.2: Equipamiento
13.4: Factores didácticos
I 4: índice de calidad de resultados inmediatos
15: índice de calidad de integración
La calificación de cada uno de estos índices, tomará valores de 1 a 5 como en el caso de
los indicadores y con análoga equivalencia cualitativa, pero no tiene porque coincidir
con el valor medio de las calificaciones otorgadas a los indicadores de su grupo, ya que
ello supondría atribuir el mismo peso a cada uno, lo cual no tiene ningún fundamento
46
Francisco Alba Juez
teórico ni práctico. Por el contrario, se trata de recoger el juicio global que, a la luz de
todo análisis realizado y a las valoraciones de los indicadores, establece el auditor y
evaluador. [57]
A continuación y a modo de ejemplo, se incluye una Ficha de Evaluación y una Planilla
Resumen.
CRE-COLUMBUS
Factor
PLAN DE ESTUDIOS
(Contenido)
Descripción del indicador
INSTITUCIO^ 1 Código
SISTEMA DE EVALUACIÓN DE LA CALIDAD DE
LAS ENSEÑANZAS DE INGENIERÍA - SECAI
Indicador
Orientacic
adecuaciói
nes metodológicas y su
1 a los objetivos
Código
13003
Con este Indicador se pretende:
"DETERMINAR LA VARIEDAD DE ORIENTACIONES METODOLÓGICAS CONTENIDAS EN EL
PLAN, FACTIBLES DE SER UTILIZADAS EN LA REALIZACIÓN DE LAS ENSEÑANZAS Y QUE
GUARDEN UN ALTO NIVEL DE CONGRUENCIA CON LOS PROPÓSITOS DE APRENDIZAJE
QUE SE INTENTAN LOGRAR"
SE PERSIGUE DETERMINAR LA COHERENCIA ENTRE METODOLOGÍA PREVISTA Y
OBJETIVOS PROGRAMADOS".
Información utilizada
• ORIENTACIONES METODOLX)GICAS CONTENIDAS EN EL
PLAN
OBJETIVOS DE LAS ENSEÑANZAS
Fuente
Valoración del indicador
Influencia en la calidad de las enseñanzas
(carreras) de ingeniería, de los elementos
representados por el indicador
Nombre del auditor:
Muy positiva
Positiva
Neutra
Negativa
Muy negativa
Sin calificación por falta
de datos u otras razones
5
4
3
2
1
0
Documento
Firma:
Fecha:
47
Francisco Alba Juez
PLANILLA DE RESUMEN
CRE-COLUMBUS
PLAN DE ESTUDIOS
PARTICIPACIÓN 1 CONTENIDO
11001
11002
11003
113001
13002
113003
113004
METODOLOGÍA I
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
113005
13006
13007
H fSJ* MARCHA
M400Í
14002
14003
14004
14005
1 Il3
1 Il4
l l =
SISTEMA DE EVALUACIÓN DE LA CALIDAD
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
1. ESTUDIANTES
20001
20002
20003
20004
20005
20006
h =
PROCESO DE ENSEÑANZA
„c„<„.
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
P. SERVICIOS
32201
32202
32203
32204
l31
32101
32102
32103
32104
32105
32106
32107
32108
32109
32110
32111
32112
Il21
I322
I32
INSTALACIONES
33101
33102
33103
33104
33105
33106
33107
EQUIPOS
33201
33202
33203
33204
33205
33206
I331
1 '"' 1 I33
1} =
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
—
F. DIDÁCTICOS
34001
34002
34003
3400434005
34006
34007
34008
34009
34010
34011
34012
34013
34014
1
RESULTADOS INTEGRACIÓN
40001
40002
40003
40004
40005
1
50001
50002
50003
50004
50005
50006
50007
50008
<» 1 I
l4= l5=
48
Francisco Alba Juez
5. METODOLOGÍA PARA EL ANÁLISIS Y OPTIMIZACION DEL MODELO
SECAI
5.1. APLICACIÓN AL MODELO SECAI
Como ya se ha dicho, el objetivo particular de esta Tesis es realizar el análisis y optimizacion
del modelo SECAI, basado todo esto en la aplicación de dicho modelo en nueve carreras de
Ingeniería, de cinco Universidades.
Las Universidades y carreras de Ingeniería donde se aplicó el modelo son las siguientes :
1. UNIVERSIDAD: P.J.B.C.
CARRERA: Ingeniería Electrónica
2. UNIVERSIDAD: N.M.P.A.
CARRERA: Ingeniería Eléctrica y Electrónica
3. ESCUELA: P.N.Q.E.
CARRERA: Ingeniería Eléctrica y Electrónica
4. UNIVERSIDAD: P.M.E.
CARRERA: Ingeniería Técnica Aeronáutica
5. UNIVERSIDAD: C.V.CH.
CARRERA: Bioquímica
CARRERA: Ingeniería Eléctrica
CARRERA: Ingeniería Mecánica
CARRERA: Ingeniería Química
CARRERA: Ingeniería Industrial
Para realizar el análisis y optimizacion del modelo se contó con las evaluaciones internas
(CEI) y externas (CEE) de las nueve carreras, plasmadas en las respectivas Planillas
Resumen, y con el documento generado en la III Reunión de Expertos en Calidad de las
Enseñanzas de la Ingeniería (GECEI) realizada en Cartagena de Indias - Colombia.
El Comité de Evaluación Interna (CEI) estuvo constituido por cinco evaluadores por Carrera.
Puesto que se evaluaron nueve carreras, en la Evaluación Interna de las mismas participaron
cuarenta y cinco evaluadores internos.
El Comité de Evaluación Externa (CEE) estuvo constituido por tres evaluadores por carrera.
Puesto que se evaluaron nueve carreras, en la Evaluación Externa de las mismas participaron
veintisiete evaluadores externos.
El análisis realizado es fundamentalmente de naturaleza estadística. Los datos aportados son
de tres niveles:
I FACTORES
II SUBFACTORES
III INDICADORES
49
Francisco Alba Juez
En general podemos decir que existen dos tipos de datos: Paramétricos y no - Paramétricos.
Los Paramétricos son los que emergen de niveles de medición intervalar, y responden o se
aproximan a una distribución normal. En cambio, los no - Paramétricos son los que provienen
de niveles de medición nominal u ordinal, o bien, siendo de origen intervalar, su distribución
difiere notablemente de la normal.
En nuestro caso, los datos son de orden, vale decir, ordinales, y por tanto, hubiese
correspondido obtener un coeficiente de correlación no - Paramétrico de Pearson.
Los resultados no - Paramétricos o de distribución libre, tales como el de Pearson, con
frecuencia suponen un desconocimiento acerca de las correspondientes distribuciones
poblacionales, excepto quizá, de que son continuas. Tienen la ventaja de que los cálculos
involucrados son por lo general muy rápidos y fáciles de efectuar. Los datos no necesitan ser
mediciones cuantitativas, sino que pueden aparecer en forma de respuestas cualitativas como
"defectuoso" contra "no defectuoso", o a menudo son valores de una escala ordinal a la cual
se le asignan rangos. Otra ventaja de estos métodos, y quizá la más importante, es que están
sujetos a menos suposiciones restrictivas que sus contrapartes parametricas. No obstante, se
debe señalar, que hay una serie de desventajas asociadas con las pruebas no - parametricas. En
primer lugar, no utilizan toda la información proporcionada por la muestra. Como resultado
de este desperdicio, una prueba no - paramétrica será menos eficiente que el procedimiento
paramétrico correspondiente, cuando ambos métodos son aplicables. [52]
En consecuencia una prueba no - paramétrica requerirá un tamaño de muestra más grande que
la prueba paramétrica correspondiente para lograr la misma probabilidad de no cometer un
error de tipo I (se rechaza pudiéndose aceptar)
En resumen, si tanto una prueba paramétrica como una no - paramétrica son aplicables al
mismo conjunto de datos, se debe evitar, probablemente, la prueba no - paramétrica "rápida y
fácil", y efectuar la técnica paramétrica más eficiente. [52], [54]
Teniendo en cuenta esto, en nuestro caso se decidió asimilar los valores asignados a una
calificación, se intervalizaron los datos y se supuso un comportamiento paramétrico. Por
ejemplo : sean dos grupos de alumnos a y b. El grupo a está formado por los que saben
(Pérez, López, etc., etc.). El grupo b está formado por los que no saben (Gutiérrez, García,
etc., etc.). Estos son datos nominales. Dentro de los que saben están los que saben
muchísimo, mucho, poco, etc. Estos son datos ordinales. Si, además, decimos: Pérez sabe para
un 8, López para 6 y Rodríguez para 5, estamos estableciendo intervalos (que miden lo que
separa a uno de otro). Por tanto, si bien el nivel de medición es ordinal, en muchos casos,
como en el nuestro, se los puede procesar intervalarmente. [46]
Este concepto es el que nos permite construir la matriz de correlación, que en nuestro caso, se
trata de dos matrices de correlación, una con la valoración de los indicadores resultado de la
evaluación interna y otra con la valoración de los indicadores resultado de la evaluación
extema.
50
Francisco Alba Juez
5.2. MATRIZ DE CORRELACIÓN
El primer paso a dar en el camino hacia la optimización del modelo, es analizar la correlación
que existe entre los indicadores de cada factor. Por esto, se construye la matriz de correlación
con todos los indicadores, con lo cual obtendremos una matriz de 94 x 94, vale decir 94 filas
por 94 columnas.
A los efectos de explicar el método utilizado para analizar la relación entre los indicadores, se
propone el siguiente ejemplo sencillo : Supongamos los indicadores x, y, z. La correlación
entre los indicadores x e y se expresa como : p (x,y). Este coeficiente de correlación varia
entre los valores -1 y 1. Si p (x,y) se acerca a cero, esto implica que ambos indicadores no
están correlacionados, en cambio, si tiende a uno, la correlación es alta. Naturalmente p (x,x)
será igual a uno al igual que p (y,y) y p (z,z).
La matriz de correlación es:
X
y
z
1
p (y,x)
_ P (z,x)
P (x,y)
1
p (z,y)
P (x,z)
P (y,2)
1
El cálculo de esta matriz, se ha realizado con el Software estadístico STATGRAPH PLUS.
[59]
Para decidir que indicadores están correlacionados se realiza un test de hipótesis.
La hipótesis a probar es: "Los indicadores no están correlacionados".
Esto es equivalente a decir que el coeficiente de correlación es igual a cero, vale decir, p = 0.
Se fija un nivel de significación "P" para la prueba de 5%.
El nivel de significación "P" es la probabilidad de rechazar la hipótesis propuesta siendo esta
verdadera. Naturalmente esta probabilidad debe ser baja. Luego, si el nivel de significación
"P" es menor o igual que 0,05, se rechaza la hipótesis. Lo cual implica que los indicadores
están correlacionados.
Por tanto, se adopta como primer criterio, trabajar con un nivel de confianza del 95% para
seleccionar los indicadores que están correlacionados lo cual, en primera instancia, nos
permitiría eliminar todos aquellos indicadores que presentan una correlación con un nivel de
confianza mayor o igual al 95%. [52]
Como se analizan todos los indicadores, se obtienen dos matrices de orden 94 x 94, es decir
94 filas, por 94 columnas, que se presentan como Anexo I y IL
51
Francisco Alba Juez
A continuación y a modo de ejemplo se incluye la primer página de la matriz de correlación,
resultado de la evaluación interna y la primer página de la matriz de correlación, resultado de
la evaluación externa, con la explicación de cada uno de los valores correspondiente a cada
indicador.
Matriz de Correlación Evaluaciones Internas
Sample Correlations
AllOOl
AllOOl
1.0000
( 9)
0.0000
A11002
0.7003
( 9)
0.0356
A11003
0.7802
( 9)
0.0131
A12001
0.4605
( 9)
0.2122
A120020.2649
{ 9)
0.4909
A12003
0.4318
( 9)
0.2458
A11002 0.7003
( 9)
0.0356
1.0000
( 9)
0.0000
0.7559
( 9)
0.0185
0.6576
( 9)
0.0542
0.2671
( 9)
0.4872
0.6786
( 9)
0.0445
A11003 0.7802
( 9)
0.0131
0.7559
( 9)
0.0185
1.0000
( 9)
0.0000
0.3107
{ 9)
0.4158
0.1331
( 9)
0.7329
0.7357
( 9)
0.0239
A12001 0.4605
( 9)
0.2122
0.6576
( 9)
0.0542
0.3107
( 9)
0.4158
1.0000
( 9)
0.0000
0.4391
( 9)
0.2370
0.5871
( 9)
0.0965
A12002 0.2649
( 9)
0.4909
0.2671
( 9)
0.4872
0.1331
( 9)
0.7329
0.4391
( 9)
0.2370
1.0000
( 9)
0.0000
0.0486
( 9)
0.9013
A12003 0.4318
( 9)
0.2458
0.6786
( 9)
0.0445
0.7357
( 9)
0.0239
0.5871
( 9)
0.0965
0.0486
( 9)
0.9013
1.0000
( 9)
0.0000
A12004 0.2979
( 9)
0.4362
0.1443
( 9)
0.7110
0.0955
( 9)
0.8070
0.6170
( 9)
0.0768
0.8552
( 9)
0.0033
0.1650
( 9)
0.6715
A12005 0.7859
{ 9)
0.0120
0.6929
( 9)
0.0385
0.9166
( 9)
0.0005
0.4031
( 9)
0.2821
0.4452
( 9)
0.2298
0.6701
( 9)
0.0483
A12006 0.1860
( 9)
0.6318
0.3154
( 9)
0.4083
-0.0542
( 9)
0.8899
0.6317
( 9)
0.0680
0.8635
( 9)
0.0027
0.0819
( 9)
0.8340
A12007 0.8341
( 9)
0.0052
0.7071
( 9)
0.0331
0.8185
( 9)
0.0070
0.2325
( 9)
0.5472
0.1202
( 9)
0.7581
0.5808
( 9)
0.1010
A13001 0.8466
( 9)
0.0040
0.6108
( 9)
0.0806
0.8254
( 9)
0.0061
0.3113
( 9)
0.4148
0.1187
( 9)
0.7611
0.4800
( 9)
0.1910
A13002 0.4423
( 9)
0.2332
0.7500
( 9)
0.0199
0.8504
( 9)
0.0037
0.3699
( 9)
0.3272
0.1457
( 9)
0.7084
0.8571
{ 9)
0.0031
A13003 0.6266
( 9)
0.0709
0.6250
( 9)
0.0719
0.7323
( 9)
0.0249
0.3288
( 9)
0.3876
0.2428
( 9)
0.5290
0.7143
( 9)
0.0306
Coefficient (sample size) significance level
52
Francisco Alba Juez
Matriz de Corre lac ión Evaluaciones Externas
Sample Correlations
AllOOl
AllOOl
1.0000
( 9)
0.0000
A11002
0.7750
( 9)
0.0142
A11003
0.5518
( 9)
0.1235
A12001
0.7836
( 9)
0.0125
A12002
0.2229
{ 9)
0.5642
A12003
0.6877
( 9)
0.0406
A11002 0.7750
( 9)
0.0142
1.0000
( 9)
0.0000
0.5287
( 9)
0.1434
0.7836
{ 9)
0.0125
0.3001
( 9)
0.4326
0.4779
( 9)
0.1932
A11003 0.5518
{ 9)
0.1235
0.5287
( 9)
0.1434
1.0000
( 9)
0.0000
0.1163
( 9)
0.7657
-0.1127
( 9)
0.7729
0.2704
( 9)
0.4816
A12001 0.7836
{ 9)
0.0125
0.7836
( 9)
0.0125
0.1163
( 9)
0.7657
1.0000
( 9)
0.0000
0.3887
( 9)
0.3012
0.6970
( 9)
0.0369
A12002 0.2229
( 9)
0.5642
0.3001
( 9)
0.4326
-0.1127
( 9)
0.7729
0.3887
( 9)
0.3012
1.0000
( 9)
0.0000
-0.2479
( 9)
0.5202
A12003 0.6877
( 9)
0.0406
0.4779
( 9)
0.1932
0.2704
( 9)
0.4816
0.6970
( 9)
0.0369
-0.2479
( 9)
0.5202
1.0000
( 9)
0.0000
A12004 0.0978
( 9)
0.8023
0.0578
( 9)
0.8825
-0.4237
( 9)
0.2558
0.3903
{ 9)
0.2990
0.7536
( 9)
0.0190
-0.0456
( 9)
0.9072
A12005 0.8499
( 9)
0.0037
0.7609
( 9)
0.0173
0.5762
( 9)
0.1044
0.6767
( 9)
0.0453
0.2779
( 9)
0.4690
0.5990
( 9)
0.0883
A12006 0.1423
( 9)
0.7149
0.1023
( 9)
0.7934
-0.4803
( 9)
0.1907
0.4590
( 9)
0.2140
0.7291
( 9)
0.0258
0.1203
( 9)
0.7579
A12007 0.7609
( 9)
0.0173
0.6275
{ 9)
0.0704
0.5762
( 9)
0.1044
0.3765
( 9)
0.3179
-0.1186
( 9)
0.7611
0.4746
( 9)
0.1968
A13001 0.7465
( 9)
0.0209
0.5339
( 9)
0.1387
0.3628
( 9)
0.3373
0.6516
( 9)
0.0572
0.0162
( 9)
0.9670
0.7622
( 9)
0.0170
A13002 0.5164
{ 9)
0.1546
0.6132
( 9)
0.0791
0.5433
( 9)
0.1306
0.4047
( 9)
0.2800
-0.3764
( 9)
0.3181
0.7524
( 9)
0.0193
A13003 0.8106
{ 9)
0.0080
0.8944
( 9)
0.0011
0.4074
( 9)
0.2764
0.8627
( 9)
0.0028
0.3260
( 9)
0.3920
0.6777
( 9)
0.0449
Coefficient (sample size) significance level
53
Francisco Alba Juez
A los efectos de dar una explicación rápida de lo que significa esta sucesión de
números, tomemos por ejemplo, el indicador 12005 y el 11003 de la matriz de las
evaluaciones internas. Debajo de éste, aparecen los siguientes valores:
0,9166 que es el factor o coeficiente de correlación
(9) que es el número de datos
0,0005 que es el nivel de significación
Por lo tanto, el propio programa, nos da el coeficiente de correlación, el nivel de
significación y consecuentemente el nivel de confianza con que se trabaja, que para el
caso elegido en el ejemplo será:
(100 X 1) - (0,0005 X 100) = 99,95%
100 - 0,05 = 99,95% que es el nivel de confianza.
Por otra parte, dado que la decisión ha sido trabajar con un nivel de confianza del 95%,
esto implica (Lotera Sachs: Estadística Aplicada, Tabla 5.13 pág. 358-Ed. Labor-1978)
que para 9 datos corresponde un coeficiente o factor de correlación de 0,666. Por
encima de este valor hay significación correlativa, por debajo no la hay. Por tanto, si se
iguala o supera el valor tabulado (0,666), para 9 datos y test bilateral (que es nuestro
caso), se rechaza la hipótesis nula y se acepta la alternativa. [60]
En función de todo esto, de la matriz de correlación se seleccionarán todos aquellos
indicadores con un nivel de significación menor o igual a 0,05 (nivel de confianza igual
o mayor que el 95%) y con un factor de correlación igual o mayor a 0,666.
Dado que la ejecución de dicha matriz a través del software Statgraph Plus ha originado
más de 100 páginas, para cada una de ellas (evaluación interna y externa), a
continuación y por razones de espacio sólo se transcriben los resultados de la prueba de
hipótesis en el cuadro siguiente, donde todos los indicadores correlacionados entre si
con un factor de correlación igual o mayor de 0,666 y un nivel de confianza del 95% se
han colocado en una misma columna, habiéndose quitado ya los indicadores
correlacionados que se repiten, vale decir: esta claro que si el indicador 11001 esta
correlacionado con el 11003, el 11003 estará correlacionado con el 11001, pero en este
caso ya no se lo coloca en la columna correspondiente por cuanto dicha correlación ya
ha sido verificada.
54
Francisco Alba Juez
Cuadro I: Correlación de cada Indicador con los demás con un
nivel de confianza de 95%, Producto de la Evaluación Interna
Indicadores
11001
11002
11003
12005
12007
13001
14003
14004
20003
20005
31007
32101
32106
33104
33206
34003
34007
34010
34014
40003
40004
11002
11003
12003
12005
12007
13002
14002
14003
14004
14005
31010
32109
33107
33206
34003
34014
40001
40003
40004
50004
50007
11003
12003
12005
12007
13001
13002
13003
13005
14003
14004
20005
31006
31007
32101
32103
32106
33104
34003
34004
34005
34007
34010
34014
40003
40004
50004
12001
20002
32107
32109
32203
33206
12002
12004
12006
13007
20003
31004
31005
31009
32104
32112
34001
34002
40005
12003
12005
13002
13003
14001
14004
14005
31002
31010
32109
32203
33201
33204
34001
34004
34007
34008
34009
50008
12004
12006
13007
31005
31009
32107
32109
32112
34002
12005
12007
13001
13002
13003
13005
14003
14004
14005
20003
20005
31006
31008
32101
32103
32106
32109
33104
33106
33204
34001
34003
34004
34005
34007
34010
34014
40003
40004
50004
50008
12006
31009
32112
12007
13001
13003
13005
14003
14004
20006
31007
32101
32105
32108
33104
33203
34003
34005
34007
34010
34014
40001
40002
40003
40004
50001
50004
55
Francisco Alba Juez
13001
13003
14003
20005
31007
32101
33104
34003
34005
34014
40003
40004
13002
13005
14001
14002
14004
14005
31001
31002
31006
31008
31010
32103
32109
33107
34003
34004
34007
34008
34010
34014
40003
40004
50004
50008
13003
13005
14005
20006
3100731010
33102
33104
33204
34003
34004
34005
34014
40003
40004
ndicadores
13004 13005
14003
14004
20005
31001
31010
32101
32103
32105
32202
33104
33107
34003
34004
34005
34010
34014
40001
40003
40004
50004
13006
34009
13007
20003
31005
31009
34001
34002
56
Francáco Alba Juez
Indicadores
14001
14004
14005
31006
31008
31010
32103
32109
32205
33201
33204
33205
34004
34010
50008
14002
14003
14004
31010
32203
32110
34003
34014
40001
50004
50007
14003
14004
20003
20005
32101
32103
33107
34003
34010
34014
40001
40003
40004
50004
50007
14004
14005
20004
20006
31003
31006
31010
32103
32105
32106
32107
32108
32109
33204
33206
34003
34007
34010
34014
40003
40004
50004
50008
14005
31001
31002
31006
31008
31010
32103
32109
33107
33201
33204
34004
34008
40003
50004
50008
Indicadores
20001
20002
20003
20002
20003
20003
31009
32101
34001
34002
40001
40004
50004
20004
20006
32203
33106
33201
33204
33205
50001
50008
20005
32101
32102
32202
34010
40003
40004
50004
20006
32203
33203
33204
33205
33206
34003
34011
34014
50001
50008
57
Francisco Alba Juez
Indicadores
31001
31002
31006
31010
32103
32105
33107
34008
34012
34013
50008
31002
31010
34004
34008
31003
32102
32105
32108
34007
34008
34010
50008
31004
31005
32104
32112
34013
31005
31006
32104
32112
34002
31006
31008
31010
32103
32109
33107
34004
34007
34008
34010
40003
50004
50008
31007
32101
33104
33206
34003
34005
34006
34014
40003
40004
31008
32103
33107
34004
40003
40005
50004
31009
34001
34002
40005
31010
32103
33107
34003
34004
34014
50004
Indicadores
32101
32102
32106
32202
33104
34001
34005
34006
34007
34010
40003
40004
50004
32102
32105
32106
32108
32111
32202
34001
34010
40003
50004
32103
32111
33107
34004
34010
34013
40001
40003
50004
50008
32104
32111
34001
34013
50005
32105
32108
34007
34010
34013
50008
32106
32110
33106
33203
33204
34001
34006
34007
34010
40003
40004
50002
58
Francisco Alba Juez
Indicadores
32107
32109
32108
34007
34010
40003
50008
32109
33201
33204
50004
50008
32110
32111
34006
50002
50003
50007
32111
33206
50002
50003
32112
40005
Indicadores
32201
32203
33101
32202 32203
50001
50008
32204
33101
33103
33105
33203
33205
34011
50001
33101
33201
33202
34011
33102
33201
33202
33204
33103
33203
33205
34011
ndicadores
33104
33203
34003
34005
34006
34014
40002
40003
40004
33105
34011
50002
50003
50006
33106
33203
33204
34001
34007
34010
40002
50008
33107
34004
40001
40003
Indicadores
33201
33204
34009
40005
50008
33202 33203
33204
34006
34007
34011
40002
50002
33204
33205
34004
34007
34009
34010
40003
40004
50001
50008
33205
34011
34012
40002
50001
50008
33206
50001
59
Francisco Alba Juez
Indicadores
34001
34002
34010
40003
40004
34002
13007
34003
34004
34005
34014
40001
40003
40004
50004
34004
34005
34014
40003
40005
50004
34005
34006
34014
40003
40004
34006
40002
50002
50003
34007
34009
34010
40003
40004
50004
50008
Indicadores
34008
34012
50008
34009 34010
40002
40003
40004
50004
50008
34011
34012
40002
50001
34012
40002
34013 34014
40001
40003
40004
50004
Indicadores
40001
40003
40004
50004
50007
40002
40003
40003
40004
50004
40004
50004
40005
Indicadores
50001
50007
50002
50003
50003
50007
50004
50005
50006
50005 50006 50007 50008
Realizando el mismo procedimiento anterior para las evaluaciones externas, ios
resultados son los siguientes:
60
Frandsco Alba Juez
Cuadro II: Correlación de cada Indicador con los demás con un
nivel de confianza de 95%, Producto de la Evaluación Externa
Indicadores
11001
11002
12001
12003
12005
12007
12001
12003
13001
13003
14002
14003
20003
32201
33104
33105
33107
33206
34005
34010
40003
40004
50004
11002
12001
12005
13003
13004
14002
14003
14004
14005
32110
34010
40003
50004
11003
31006
32103
34007
12001
12003
12005
13003
13004
14002
32102
32203
33106
33204
33206
34010
12002
12004
12006
13007
31005
32112
34001
34002
40005
12003
13001
13002
13003
31002
33104
33107
33203
34001
34003
34004
34005
34010
34014
50005
12004
12006
31005
34012
12005
13001
13003
13004
14002
14003
14004
31006
32107
32109
32110
32201
33107
34005
34007
40003
40004
50004
12006
31005
31009
32112
33202
12007
13005
14002
14003
33104
33107
34003
34005
40002
40003
61
Francisco Alba Juez
Indicadores
13001
13003
13004
33104
34003
34004
34005
40004
50005
13002
14002
14004
14005
31002
31006
31010
33107
34003
34004
34005
34014
40003
13003
13004
14002
14003
14004
14005
32107
32109
32110
33107
34005
34010
40003
40004
50004
13004
14003
14004
14005
31006
32107
32109
34005
34007
40004
50004
13005
32202
33107
34012
40003
50006
13006 13007
20002
31005
33103
34001
34002
Indicadores
14001
14002
14004
14005
31002
31008
31010
33205
14002
14003
14004
14005
32110
32203
33105
33107
33204
33206
34008
34010
40003
50004
50007
14003
14004
20003
31006
32103
32110
33107
34005
40003
40004
50004
14004
14005
31006
31008
31010
32107
32109
32110
33107
34005
34014
40003
50004
14005
31002
31006
31008
31009
31010
32107
32109
32110
33107
34008
34014
40003
62
Francisco Alba Juez
Indicadores
20001
20003
32111
34014
20002
20003
20004
32201
32203
33103
33105
33201
33203
34008
34009
20003
31009
32111
33206
34010
34014
20004
20006
31001
31004
32201
32202
32203
33103
33105
33201
33206
34011
20005
20006
34008
40002
20006
31001
32108
32111
32203
33105
33205
33206
40002
Indicadores
31001
31003
32103
32108
32111
33105
31002
31007
31009
31010
33203
33205
34003
34008
34014
31003
32103
32108
33105
31004
32111
32112
32203
33106
31005
31006
32112
34002
31006
31008
32103
32107
32110
33107
34005
34013
34014
40003
50004
31007
32202
32204
33101
33102
33104
33202
33203
33205
33206
34003
34004
34010
34011
34014
31008
31010
32105
32106
32110
32111
31009
31010
32112
33106
33202
34014
31010
33107
34003
34004
34014
40003
63
Francisco Alba Juez
Indicadores
32101
32102
33103
33106
33201
. 33204
32102
32104
32108
32111
33204
50005
32103
32105
32110
32111
34013
50004
32104
32111
50005
32105
32106
32106
32110
34012
34013
Indicadores
32107
32109
34007
40004
50004
32108
32111
32109
34007
32110
40003
50004
32111
33205
34013
32112
Indicadores
32201
32202
33105
33206
50004
50007
32202
33105
33203
34011
32203
33103
33105
33106
33201
33203
33204
33206
34008
34010
32204
33103
34011
40001
50001
50003
50008
Indicadores
33101
33201
34001
34003
40005
50002
33102
33202
34004
50002
33103
33201
33203
33205
34008
34011
33104
33203
33206
34003
34004
34005
34010
33105
33206
34010
40001
50001
50007
33106
33201
33202
33204
33206
34010
33107
3400334004
34005
34014
40003
50004
64
Francisco Alba Juez
Indicadores
33201
33203
33204
34008
33202 33203
33204
34003
34008
34010
34011
34014
33204
33206
34008
34010
33205
34011
33206
34003
34010
50007
34001
34002
34012
40005
34002
40005
34003
34004
34005
34010
34014
40003
50005
ndicadores
34004
34005
34010
34014
40003
50005
34005
34006
34010
34014
40003
40004
50004
34006 34007
40004
50002
Indicadores
34008
34009
34010
34009 34010
34014
34011
50003
34012
40005
34013 34014
40003
Indicadores
40001
50001
50003
50007
50008
40002 40003
50004
40004
50004
40005
Indicadores
50001
50003
50007
50008
50002
50003
50006
50003
50008
50004
50005
50006
50007
50005 50006 50007 50008
Tanto de los cuadros correspondientes a la matriz de correlaciones de las evaluaciones
internas como de la matriz de correlaciones de las evaluaciones externas, se desprende
que existe un excesivo número de correlaciones, cosa que hace casi imposible la
definición de algún criterio coherente y estable para la eliminación y/o agrupamiento de
65
Francisco Alba Juez
los indicadores. No obstante, posteriormente se utilizarán estas matrices como uno de
los elementos que ayudarán a tomar decisiones respecto de la conveniencia o no de
agrupar determinados indicadores
A continuación, y a los efectos de estar en posesión de una herramienta más, que nos
ayude en la toma de decisiones referente a la eliminación y agrupación de indicadores,
tendientes a lograr la optimización buscada, se procede a realizar el análisis estadístico
mediante el método de Análisis de Componentes Principales, factor por factor.
5.3. ANÁLISIS DE COMPONENTES PRINCIPALES (ACP)
A diferencia de los resultados obtenidos por la matriz de correlación en forma general,
aplicamos ahora el método de ACP, donde los resultados se restringirán a factor por
factor.
Esto se realiza sin tener en cuenta los resultados obtenidos anteriormente a través de la
matriz de correlación. La base de datos es la misma, es decir, la planilla resumen de
evaluación de cada carrera.
El ACP es uno de los métodos más utilizados en el análisis multivariable. Consiste en
una técnica de reducción de la información disponible sobre un conjunto de elementos,
en los cuales se han tomado diversas observaciones. Lo que se hace es condensar la
matriz de correlación entre las variables, en unos "componentes principales" de la
variabilidad total. Dicho de otra forma, el ACP es una técnica estadística que permite
transformar un conjunto de variables intercorrelacionadas en otro conjunto de variables
no correlacionadas, denominadas factores. Estos factores son combinación lineal de las
variables originales. [56]
En el procedimiento desarrollado por Hotelling (1933: 417-441), el primer componente
principal que se extrae es el que resume lo mejor posible la información contenida en la
matriz de datos original. Es decir, el que contribuye mejor a explicar la varianza total. El
segundo componente principal es el que resume lo mejor posible la información
restante, es decir, el que aporta un máximo de la varianza residual resultante, siendo
independiente del primero. La secuencia puede continuar, extrayendo factores hasta
explicar la varianza total. [56]
Por lo tanto el ACP es una técnica que se basa en el análisis de las matrices de varianza
y covarianza con el fin de describir sus variables o componentes principales, es decir las
que tienen un mayor poder explicativo de la variación total del sistema.
Esta técnica, se fundamenta, según C. Taylor (1979, 101), en suponer que la matriz de
varianza - covarianza es el reflejo de una estructura subyacente. De ahí que como
afirman Johnson y Wicheni (1988), aunque se necesitan todas las variables (o
indicadores) para representar la variabilidad, a veces, puede ser explicada en su mayor
parte por un número (menor) de variables componentes principales.
De acuerdo a lo anterior, el análisis de componentes principales se realiza para:
66
Francisco Alba Juez
- Reducir un conjunto de indicadores (o variables) a la síntesis de unos pocos
destacados.
- Mostrar que variables pueden ser omitidas en un sistema sin alterar la información
básica.
Uno de los inconvenientes para aplicar esta técnica, es que depende de las diversas
unidades de escala de medida que pueden haber sido empleadas en las variables, las
cuales pueden influir en el resultado del análisis, por lo cual, el uso más adecuado del
análisis de componentes principales es cuando se utiliza una escala común de medida
para todas las variables. [51]
En nuestro caso, objetivamente la escala de medida es la misma, el problema reside en
lo que es "bueno" y "malo", "regular" o un "5" o un "3" para cada evaluador.
Algebraicamente las componentes principales (CP) son una aplicación de los
autovalores y autovectores, vale decir, la varianza máxima explicada por cada indicador
y los factores ortogonales de cada variable o indicador.
Los componentes principales (CP) presentan las siguientes propiedades matemáticas:
1- Son ortogonales, es decir, no correlacionados o independientes entre si.
2- Representan una transformación de las variables (o indicadores) originales en los
que se alcanza su máxima varianza posible.
En términos geométricos, los componentes principales representan la selección de un
nuevo sistema de coordenadas en el que los nuevos ejes del sistema representan las
orientaciones con variabilidad máxima, y proporciona una descripción más simple de la
estructura de la covarianza. [51]
Si bien el análisis de componentes principales (ACP) se refiere y basa en la matriz de
varianza - covarianza, el procedimiento también se puede aplicar a la matriz de
correlación que se deriva de la matriz de varianza - covarianza (mediante su
estandarización). En tal caso, se da lugar a una modalidad del análisis factorial de los
más usados en la actualidad. [51]
En nuestro caso trabajaremos con la matriz de varianza - covarianza, donde se pueden
concretar los siguientes pasos:
1- Partir de una tabla de datos referentes a diferentes variables (o indicadores)
2- Calcular la matriz de varianza - covarianza
3- Determinar los autovalores de la matriz
4- Determinar los correspondientes autovectores
5- Obtener las CP rotando con los autovectores los valores de los datos iniciales, de
modo que resulten ortogonales o independientes entre si.
67
Francisco Alba Juez
6- Interpretar los resultados obtenidos, teniendo en cuenta que los autovalores
representan la varianza máxima explicada por cada indicador, y que los autovectores
son los factores ortogonales de cada variable (o indicador) [51]
El cálculo de las componentes principales (CP) se realizó utilizando el Software
estadístico MINITAB.
No obstante, a los efectos de presentar el fundamento matemático del ACP, veremos un
ejemplo sencillo; en dos variables para facilitar los cálculos y mostrar el procedimiento:
Supongamos los siguientes valores de una muestra de cinco factores en dos variables xi
y X2 (indicadores para nosotros)
F
1
2
3
4
5
7
Xl
2
14
8
16
10
10
X2
9
20
17
11
13
14
1- En primer lugar veremos si se puede realizar el ACP. Operativamente no existe
ninguna dificultad, e incluso puede tener significación, si bien es más apropiado
cuando el número de variables es más elevado.
2- Luego se halla la matriz de varianza - covarianza C
C =
var(x:,) cov(X|, x^ ̂
cov(;i:2,x,) vds{x^) j
r,̂ = var(x,) = ^
EK-^)'
n-\
Yl^\7ix{x^y
ZK-^)'
i=l
n-\
¿(x,^-x)(x,. - x )
COV ( X , , ^2 ) = COV ( X j , AT, ) = -^-^
n-\
68
Francisco Alba Juez
Xl
2
14
8
16
10
X2
9
20
17
11
13
Xi-JC
-8
4
-2
6
0
(xi-xf
64
16
4
36
0
120
(X2-X)
-5
6
3
-3
-1
(xi-x)'
25
36
9
9
1
80
(X|-x)(X2-Ar)
40
24
-6
-18
040
ri20 40^
C = 4 40
4
80
I 4 4 ;
C =
'30 10^
V 10 20
3 - Se hallan los autovalores de la matriz C, que los representaremos con la letra X, y se
obtienen como solución de la siguiente ecuación característica.
\C - ;il| = O
C = matriz de varianza - covarianza
I = matriz identidad
po
[10
10^
20J
f\ 0\
-X .0 i j V /
= 0
30-A 10
10 2 0 - 1
= 0
(30 - A) (20 - A)-10.10 = 600-30 ;i-20 A+ Â -100 = 0
500-50A + A' =0
\X, =36,2
[^2=13,8
4 - Cálculo de los autovectores
Los autovectores se obtienen resolviendo la ecuación característica
donde: (C -A , - I )y / = 0
69
Francisco Alba Juez
fi = autovectores
En este caso / = 1, 2 /. será/; para Xi y/2 para ^2
Determinemos entonces los / :
fi = [^..h - vector de componentes (z,, z^.. .z^)
donde z, son los componentes que se deben hallar.
En nuestro caso serán zy y z?.
Cabe aclarar que existirán tantos autovectores como autovalores. Por lo tanto, en el caso
del ejemplo serán/ y/2, y las dimensiones de los autovectores serán iguales al número
de estos, vale decir, si tenemos dos autovectores, cada uno de ello tendrá dos
dimensiones:
/ . =
Los autovectores son los vectores (no nulos) solución de (C - X, l ) / = O
^30 10^ (\ 0^
- A ; ^10 20y vO ly
/ = 0
í30-;iy 10 "I
10 20-Ay /=o
como ylj =36,2
^30-36,2 lOYz,^ (^\
^10 20-36,3y \^2) K^J
70
Francisco Alba Juez
-6,2.Zj+10.Z2 = 0
lO.z,-I6,2.Z2 = 0
Sumando miembro a miembro tenemos:
3,8.Zj -6,2.^2 =0r:>
3 8
22 = Zj - ^ = 0,62 Z,
6,2
Zj = 0,62 z.
Si zy es un valor cualquiera t,y í pertenece a los reales
Z2 = 0,62 /
• ^ l "
. ^ 2 .
/
0,62 /
^t \ ^ 1
0,62
y este es el vector base que genera un nuevo espacio vectorial
/ •
1
0,62
Realizando lo mismo para Á2 tenemos:
Á2=13,S
30-^2 10
10 2 0 - A ,
^ 1
^2
=
0
0
71
Francisco Alba Juez
30-13,8 10
10 20-13,8
7,
=
0
0
16,2 10
10 6,2
^1
^2
=
0
0
16,2 zi + 10z2 = 0
10zi + 6,2z2=0
Sumando miembro a miembro
26,2zi +16,2z2=0 =>
^2 =
Z2 =
-26,2
16,2
-1,62 . zi
Si zi = t => Z2 = - l , 6 2 . /
^ 2 .
=
t
-1,62/
= /
1
-1,62
/ 2 =
1
1,62
La matriz de autovectores A será:
A =
( \ 1 '
0,62 -1,62,
Los componentes principales (CP) para xi estarán dados por:
72
Francisco Alba Juez
por ejemplo, para/i será
>̂ , =(-8)-( l) + (-5) .0,62-lU
para/2 será:
> ; ,=-8 . ( l ) + (-5)(-l,62)-0,l
(x, - jcj-l
-8
4
-2
6
0
(xj -x ) -0 ,62
-5(0,62)=-3,1
6(0,62H,72
3(0,62)=1,86
-3(0,62)=-1,86
I(0,62)=0,62
y\
-11,1
7,72
-0,14
4,14
0,62
yi
0,1
-5,72
-6,86
10,86
-1,62
[x, - x)- (- 1,62)
-5(-l,62)=8,10
6(-1,62)=-9,72
3(-l,62)=-l,86
-3 (-1,62)= 4,86
1(-1,62)=-1,62
Veamos ahora como se interpreta todo esto:
Varianza explicada por cada CP.
Importancia relativa —^
Varianza Total V.,. -'^^ 1.
i=\
Importancia relativa acumulada (IRA)
IRAr-Ẑ -
En el ejemplo: ^
36,2
X,+X. 36,2 + 13,8
= 0,724
73
Francisco Alba Juez
lo cual significa que el 72,4% es la proporción de la varianza total explicada por el
primer componente.
Para la segunda componente tendremos:
^ . = 1M = 0.276
A, + Á2 50
La segunda componente explica el 27,6% de la varianza. Para seleccionar los CP, se
analiza la varianza acumulada y se considera el número de CP que explican
aproximadamente entre el 90% y el 95% de la variación del sistema.
De esta manera, se pueden extraer indicadores posibles de ser eliminados o reagrupados,
con el nivel de confianza que se desee. De acuerdo con el criterio anterior, seguiremos
trabajando con un nivel de confianza del 95%).
5.3.1. ANÁLISIS DE CORRELACIÓN FACTORIAL
Tal como se ha dicho, a continuación realizaremos un análisis factor por factor
utilizando el método de Análisis de Componentes Principales (ACP), explicado más
arriba.
A los efectos de dar una rápida explicación de la información suministrada por el
software, se presenta la primera página de la matriz de covarianza del Método de
Análisis de Componentes Principales, factor por factor, de las Evaluaciones Internas y
Externas.
74
Francisco Alba Juez
Análisis de Componentes Principales
Evaluación Interna
Principal Component Analysis
Eigenanalysis of the Covariance Matrix
Eigenvalue
Proportion
Cumulative
Variable
11001
11002
11003
2.0941
0.828
0.828
PCI
-0.731
-0.624
-0.276
0.3430
0.136
0.964
PC2
0.676
-0.718
-0.169
0.0906
0.036
1.000
PC3
0.092
0.310
-0.946
Principal Component Analysis
Eigenanalysis of the Covariance Matrix
Eigenvalue
Proportion
Cumulative
7.5036
0.607
0.607
2.8109
0.227
0.834
1.0648
0.086
0.921
0.4450
0.036
0.957
0.2913
0.024
0.980
0.2043
0.017
0.997
0.0413
0.003
1.000
Variable
12001
12002
12003
12004
PCI
0.280
0.572
0.057
0.570
PC2
-0.300
0.122
-0.544
0.121
PC3
0.490
-0.375
0.477
0.219
PC4
0.415
0.354
0.028
-0.736
PC5
0.494
0.283
-0.393
0.073
PC6
0.394
-0.463
-0.475
0.169
PC7
-0.142
0.311
0.303
0,192
12005 0.103 -0.293 -0.102 -0.274 0.231 -0.443 -0.754
12006 0.505 0.042 -0.102 0.257 -0.680 0.245 -0.380
12007 0.022 -0.705 -0.568 -0.133 0.018 0.347 0.204
75
Francisco Alba Juez
Análisis de Componentes Principales
Evaluación Externa
MTB > Retrieve 'C:\C0LUMBUS\1PLAN.MTW'.
Retrieving worksheet from file: C:\C0LUMBUS\1PLAN.MTW
MTB > Erase Cl-C 1000
MTB > Erase Kl-K 1000
MTB > Erase MI-MI 00
MTB > Let K998 = '*'
MTB > Let K999 = 2.7182818
MTB > Let KIOOO = 3.14159265
MTB>PCAC1-C3;
SUBO Covariance;
SUBO ScoresC4-C6.
Principal Component Analysis
Eigenanalysis of the Covariance Matrix
Eigenvalue
Proportion
Cumulative
Variable
11001
11002
11003
2.3726
0.724
0.724
PCI
-0.667
-0.563
-0.488
0.5702
0.174
0.898
PC2
0.392
0.292
-0.872
0.3349
0.102
1.000
PC3
0.633
-0.773
0.026
MTB > Save C:\C0LUMBUS\2PLAN.MTW';
SUBC> Replace.
Principal Component Analysis
Eigenanalysis of the Covariance Matrix
Eigenvalue
Proportion
Cumulative
6.5258
0.486
0.486
4.3821
0.327
0.813
1.0517
0.078
0.891
0.9227
0.069
0.960
0.3096
0.023
0.983
0.1943
0.014
0.998
Eigenvalue 0.0304
Proportion 0.002
Cumulative 1.000
Variable PCI PC2 PC3 PC4 PC5 PC6
12001 0.332 0.255 0.001 0.045 0.766 -0.112
12002 0.475 -0.350 0.118 -0.577 0.162 -0.311
76
file://'C:/C0LUMBUS/1PLAN.MTW'
file://C:/C0LUMBUS/1PLAN.MTW
file://C:/C0LUMBUS/2PLAN.MTW'
Francisco Alba Juez
Como se puede ver, en esta matriz aparecen tres valores:
• Eingenvalue: que son los autovalores
• Proportion: que es la varianza proporcional
• Cumulative: que es la varianza acumulada
Tal como se ha explicado, lo que hace el Análisis de Componentes Principales es
transformar el sistema original en otro, en el que los nuevos ejes del sistema representan
las orientaciones con variabilidad máxima, proporcionando una descripción más simple
de la covarianza.
Una vez obtenido este nuevo sistema, que es el que se muestra en la matriz presentada
más arriba, el problema consiste, en primer lugar, en determinar cuántas variables
explicarán el mayor porcentaje deseado de la varianza (95% de confianza), o lo que es
lo mismo, cuántas variables puedo eliminar. En segundo lugar deberemos determinar
cuáles son esas variables.
El primer problema (cuántas variables se pueden eliminar) se resuelven mediante el
Eingenanalisys de la matriz de covarianza. Por ejemplo: si analizamos los tres primeros
indicadores, 11001, 11002 y 11003, vemos que el primer valor de varianza acumulada
es 0,828; el segundo 0,964 = 0,828 + 0,136, y el tercero es 1 = 0,828 + 0,136 + 0,036.
Por lo tanto entre el primer valor 0,828 y el segundo 0,136 tenemos el 96,4% de la
varianza explicada. Puesto que la decisión ha sido trabajar con un nivel de confianza del
95% (vale decir, tenemos que elegir la cantidad de componentes que expliquen el 95%)
de la varianza total de los datos), utilizando sólo dos componentesprincipales, ya
tenemos explicada la mayor varianza o el mayor porcentaje de la variación de los datos,
deseado. Y por lo tanto, puedo eliminar una variable.
El segundo problema (cuáles son las variables que me explican el mayor porcentaje de
la varianza), se resuelve analizando las componentes principales (PCI, PC2 y PC3) de
los indicadores bajo análisis, en este caso el 11001, 11002 y 11003, y seleccionando de
cada columna el indicador que presente el mayor coeficiente en valor absoluto, que a su
vez indica la mayor correlación.
Por ejemplo: en la columna de la componente principal 1 (PCI) vemos que el mayor
coeficiente lo tiene el indicador llOOI (0,731). Ese indicador queda seleccionado.
Pasamos ahora a la columna de la componente principal 2 (PC2) y vemos que el mayor
coeficiente lo tiene el indicador 11002 (-0,718), por lo tanto este indicador queda
seleccionado. Dado que se había determinado que con sólo dos indicadores tendríamos
explicados el mayor porcentaje de los datos deseado, los indicadores 11001 y 11002 son
los que quedan, pudiéndose eliminar o reagrupar el indicador 11003.
Si pasamos al grupo de indicadores del 12001 al 12007 y analizamos la varianza
acumulada, vemos que con cuatro variables tendremos explicado el 95,7%) de la
varianza total, y por tanto, podremos eliminar o reagrupar tres indicadores.
Analizando las columnas de los componentes principales de la misma fiDrma anterior,
vemos que los indicadores que quedan son el 12001, 12002, 12004 y 12007, pudiéndose
eliminar o reagrupar los indicadores 12003, 12005 y 12006.
77
Francisco Alba Juez
Todos los cálculos referentes al análisis de componentes principales, así como la
selección de los posibles indicadores a extraer, se han efectuado mediante el software
MINITAB, cuyos resultados se presentan a continuación en una planilla que permite
visualizar rápidamente los mismos, tanto para el caso de las Evaluaciones Internas como
para las Externas.
Aquí no aparece cada indicador con todos los que están relacionados porque no
trabajamos, como en el caso anterior, con la información global (Matriz de 94 x 94
indicadores), sino que lo hacemos factor por factor
Cuadro III: Evaluación Interna
Indicador
11001
11002
11003
eliminados
1
Eliminados
X
Nueva
Numeración
11001
11002
12001
12002
12003
12004
12005
12006
12007
3
X
X
X
12001
12002
12003
12004
13001
13002
13003
13004
13005
13006
13007
2
X
X
13001
13002
13003
13004
13005
78
Francisco Alba Juez
Indicador
14001
14002
14003
14004
14005
eliminados
2
Eliminados
X
X
Nueva
Numeración
14001
14002
14003
20001
20002
20003
20004
20005
20006
2
X
X
20001
20002
20003
20004
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
5 X
X
X
X
X
31001
31002
31003
31004
31005
32101
32102
32103
32104
32105
32106
32107
32108
32109
32110
32111
32112
6
X
X
X
X
X
X
32101
32102
32103
32104
32105
32106
32201
32202
32203
32204
1
X
32201
32202
32203
33101
33102
2
X
33101
79
Francisco Alba Juez
Indicador
33103
33104
33105
33106
33107
33201
33202
33203
33204
33205
33206
N°
Eliminados
2
Eliminados
X
X
X
Nueva
Numeración
33102
33103
33104
33105
33201
33202
33203
33204
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
5
X
X
X
X
X
34001
34002
34003
34004
34005
34006
34007
34008
34009
40001
40002
40003
40004
40005
1 X
40001
40002
40003
40004
50001
50002
50003
50004
50005
50006
50007
50008
2
X
X
50001
50002
50003
50004
50005
50006
Totales
94 36 36 58
80
Francisco Alba Juez
Se trabajó con 94 indicadores, y como se muestra, se pueden eliminar o reagrupar 36
por la correlación existente entre ellos. Por lo tanto, quedarían 58 indicadores.
Cuadro IV: Evaluación Externa
Indicador
11001
11002
11003
N°
eliminados
0
Eliminados Nueva
Numeración
11001
11002
11003
12001
12002
12003
12004
12005
12006
12007
4 X
X
X
X
12001
12002
12003
13001
13002
13003
13004
13005
13006
13007
3
X
X
X
13001
13002
13003
13004
14001
14002
14003
14004
14005
2
X
X
14001
14002
14003
20001
20002
20003
20004
20005
20006
2 X
X
20001
20002
20003
20004
31001
31002
31003
31004
31005
31006
31007
31008
4
X
X
X
31001
31002
31003
31004
31005
81
Francisco Alba Juez
Indicador
31009
31010
N°
eliminados
Eliminados
X
Nueva
Numeración
31006
32101
32102
32103
32104
32105
32106
32107
32108
32109
32110
32111
32112
6
X
X
X
X
X
X
32101
32102
32103
32104
32105
32106
32201
32202
32203
32204
1
X
32201
32202
32203
33101
33102
33103
33104
33105
33106
33107
2
X
X
33101
33102
33103
33104
33105
33201
33202
33203
33204
33205
33206
2
X
X
33201
33202
33203
33204
34001
34002
34003
34004
34005
34006
34007
34008
34009
4
X
X
X
34001
34002
34003
34004
34005
34006
82
Francisco Alba Juez
Indicador
34010
34011
34012
34013
34014
N°
eliminados
Eliminados
X
Nueva
Numeración
34007
34008
34009
34010
40001
40002
40003
40004
40005
1
X
40001
40002
40003
40004
50001
50002
50003
50004
50005
50006
50007
50008
3
X
X
X
50001
50002
50003
50004
50005
Totales
94 34 34 60
Se trabajó con 94 indicadores, y como se muestra, se pueden eliminar o reagrupar 34
por la correlación existente entre ellos. Por lo tanto, quedarían 60 indicadores.
A continuación se presenta el cuadro VII, resultado de las dos evaluaciones en conjunto
Cuadro V: Evaluación Interna - Externa
Indicador
11001
11002
11003
N°de
eliminados
1
Eliminados
X
Nueva
Numeración
11001
11002
12001
12002
12003
12004
12005
12006
12007
5 X
X
X
X
X
12001
12002
83
Francisco Alba Juez
Indicador
13001
13002
13003
13004
13005
13006
13007
N°de
eliminados
4
Eliminados
X
X
X
X
Nueva
Numeración
13001
13002
13003
14001
14002
14003
14004
14005
3 X
X
X
14001
14002
20001
20002
20003
20004
20005
20006
4 X
X
X
X
20001
20002
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
7 X
X
X
X
X
X
X
31001
31002
31003
32101
32102
32103
32104
32105
32106
32107
32108
32109
32110
32111
32112
8
X
X
X
X
X
X
X
X
32101
32102
32103
32104
84
Francisco Alba Juez
Indicador
32201
32202
32203
32204
N°de
eliminados
2
Eliminados
X
X
Nueva
Numeración
32201
32202
33101
33102
33103
33104
33105
33106
33107
2
X
X
33101
33102
33103
33104
33105
33201
33202
33203
33204
33205
33206
3
X
X
X
33201
33202
33203
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
6
X
X
X
X
X
X
34001
34002
34003
34004
34005
34006
34007
34008
40001
40002
40003
40004
40005
3 X
X
40001
40002
40003
85
Francisco Alba Juez
Indicador
50001
50002
50003
50004
50005
50006
50007
50008
N°de
eliminados
4
Eliminados
X
X
X
X
Nueva
Numeración
50001
50002
50003
50004
Totales
94 51 51 43
Tanto en la Evaluación Interna como en la Externa se eliminaron todos aquellos
indicadores que presentaban una correlación con un nivel de confianza mayor o igual al
95%, que como hemos visto resultó en una eliminación de 36 indicadores en la
Evaluación Interna y 34 en la Externa, y que finalmente, como se muestra en el Cuadro
V, entre ambas, teóricamente,se podrían eliminar 51 indicadores, habiéndose reducido,
en tal caso, los 94 indicadores iniciales, a sólo 43, lo cual, a primera vista no parece
recomendable, puesto que una reducción tan significativa de indicadores redundarla en
una perdida de infiarmación demasiado importante. Por tanto, es necesario realizar un
análisis de congruencia en base a conceptos técnicos y de experiencia respecto de la
correlación encontrada entre los indicadores, a los efectos de decidir cuales de éstos
serán los definitivos.
Antes de realizar este análisis, se presenta un análisis similar, realizado por SECAI, pero
basado sólo en el juicio de expertos, el cual servirá de apoyo y contrastación al análisis
de congruencia que se realizará posteriormente, y que estará basado en conceptos
técnicos y de experiencia y en la correlación estadística establecida por la Matriz de
Correlación y el método de Análisis de Componentes Principales (ACP), aplicados
ambos, a las Evaluaciones Internas y a las Externas.
En efecto, dos años después de haberse diseñado el Modelo SECAI y habiéndose ya
evaluado varias carreras de ingenieria de distintas universidades, se realizó una encuesta
a más de veinte expertos que habían actuado como evaluadores externos de SECAI, con
el fin de que diesen su opinión con respecto a los indicadores del modelo.
Como resultado de estas encuestas, se llegó a la conclusión de que los indicadores eran
demasiados y por tanto, se recomendaba tratar de reducirlos, ya fuese eliminando
algunos no demasiado importantes o agrupándolos en la forma más conveniente.
Las conclusiones de este grupo de evaluadores externos respecto de la pertinencia y
aplicabilidad de los indicadores fije la siguiente:
86
Francisco Alba Juez
5.4. EVALUACIÓN DE LA PERTINENCL\ Y APLICABILIDAD DE LOS INDICADORES, RESULTADO DE LAS ENCUESTAS A
EVALUADORES EXTERNOS.
RESULTADOS DE LAS ENCUESTAS A EVALUADORES EXTERNOS
Factor
P
L
A
N
de
E
S
T
U
D
I
O
S
Indicador
Participación
11001
11002
11003
Metodología
12001
12002
12003
12004
12005
12006
12007
Contenido
13001
13002
13003
Propuesta de los Expertos
Mantener
21 exp.
22 exp.
12 exp.
Mantener
20 e.xp.
20 exp.
20 exp.
20 exp.
17 exp.
13 exp.
20 exp.
Mantener
18 exp.
17 exp.
16 exp.
Modificar
1 exp.
Modificar
1 exp.
1 exp.
2 exp.
1 exp.
2 exp.
Modificar
2 exp.
lexp.
4 exp.
Agrupar
5 exp. con el 11001
4 e.xp. con el 11001 y 11002
Agrupar
1 exp.
1 exp. con el 13001
2 exp. con el 12004
1 exp. con el 12005, 13002, 13003 y
13004
1 exp. con el 12001
Agrupar
2 exp. con el 12004
4 exp. con el 12005
2 exp. con el 12005
Eliminar
5 exp.
Eliminar
1 exp.
2 exp.
6 exp.
2 exp.
Eliminar
Obsenaciones
Precisar la participación de los agentes extemos
Dificultad en la respuesta.
Todos coinciden que ya está incluido en el 11001 y 11002
Obser\aciones
Para un CE Extemo (extranjero) resulta muy difícil evaluar
un diagnóstico nacional.
Es necesario aclarar su contenido
Las condiciones de ingreso varían de un país a otro.
Poco claro v no medible.
Aclarar su significado.
No es relevante para juzgar la calidad de la enseñanza. Es
suficiente lo que entrega el indicador 12001.
Dificultad en la respuesta.
Es una repetición del indicador 12001.
Es poco relevante.
No es importante.
Dificultad en la respuesta.
Obsenaciones
Dificultad para responder.
Modificar la redacción.
Dificultad para responder.
Aclarar el significado del indicador y el concepto de
orientación metodológica.
87
Francisco Alba Juez
13004
13005
13006
13007
P. en
Marcha
14001
14002
14003
14004
14005
20 exp.
22 exp.
19 exp.
16 exp.
Mantener
20 exp.
21 exp.
20 exp.
21 exp.
17 exp.
1 exp.
2 exp.
2 exp.
Modificar
1 exp.
1 exp. con el 12005
1 exp. con el 34004
Agrupar
1 exp. con el 32001
1 exp. con el 14003
2 exp. con el 14002
1 exp. con el 14005
5 exp. con el 14004
4 exp.
Eliminar
Dificultad en la comprensión del indicador. Debería
suprimirse "orientaciones relativas" y cambiar por
congruencia entre conocimientos y objetivos.
Importante.
No es claro, repite de otro modo el indicador 13001.
Mientras existan diversidad de opiniones acerca de la
pertinencia y las ventajas de las actividades propedéuticas no
se puede considerar a ésta como un indicador general de
calidad.
Obsenacíones
Dificultad en la comprensión.
Factor
CONDICIONES
DE INGRESO
DÉLOS
ESTUDIANTES
Indicador
20001
20002
20003
20004
20005
20006
Propuesta de los Expertos
Mantener
17 exp.
12 exp.
10 exp.
12 exp.
18 exp.
18 exp.
Modificar
1 exp.
1 exp.
1 exp.
lexp.
Agrupar
3 e,\p. con el 20002,
20003 y 20004
6 exp. con el 20001,
20003 y 20004
8 exp. con el 20001,
20002 v 20004
4 e,\p. con el 34001,
20001, 20002 y 20003
Eliminar
1 e,\p.
4 exp.
3 exp.
5 exp.
4 exp.
3 exp.
Obser>'aciones
El indicador es importante en cuanto a su pretensión, pero la
infonnación en que se basa su valoración es escasa, en
algunos casos nula, y en consecuencia debería ser posible
disponer de una información mucho más profiínda del
historial académico del alumno. De lo contrario debería
eliminarse.
No existe homogeneidad en las notas.
Es suficiente la información generada en el 20001.
Es suficiente con el 20001.
Precisar el enunciado del indicador.
Cómo influye en la calidad de la carrera la procedencia y la
clase socioeconómica?
Es este punto importante?
88
Francisco Alba Juez
Factor
PROCESO
DE
ENSEÑANZA
Indicador
Gestión
Académica
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
Propuesta de los Expertos
Mantener
19exp.
16 exp.
17 exp.
20 exp.
19 exp.
18 exp.
ISe.xp.
20 exp.
20 exp.
19e.\p.
Modificar
1 exp.
3 exp.
1 exp.
Agrupar
1 exp. con el 31002
3 exp. con el 31001
1 exp. con el 31006
2 exp. con el 31005
2 exp. con el 31004
Eliminar
2 exp.
2 exp.
2 exp.
2 exp.
2 exp.
2 e.\p.
2 e.\p.
2 exp.
2 e.xp.
2 exp.
Obser\'aciones
Es una mezcla de distintos elementos que debería cada uno
incluirse en el lugar apropiado.
Dificultad en la comprensión.
No es claro el significado de "extensión".
Separar lo que son ser\'icios al estudiante de senicios al
egresado.
Importante y actual.
Importante
Importante
Es éste punto importante?
89
Francisco Alba Juez
Factor
PROCESO
DE
ENSEÑANZA
Indicador
Recursos
Humanos:
Profesores
32101
32102
32103
32104
32105
32106
32107
32108
32109
32110
32111
32112
Propuesta de los Expertos
Mantener
20 exp.
15 exp.
20 exp.
18 e.xp.
21e.xp.
19 exp.
20 e.xp.
18 exp.
14 exp.
20 e.xp.
18 e.xp.
18 exp.
Modificar
5 exp.
2 exp.
1 exp.
1 exp.
2 exp.
1 exp.
1 exp.
Agrupar
2 exp. con el 32002
2 exp. con el 32001
2 exp. con el 32101
1 e.xp. con el 32106
2 e.xp. con el 32107
2 exp. con el 32109
3 exp. con el 32105 v
32106
6 exp. con el 32107
4 exp. con el 32104
3 exp. con el 31010
Eliminar
2 exp.
1 exp.
Obser\'aciones
El concepto "suficiente" varía mucho de una institución a
otra y por lo tanto no es claro.
La redacción hace que se confunda con el anterior, por lo
cual sería importante aclarar la diferenciación entre
profesores de cátedra y de TC.
Cambiar la redacción parta diferenciarlo del anterior.
Poco importante. Ya está comprendido en otros indicadores.
Dar más importancia a la experiencia docente y a las
cualidades didácticas del profesor, que a la realización de
cursos de pedagogía o didáctica para la enseñanza superior.
El término "suficiente" no es claro.
Hay una política definida de la institución?
"No se si es positivo!"
Trabajar en equipo e integración en la Institución son dos
cosas diferentes.
90
Francisco Alba Juez
Factor
PROCESO DE
ENSEÑANZA
Indicador
RRHH:
Personal de
Administración
32201
3220232203
32204
Propuesta de los Expertos
Mantener
21 exp.
14 exp.
22 exp.
21 exp.
Modifícar Agrupar
1 exp. con el 32202
8 exp. con el 32201
1 exp. con el 31010
Eliminar Obser\'aciones
Factor
PROCESO DE
ENSEÑANZA
Indicador
Recursos
Materiales:
Instalaciones
33101
33102
33103
33104
33105
33106
33107
Propuesta de los Expertos
Mantener
20 exp.
20 exp.
20 exp.
20 exp.
18e.\p.
20 exp.
17 e.xp.
Modificar
1 exp.
1 exp.
2 exp.
1 exp.
Agrupar
1 exp. con el 33201
1 exp. con el 33202
1 exp. con el 33203
2 exp. con el 33106
V33107
2 exp. con el 33105
y 33107
3 exp. con el 14004
2 exp. con el 33105
V33106
Eliminar
2 exp.
Observaciones
También incluir su distribución. (Distancia entre salas, acceso...)
Incluir modernidad e interconectividad
Tiene dependencia con el 31003.
91
Francisco Alba Juez
Factor
PROCESO DE
ENSEÑANZA
Indicador
Recursos
Materiales:
Equipamiento y
otros materiales
33201
33202
33203
33204
33205
33206
Propuesta de los Expertos
Mantener
14 exp.
20 exp.
19 exp.
20 e.xp.
20 exp.
17 exp.
Modificar
1 exp.
Agrupar
7 exp. con el 33101
2 exp. con el 33102
3 exp. con el 33104
2 exp. con el 33106
1 exp. con el 33103
5 e.xp. con el 31007
Eliminar
1 exp.
Observaciones
Está incluido en el 33101.
Incluir accesibilidad a otras fuentes de información y bases de
datos, internet, etc.
92
Francisco Alba Juez
Factor
PROCESO
DE
ENSEÑANZA
Indicador
Factores
didácticos
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
Propuesta de los Expertos
Mantener
14 exp.
11 exp.
18 exp.
17 exp.
12 exp.
12 exp.
16 exp.
21 exp.
21 exp.
21 exp.
20 exp.
20 exp.
22 exp.
22 exp.
Modifícar
2 exp.
1 exp.
1 exp.
1 exp.
1 exp.
1 exp.
Agrupar
2 exp. con el 12003 y
20005
2 exp. con el 20004 y
13007
3 exp. con el 13007
1 e.vp. con el 12005
1 exp. con el 13006
1 exp. con el 13002
2 exp. con el 13002
1 exp. con el 13006
1 exp. con el 34003
3 exp. con el 13003
1 exp. con el 12006
2 e.xp. con el 34003
1 exp. con el 34006
1 exp. con el 13006
3 e.xp. con el 34003
3 e.xp. con el 34005
2 exp. con el 13004
2 exp. con el 13006
1 exp. con el 34009
1 exp. con el 34008
2 e.xp. con el 33205
Eliminar
4 exp.
6 exp.
2 exp.
2 exp.
2 exp.
1 exp.
Observaciones
Hasta que punto hay que adecuar el nivel de la Universidad al del
Colegio?, Tal vez esta preocupación no es un indicador
generalizado.
No aporta indicaciones adicionales a los indicadores 12003 y
20005.
Suficiente con el indicador 13007.
Aclarar la definición.
Incluido en el indicador 13003.
Está incluido en el indicador 33204.
"Importante y fundamental".
"Redundante en varios indicadores".
Definir mejor. Referirse a la orientación académica o técnica
específica para la disciplina.
"Somos universitarios, no niño".
93
Francisco Alba Juez
Factor
RESULTADOS
mMEDIATOS
Indicador
40001
40002
40003
40004
40005
Propuesta de lo$ Expertos
Mantener
20 exp.
20 exp.
20 exp.
21 exp.
16 exp.
Modificar
1 exp.
2 exp.
1 exp.
3 exp.
Agrupar
2 exp. con el 40002
Eliminar
1 exp.
3 exp.
Obser\'aciones
"Demasiado vago"
"Resulta muy difícil evaluar este aspecto ya que hay que hacerlo
con los egresados".
"No todos los que entran deben graduarse para que el programa
sea bueno".
"Dudas en la comprensión de la importancia de este indicador".
"No es procedente dada la realidad chilena".
Factor
INTEGRACIÓN
DE
LOS
RESULTADOS
Indicador
50001
50002
50003
50004
50005
50006
50007
50008
Propuesta de los Expertos
Mantener
19 exp.
15 exp.
17 exp.
20 exp.
19 exp.
16 exp.
17 exp.
17 exp.
Modificar
1 exp.
1 exp.
2 exp.
2 exp.
Agrupar
2 e.xp. con el 50002
2 exp. con el 50001
2 exp. con el 50003
4 e.xp. con el 50002
2 e.\p. con el 50005
2 exp. con el 50004
3 exp. con el 50004
3 exp. con el 54004
Eliminar
3 exp.
1 exp.
1 exp.
2 exp.
Observaciones
"Habría que condicionarlo a un seguimiento de egresados para
obtener la infomiación"
"Resulta muy difícil evaluar este aspecto"
"No es importante".
"No es importante".
"Habría que condicionarlo a un seguimiento de egresados".
"Habría que condicionarlo a un seguimiento de egresados".
"No es claro el concepto de subempleado".
"Habría que condicionarlo a un seguimiento de egresados".
"Es muy difícil obtener una información fidedigna".
94
Frandsco Alba Juez
Posteriormente, los resultados de esta encuesta fueron analizados por un grupo de nueve
expertos de distintos países, reunidos en Madrid, con el objeto de confeccionar una
propuesta optimizada.
Surge así, una propuesta que reduce los 94 indicadores iniciales a 70, y cuya estructura
se presenta en el siguiente cuadro, donde SC = Sin cambio, CD = Cambio de
denominación y CC = Cambio de Contenido:
95
Franasco Alba Juez
Cuadro VI:
Resumen de modificaciones propuestas para simplificar
el Manual de Evaluación de SECAI
Indicador
11001
11002
11003
12001
12002
12003
12004
12005
12006
12007
13001
13002
13003
13004
13005
13006
13007
14001
14002
14003
14004
14005
20001
20002
20003
20004
20005
20006
se
X
X
X
X
X
X
X
CD
X
X
ce
X
X
X
X
X
X
X
X
X
X
X
X
X
X
Agrupar con
11003
11001
14002
14004
Eliminado
X
X
X
X
Nueva
numeración
11001
11002
11003
11004
11005
11006
11007
12001
12002
12003
12004
12005
12006
12007
13001
13002
13003
20001
20002
20003
20004
Observaciones
A estudio E.?
A estudio E.?
Opcional
A estudio E.?
96
Francisco Alba Juez
Indicador
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
32101
32102
32103
32104
32105
32106
32107
32108
32109
32110
32111
32112
32201
32202
32203
32204
33101
33102
33103
33104
33105
33106
33107
se
X
CD
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
ce
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
Agrupar con
31006
31005
33206
32102
32101
32110
32109
32107
32106
32202
32201
33201
33202
33205
33203
33204
Eliminado
X
Nueva
numeración
31001
31002
31003
31004
31005
31006
31007
31008
31009
32101
32102
32103
32104
32105
32106
32107
32108
32109
32201
32202
32203
33001
33002
33003
33004
33005
33006
Observaciones
¿Agr. con
32108 y 32203?
¿Agr. con
31008?
¿Agr. con
31008?
97
Francisco Alba Juez
Indicador
33201
33202
33203
33204
33205
33206
34001
34002
34003
34004
34005
34006
34007
3400S
34009
34010
34011
34012
34013
34014
40001
40002
40003
40004
40005
50001
50002
50003
50004
50005
50006
50007
5000S
94
se
X
X
X
10
ELIMINA riON
ELIMINA CION
CD
X
X
X
X
X
24
ce
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
X
57
Agrupar con
33101
33102
33104
33106
33103
31007
34006
34005
50007
50003
50002
50005/6
50004
50004
50001
Eliminado '
5
Nueva
numeración
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
40001
40002
40003
40004
40005
50001
50002
50003
50004
70
Observaciones
¿Opcional?
Estudiar
Estudiar
5
POR AGRUPACIÓN 20
98
Francisco Alba Juez
Esta propuesta se lleva a la Reunión realizada el día 10 de diciembre de 1997 en
Cartagena de Indias, convocada para "la Elaboración de Propuestas de Mejoras y
Sugerencias para la Difusión y Aplicación de SECAI".
De esta reunión participan 40 expertos, entre evaluadores externos, evaluadores internos
y directivos de los centros.
De los análisis y discusiones efectuadas en el senode este grupo, finalmente, se llega a
la versión 03 de SECAI, que queda en 69 indicadores y cuya estructura se presenta en el
siguiente cuadro:
Cuadro VII:
Versión 03 del Modelo SECAI
FACTORES Y SIIBFACTORES
PLAN DE
ESTUDIOS
• Proceso de Elaboración
• Contenido
• Condiciones de Puesta en Marcha
TOTAL
CONDICIONES DE INGRESO DE LOS
ESTUDLiNTES
PROCESO
DE
ENSEÑANZA
• Gestión Académica
• Recursos Humanos
" Profesorado
• Personal de Administración
• Instalaciones y Equipos
• Factores didácticos
TOTAL
RESULTADOS INMEDIATOS
(SALIDA DE PROCESO)
INTEGRACIÓN DE LOS GRADUADOS
NUMERO
INDICADORES
6
7
3
16
4
9
12
6
13
40
5
4
NUMERO
DE CÓDIGOS
11001 a 11006
12001 a 12007
13001 a 13003
20001 a 20004
31001 a 31009
32101 a 32109
32201 a 32203
33001 a 33006
34001 a 34013
40001 a 40005
50001 a 50004
La nueva numeración surge de la eliminación de los indicadores 12002, 12004, 12006,
20001, 20002 y 33105, y de la agrupación de los indicadores tal como se presenta en el
siguiente cuadro
99
Francisco Alba Juez
Cuadro VIII:
Agrupación de indicadores Versión 03 SECAI
Nueva Numeración
Indicador
11001
11002
11003
11004
11005
11006
12001
12002
12003
12004
12005
12006
12007
13001
13002
13003
20001
20002
20003
20004
31001
Compuesto por los
indicadores
(versión 02 SECAI - 94
indicadores)
11001 + 11003
11002
12001
12003
12005
12007
13001
13002
13003
13004
13005
13006
13007
14001
14002 + 14003
14004+ 14005
20003
20004
20005
20006
31001
Observaciones
Indicador 12002 original,
eliminado
Indicador 12004 original,
eliminado.
Indicador 12006 original,
eliminado
Indicador 20001 original,
eliminado
Indicador 20002 original,
eliminado
100
Francisco Alba Juez
Nueva Numeración
Indicador
31002
31003
31004
31005
31006
31007
31008
31009
32101
32102
32103
32104
32105
32106
32107
32108
32109
32201
32202
32203
33001
33002
33003
33004
33005
33006
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
Compuesto por los
indicadores
(versión 02 SECAI - 94
indicadores)
31002
31003
31004
31005 + 31006
31007 + 33206
31008
31009
31010
32101 +32102
32103
32104
32105
32106 +32110
32107+32109
32108
32111
32112
32201 +32202
32203
32204
33101 +33201
33102 + 33202
33103 + 33205
33104 + 33203
33106 + 33204
33107
34001
34002
34003
34004
34005 + 34006
34007
34008
34009
34010
34011
34012
34013
34014
Observaciones
Indicador 33105 original,
eliminado
101
Francisco Alba Juez
Nueva Numeración
Indicador
40001
40002
40003
40004
40005
50001
50002
50003
50004
Compuesto por los
indicadores
(versión 02 SECAI-94
indicadores)
40001
40002
40003
40004
40005
50001+ 50007
50002 + 50003
50004 + 50005 + 50006
50008
Observaciones
En función de las eliminaciones, agmpaciones y cambios de denominación propuestas,
el contenido de los nuevos indicadores es el siguiente: (Cuadro IX)
102
Francisco Alba Juez
Cuadro IX:
Denominación Indicadores de Calidad Versión 03 de SECAI
FACTOR INDICADOR CÓDIGO
P
L
A
N
D
E
E
S
T
U
D
I
O
S
PROCESO DE ELABORACIÓN
Participación de los agentes externos relacionados con la Carrera
Participación de los miembros de la comunidad académica de la
institución
Definición de ámbitos y perfiles profesionales de los titulados en
fijnción de la demanda social.
Análisis y valoración de los conocimientos, capacidad e
intereses de los estudiantes que acceden a la carrera.
Análisis de congruencia entre los
recursos en fijnción de los objetivos.
contenidos, métodos y
Posibilidades de logro en fijnción del tiempo disponible para
cursar el plan.
Definición expresa
educativos generales de la carrera
CONTENIDO
del modelo de formación y de los objetivos
o Aa lo /-«ot-riarQ
Estructura del Plan de Estudios
Orientaciones metodológicas y su adecuación a los objetivos
Orientaciones relativas a la evaluación de conocimientos y su
adecuación a los objetivos.
Plan académico de cada asignatura.
Contenido de las enseñanzas. Actualización y adecuación a los
objetivos.
Previsión de actividades de nivelación
(propedéuticas)
y refijerzo
PUESTA EN MARCHA
Previsión de necesidades (recursos humanos y materiales) en
consonancia con los contenidos del plan.
Nivel de conocimientos y aceptación del Plan por parte de los
miembros de la comunidad educativa.
Programa de seguimiento, evaluación y actualización del Plan.
11001
11002
11003
11004
11005
11006
12001
12002
12003
12004
12005
12006
12007
13001
13002
13003
FACTOR
CONDICIONES DE
INGRESO
ESTUDIANTIL
INDICADOR
Conocimientos previos en áreas básicas.
Capacidades intelectuales generales y específicas en
función de las exigencias de la carrera de ingeniería.
Procedencia de los estudiantes: centros de estudios,
situación socioeconómica.
Motivos de la elección de la carrera y del centro.
CÓDIGO
20001
20002
20003
20004
103
Francisco Alba Juez
FACTOR INDICADOR CÓDIGO
P
R
O
C
E
S
O
D
E
E
N
S
E
N
A
N
Z
A
GESTIÓN ACADÉMICA
Planificación y coordinación de las actividades educativas.
Organización académica.
Funcionamiento de los servicios de apoyo, extensión educativa y acogida de
estudiantes.
Funcionamiento de los servicios de apoyo a la función docente.
Mecanismos de seguimiento del progreso académico de los estudiantes y
control de logros.
Recursos económicos destinados a actividades docentes y su gestión.
Programa de captación, formación, perfeccionamiento, retención y
renovación de profesores y personal de administración y servicios.
Mecanismos de evaluación de la calidad de la enseñanza y planes de mejora.
Clima de trabajo, relaciones humanas y compromiso.
31001
31002
31003
31004
31005
31006
31007
31008
31009
RECURSOS HUMANOS: PERSONAL DOCENTE
Número de profesores y su dedicación.
Distribución de profesores por edades y años de experiencia docente y
categorías académicas.
Distribución en función de unidades docentes y actividades.
Nivel académico.
Experiencia académica, formación y producción pedagógica.
Fonnación, experiencia investigadora y producción científica.
Experiencia profesional.
Dedicación a cada una de las actividades docentes, investigadoras, de
extensión y de gestión.
Trabajo en equipo
32101
32102
32103
32104
32105
32106
32107
32108
32109
RECURSOS HUMANOS: PERSONAL DE SERVICIOS
Personal administrativo y de servio. Número y distribución en función de
actividades.
Preparación técnica para la fimción.
Actitudes y motivaciones en relación con el trabajo.
32201
32202
32203
INSTALACIONES Y EQUIPAMIENTO
Número, capacidad, equipamiento y adecuación de aulas.
Número, capacidad, equipamiento y adecuación de talleres y laboratorios.
Bibliotecas; capacidad, dotación, accesibilidad y adecuación.
Instalaciones y recursos informáticos. Capacidad y adecuación.
Instalaciones, equipos y recursos didácticos de apoyo a la fimción docente.
Instalaciones destinadas al trabajo del personal docente y relación entre sus
miembros.
33001
33002
33003
33004
33005
33006
FACTORES DIDÁCTICOS
Adecuación de las enseñanzas a los niveles reales de conocimientos y
capacidades de los estudiantes que acceden a la carrera.
Actividades de nivelación y refuerzo (propedéuticas)
Adecuación de los objetivos específicos de cada disciplina a los generales de
la enseñanza.
Actualización de los contenidos y adecuación con los objetivos específicos.
Metodología didáctica y su adecuación a los objetivos.
Sistema de evaluación del aprendizaje y su coherencia con los objetivos,
contenidos y metodología.
Distribución de alumnos en función de las instalaciones, equipos y métodos
de trabajo.
Utilización por parte de los alumnos de los medios de laboratorios y talleres.Utilización por parte de los estudiantes de los medios informáticos.
Utilización por parte de los alumnos de los medios bibliográficos.
Funcionamiento de las tutorías u otro sistema de apoyo estudiantil.
Dirección de trabajos de fin de carrera.
Clima de trabajo e integración de los estudiantes en la institución.
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
104
Francisco Alba Juez
FACTOR
RESULTADOS
m M E D I A T O S
INDICADOR
Nivel de logro de los objetivos previstos.
Relación entre los estudiantes que logran graduarse y los que iniciaron
los estudios.
Duración real media de los estudios.
Identificación de los graduados con el centro, facultad o departamento.
Desenvolvimiento de los titulados en programas de postgrado.
CÓDIGO
40001
40002
40003
40004
40005
FACTOR
INTEGRACIÓN
INDICADOR
Tiempo de logro de su primer trabajo y tasas de desocupación.
Periodo de iniciación profesional y formación complementaria
requerida.
Funciones profesionales desempeñadas por los egresados.
Valoración de los empleadores respecto a la adecuación entre la
formación recibida y el ejercicio profesional.
CÓDIGO
50001
50002
50003
50004
A continuación, en el siguiente cuadro se presenta la comparación global entre el
Modelo Original, Versión 02 de SECAI(94 indicadores) y la Versión 03 de SECAI (69
indicadores):
105
Francisco Alba Juez
Cuadro X:
Comparación Global de las Versiones 02 (94 indicadores) y 03 (69 indicadores) de SECAI
VERSIÓN 02
FACTORES Y SUBFACTORES
11 Plan de Estudios
111 Participación
Ii2 Metodología
Ii3 Contenido
Ii4 Puesta en Marcha
I2 Ingreso de Estudiantes
I3 Proceso de Enseñanza Aprendizaje
131 Gestión Académica
132 Recursos H u m a n o s
I321 Profesores
I322P. Servicios
133 Recursos materiales
1331 Instalaciones
1332 Equipamiento
134 Factores didácticos
I4 Resultados Inmediatos
I5 Integración
T O T A L
INDICADORES
22
3
7
7
5
6
53
10
16
12
4
13
7
6
14
5
8
94
VERSIÓN 03
FACTORES Y SUBFACTORES
Ii Plan de estudios
111 Proceso de elaboración
112 Contenido
Ii3 Puesta en marcha
I2 Ingreso de Estudiantes
I3 Proceso de Enseñanza
131 Gest ión Académica
132 Recursos humanos
1321 Profesores
1322 P. Servicios
133 Instalaciones y equipamiento
134 Factores didácticos
I4 Resultados Inmediatos
I5 Integración
T O T A L
INDICADORES
16
7
6
3
4
40
9
12
9
3
6
13
5
4
69
106
Francisco Alba Juez
5.5 PROPUESTA DE MODELO FINAL.
Hasta aquí se han presentado los dos modelos diseñados por SECAI (Modelo Original
con 94 indicadores y el Modelo Reducido con 69 indicadores) y dos Métodos de
Análisis Estadístico, producto de esta Tesis, aplicados al Modelo Original (94
indicadores), por ser éste el único modelo experimentado a la fecha de realización de la
presente tesis.
A continuación se tratará de llegar a un Modelo Final Optimizado mediante la
eliminación y agrupación de los indicadores originales (94), en ílinción del trabajo
estadístico realizado, de la experiencia, y del extraordinario marco de referencia y
contrastación que representa el juicio de expertos de SECAI concretado en el modelo
reducido de 69 indicadores.
De la comparación entre el Cuadro X (Versión 03 SECAI - 69 indicadores) y los
Cuadros V, VI y VII, consecuencia de la aplicación del Método de Análisis de
Componentes Principales (ACP) a la Versión 02 SECAI (94 indicadores), surge
claramente que existe una notable diferencia (como no podia ser de otra manera) entre
la eliminación de indicadores propuesta por los expertos de SECAI y la propuesta por
este Método Estadístico (ACP).
Por tanto, se hace necesario realizar el siguiente análisis de congruencia en base a
conceptos técnicos y de experiencia, pero como ya se ha dicho, teniendo en cuenta las
correlaciones establecidas por la Matriz de Correlación y el Método de Análisis de
Componentes Principales, aplicados ambos, a las Evaluaciones Internas y Externas
producto de la experimentación del modelo original de SECAI (94 indicadores) en la
evaluación de nueve carreras de cinco universidades..
5.5.1 ANÁLISIS DE CONGRUENCIA EN BASE A CONCEPTOS TÉCNICOS
Y DE EXPERIENCIA.
Volviendo ahora a la aplicación del Método de Análisis de Componentes Principales
(ACP) al modelo original de 94 indicadores, y habiendo analizado detenidamente la
correlación mostrada entre estos, por la aplicación de este Método factor por factor,
aparentemente se podría eliminar o reagrupar entre 30 y 50 indicadores. No obstante, y
teniendo en cuenta que, si bien estas correlaciones se las puede tomar con un nivel de
confianza del 95%, no dejan de ser probabilidades, se hace necesario realizar un análisis
técnico de las mismas, donde la experiencia juega un papel de preponderante
importancia para decidir la factibilidad y/o conveniencia de eliminar o agrupar
determinados indicadores.
Naturalmente, las decisiones surgidas de este análisis en fijnción de la experiencia, han
sido tomadas respetando la correlación estadística existente entre los indicadores y
teniendo en cuenta el juicio de expertos de SECAI, resultado de la reunión de Cartagena
de Indias.
Por tanto, dicho análisis se realizará indicador por indicador teniendo en cuenta los
siguientes elementos y criterios;
107
Francisco Alba Juez
Elementos:
• Eliminación de indicadores propuesta por el Método de ACP (Cuadros III y
IV)
• Correlación entre indicadores definida por la matriz de correlación (94 x 94)
con un nivel de confianza del 95%. (Cuadros I y II)
• Juicio de expertos de SECAI resultado de la reunión del 12-12-1997 en
Cartagena de Indias. (Cuadro VIII: Agrupación de Indicadores Versión 03
SECAI)
• La experiencia profesional
Criterios:
Indicadores que se eliminan
Todos aquellos Indicadores que por indicación del método de Análisis de Componentes
Principales (ACP), aparezcan como susceptibles de ser eliminados, tanto en las
evaluaciones internas como en las externas, y que además, así lo proponga el Juicio de
Expertos de SECAI, serán eliminados.
También se eliminarán aquellos indicadores que aunque el Juicio de Expertos de SECAI
no haya contemplado la posibilidad de eliminarlos, aparezcan como posibles de ser
eliminados, por la aplicación del método de ACP, en ambas evaluaciones (Internas y
Externas) y que la experiencia indique que pueden eliminarse sin distorsionar el modelo
(cosa que ha sucedido sólo con dos indicadores: el 31002 y el 32111).
Indicadores que se agrupan
Se agruparán todos aquellos Indicadores que presenten las condiciones de correlación
establecidas, es decir: que estén correlacionados con un nivel de confianza igual o
mayor al 95% en ambas evaluaciones (Matriz de Correlación. Cuadros I y II) y que
además, así lo aconseje el Juicio de Expertos de SECAI.
También se agruparán aquellos Indicadores que, aunque el Juicio de Expertos de SECAI
no haya contemplado la posibilidad de agruparlos, presenten las condiciones de
correlación establecidas, y su agrupación, de acuerdo a la experiencia, parezca lógica y
no distorsione la estructura del modelo (cosa que ha sucedido solo con cuatro
indicadores).
Indicadores que se mantienen
Se mantendrán todos aquellos Indicadores, que por la aplicación del método de Análisis
de Componentes Principales (ACP), aparezcan como no eliminables en ambas
evaluaciones, y así lo aconseje el Juicio de Expertos de SECAI.
También se mantendrán aquellos Indicadores, que apareciendo como susceptibles de ser
eliminados, por la aplicación del método de ACP a una de las evaluaciones (Interna o
108
Francisco Alba Juez
Extema), aparezcan como no eliminables en la otra, y el Juicio de Expertos de SECAI
aconseje mantenerlos.
En función de estos elementos y criterios, se pi'ocede al análisis de referencia:
Tal como lo indica la Matriz de Correlación de las Evaluaciones Internas y de las
Extemas, tanto el indicador 11001como el 11002, están correlacionados con el 11003.
Además, según el Método de Análisis de Componentes Principales (ACP), el indicador
11003 puede ser eliminado, y según el juicio de expertos de SECAI, este indicador
debería agruparse con el 11001. Puesto que difícilmente se pueda calificar la
"Participación de los agentes internos o externos" (indicador 11001 y 11002) si no se
tiene en cuenta la "Naturaleza, estructura y alcance de dicha participación" (indicador
11003), se propone incluir dentro de los indicadores 11001 y 11002, el 11003, o incluso
se podría eliminar el 11003 y modificar la denominación de los indicadores 11001 y
11002.
Si bien el indicador 12001: "Definición de ámbitos y perfiles profesionales de los
titulados en función de la demanda social" aparece como eliminable por la aplicación
del Método de ACP a las evaluaciones externas, no ocurre lo mismo cuando se aplica el
mismo método a las evaluaciones internas. Por otra parte, según el juicio de expertos de
SECAI este indicador debe mantenerse. Por lo tanto y dado que se considera que este
indicador es de suma importancia, se decide mantenerío.
El Método de ACP nos dice que el indicador 12002: "Análisis y valoración de la
evolución de los conocimientos científicos y tecnológicos relacionados con la
carrera" no debe ser eliminado, lo cual parece razonable puesto que este indicador es
independiente de los demás. No obstante, dicho indicador presenta el peligro de que
muchas de las denominadas "novedades científicas" permanezcan definitivamente
incorporadas al plan aunque posteriormente queden en obsolescencia. Por otra parte,
podría pensarse que el "Análisis y valoración " a las que hace referencia este
indicador, estaría cubierto por la "Participación de los agentes externos" (indicador
11001) en la elaboración del plan de estudios. En base a estas consideraciones y
teniendo en cuenta que el juicio de expertos de SECAI aconseja eliminarlo, se decide
eliminar el indicador 12002.
Se propone agrupar el indicador 12003: "Análisis y valoración de los conocimientos,
capacidades e intereses de los estudiantes que acceden al plan" con el indicador
34001: "Diagnóstico de los niveles reales y capacidades de los estudiantes que
acceden a la carrera" por cuanto, además de ser la misma cosa y presentar las
condiciones de correlación establecidas, la aplicación del Método de ACP a las
evaluaciones internas y externas, propone eliminar el indicador 12003 y mantener el
34001.
Se propone eliminar el indicador 12004: "Definición de los modelos y perfiles de
formación y su concreción en objetivos generales, teniendo en cuenta las demandas
sociales y misión de la universidad" por cuanto, además de que la aplicación del
Método de ACP a las evaluaciones externas así lo aconseja, al definir "Ámbitos y
perfiles profesionales de los titulados en función de la demanda social" (indicador
12001), inmediatamente aparece la necesidad de definir "Modelos y perfiles de
formación y su concreción en objetivos generales, teniendo en cuenta la demanda
social y la misión de la Universidad". Por tanto, el indicador 12004 se encuentra
109
Francisco Alba Juez
implícito en el 12001. Por otra, parte el juicio de expertos de SECAI aconseja
eliminarlo.
El indicador 12005.' "Definición de los contenidos, metodología y recursos necesarios
en función de los objetivos", debe eliminarse, pues además de aparecer como
eliminable por el método de ACP, tal como está redactado es lo mismo que el indicador
34005 y está implícito en el 13003, tal como lo indican las dos matrices de correlación.
Se propone eliminar el indicador 12006: "Valoración apriorística de la adecuación del
plan a las necesidades sociales", pues si bien aparece como no eliminable por la
aplicación del Método de ACP a las evaluaciones externas, ocurre lo contrario cuando
se aplica a las evaluaciones internas, y además de encontrarse implícito en los
indicadores 12001 y 13001, el juicio de expertos de SECA! aconseja eliminario.
Tal como surge de la aplicación del Método de ACP y del juicio de expertos de SECAI,
el indicador 12007: "Valoración apriorística de las posibilidades de logro por parte de
los estudiantes durante el tiempo previsto para cursar la carrera", debe mantenerse,
aunque sería conveniente modificar su redacción de la siguiente manera: "Posibilidades
de logro en función del tiempo disponible para cursar la carrera".
Tal como lo indica el Método de ACP y el juicio de expertos de SECAI, el indicador
13001: "Definición expresa del modelo deformación y de los objetivos generales de la
carrera", debe mantenerse.
El indicador 13002: "Contenido de las enseñanzas. Actualización y adecuación a los
objetivos", es el mismo que el indicador 34004: "Actualización de los contenidos y su
adecuación a los objetivos". Por otra parte, tanto en la matriz de correlación de las
evaluaciones internas como en la de las externas, estos indicadores aparecen
correlacionados con un nivel de confianza del 95% o mayor. Además, estos dos
indicadores aparecen como eliminables por la aplicación del Método de ACP tanto en
las evaluaciones internas como en las externas. Por tanto, se propone agrupar estos dos
indicadores.
Si bien el Método de ACP aplicado a las evaluaciones externas nos señala que el
indicador 13003: "Orientaciones metodológicas y su adecuación a los objetivos", debe
eliminarse, el mismo método aplicado a las evaluaciones internas indica lo contrario.
Por tanto, de acuerdo con el juicio de expertos de SECAI se propone mantener este
indicador.
El indicador 13004: "Orientaciones relativas a la evaluación de conocimientos y su
adecuación con los objetivos", debe mantenerse, por cuanto, además de así indicario el
Método de ACP, también propone mantenerlo el juicio de expertos de SECAI. No
obstante y dado que tal como está redactado podría presentar alguna dificultad para su
comprensión, se propone redactado como: "Criterios para la evaluación de la
congruencia entre conocimientos y objetivos".
El indicador 13005: "Estructura: carga lectiva, distribución en cursos y asignaturas,
enseñanzas teóricas y prácticas, etc.", si bien aparece como eliminable por la
aplicación del Método de ACP a las evaluaciones internas, no ocurre lo mismo cuando
se aplica este Método a las evaluaciones externas. Por tanto y dado que el juicio de
l io
Francisco Alba Juez
expertos de SECAI propone mantenerlo, se decide adoptar este criterio con la
denominación propuesta por dichos expertos: "Estructura del plan de estudios".
El indicador 13006: "Plan académico de cada asignatura: objetivos específicos,
contenidos, metodología, evaluación, bibliografía básica y de ampliación, etc." si bien
aparece como eliminable por la aplicación del Método de ACP a las evaluaciones
extemas, ocurre lo contrario cuando se aplica este método a las evaluaciones internas.
Dado que se considera que este indicador es muy importante, coincidiendo con el juicio
de expertos de SECAI, se propone mantenerlo.
El indicador 13007: "Previsión, en su caso, de actividades propedéuticas para mejorar
la integración de los estudiante en el plan", aparece como no eliminable por la
aplicación del Método de ACP tanto a las evaluaciones internas como a las externas, y
aparece en las dos matrices de correlación (Evaluaciones internas y externas)
correlacionado con un nivel de confianza del 95% o mayor con el indicador 34002:
"Actividadespropedéuticas". Por tanto, se propone agrupar estos dos indicadores.
El indicador 14001: "Previsión de necesidades: recursos humanos, instalaciones,
equipos y material. Adecuación al contenido del plan", tal como lo indica la aplicación
del Método de ACP a las evaluaciones externas y el juicio de expertos de SECAI, debe
mantenerse.
Tal como lo indican las dos matrices de correlación, el indicador 14002: "Conocimiento
amplio del contenido del plan por parte de los responsables de su desarrollo", está
correlacionado con el indicador14003: "Nivel de aceptación del plan por parte de los
miembros de la comunidad educativa", con un nivel de confianza igual o mayor al
95%. Por otra parte, el Método de ACP nos dice que el indicador 14002 debe
mantenerse, mientras que el 14003 podría eliminarse. En fijnción de todo esto y de
acuerdo con el juicio de expertos de SECAI, se propone agrupar los indicadores 14002
y 14003.
Tal como lo indican las dos matrices de correlación, los indicadores 14004: "Programa
de seguimiento, evaluación y revisión del plan durante el proceso de puesta en
marcha del mismo" y 14005: "Mecanismos para la actualización periódica del plan
de estudios" están altamente correlacionados. Por otra parte, el indicador 14004
aparece como no eliminable por la aplicación del Método de ACP tanto en las
evaluaciones internas como en las externas, mientras que el indicador 14005 aparece
como eliminable en ambas. En fijnción de esto y en concordancia con el juicio de
expertos de SECAI, se propone agrupar estos dos indicadores.
Tal como lo indican las dos matrices de correlación, los indicadores 20001:
"Calificaciones globales de la enseñanza secundaria o preuniversitaria y, en su caso,
pruebas de acceso, exámenes de estado o similar, con la que ingresan los
estudiantes", 20002: "Calificaciones obtenidas en áreas básicas para la carrera,
durante la educación secundaria y pruebas de acceso (Matemática, Física, Química,
y Dibujo, etc.) y 20003: "Conocimientos previos en áreas básicas al iniciar los
estudios de la carrera", están altamente correlacionados entre sí. Por otra parte, según
el Método de ACP aplicado a las evaluaciones internas, el indicador 20001 debe
mantenerse y el 20002 puede ser eliminado. Este mismo método aplicado a las
evaluaciones externas nos indica lo contrario, es decir, el indicador 20001 puede
eliminarse y el 20002 debe mantenerse. Sin embargo, el indicador 20003 aparece como
111
Francisco Alba Juez
no eliminable tanto en las evaluaciones internas como en las externas. Por tanto, se
decide eliminar los indicadores 20001 y 20002, manteniendo el 20003, pues lo
importante es valorar los "Conocimientos previos en áreas básicas"
independientemente del origen de tales conocimientos. Decisión que además coincide
con el juicio de expertos de SECAI.
El indicador 20004: "Capacidades intelectuales generales y específicas en función de
las exigencias de la carrera de ingeniero", aparece como no eliminable por la
aplicación del Método de ACP tanto a las evaluaciones internas como a las externas.
Por tanto, se decide mantenerlo, decisión que concuerda, además, con el juicio de
expertos de SECAI.
El indicador 20005: "Procedencia de los estudiantes: tipo de centro o estudios,
situación socioeconómica" si bien aparece como eliminable por la aplicación del
Método de ACP a las evaluaciones internas, sucede lo contrario cuando este método se
aplica a las evaluaciones externas. Dado que este indicador nos alerta a priori no solo
sobre las posibles dificultades extras que tendría el alumno al ingresar a su carrera sino
también sobre la necesidad de prever mecanismos propedeuticos, se propone
mantenerlo, propuesta que coincide con el juicio de expertos de SECAI.
El indicador 20006: "Motivos por los que fue elegida la carrera y centro" aparece
como eliminable cuando se aplica el Método de ACP a las evaluaciones externas y
como no eliminable cuando se aplica este mismo método a las evaluaciones internas. Si
bien a primera vista, este indicador pareciera no tener mucha importancia, puede alertar
sobre una visión distorsionada del alumno acerca de lo que es la carrera y el centro
elegido, lo cual, a corto plazo, traerá problemas al alumno ingresante. Por esta razón y
en concordancia con el juicio de expertos de SECAI se decide mantener este indicador.
El indicador 31001: "Planificación y coordinación de las actividades educativas",
aparece como eliminable por la aplicación del Método de ACP a las evaluaciones
internas y como no eliminable en las evaluaciones externas. Dado que el juicio de
expertos de SECAI ha decidido mantenerio y considerando que este indicador es lo
suficientemente importante, se propone mantenerio.
El indicador 31002: "Organización académica", no se considera importante en fijnción
del resto de los indicadores, pues sea cual sea dicha organización, ésta, no se apartará
demasiado en ningún caso de las cuatro o cinco modalidades existentes en todo el
mundo. Por tanto, y teniendo en cuenta que de la aplicación del Método de ACP tanto a
las evaluaciones internas como externas surge que este indicador puede eliminarse, se
propone su eliminación.
El indicador 31003: "Funcionamiento de los servicios de apoyo, extensión educativa y
acogida de estudiantes", debe mantenerse, por cuanto aparece como no eliminable por
la aplicación del Método de ACP tanto en las evaluaciones internas como en las
externas. Criterio que coincide con el juicio de expertos de SECAI.
El indicador 31004: "Funcionamiento de los servicios de apoyo a la función docente",
si bien aparece como eliminable por la aplicación del Método de ACP a las
evaluaciones internas, ocurre lo contrario en las evaluaciones externas, por tanto y
teniendo en cuenta que el juicio de expertos de SECAI aconseja mantenerlo, se adopta
este criterio.
112
Francisco Alba Juez
Tal como lo indican las dos matrices de correlación, el indicador 31005: "Mecanismos
de control de logro de los objetivos previstos" y el indicador 31006: "Seguimiento del
proceso escolar de los estudiantes, detección de anomalías funcionales que afectan
negativamente al rendimiento escolar y mecanismos correctores", están
correlacionados con un nivel de confianza igual o mayor al 95%. Además, de la
aplicación del Método de ACP a las evaluaciones externas surge que el indicador 31006
puede ser eliminado. En función de esto, se propone agrupar estos dos indicadores, lo
cual coincide con el juicio de expertos de SECAI.
Tal como lo indican las dos matrices de correlación, los indicadores 31007: "Gestión de
los recursos destinados a actividades docentes" y 33206: "Recursos económicos para
actividades docentes, su distribución y facilidad de uso", están correlacionados con un
nivel de confianza igual o mayor al 95%. Por otra parte, el indicador 31007 aparece
como no eliminable por la aplicación del Método de ACP tanto en las evaluaciones
internas como en las externas, mientras que el indicador 33206 aparece como eliminable
cuando se aplica este Método a las evaluaciones internas. En función de esto, se
propone agrupar estos dos indicadores, propuesta que coincide con el juicio de expertos
de SECAI.
Si bien el indicador 31008: "Programas de captación, formación y perfeccionamiento,
retención y renovación de profesores", aparece como eliminable por la aplicación del
Método de ACP tanto en las evaluaciones internas como en las externas, la experiencia
y el juicio de expertos de SECAI aconseja mantenerlo.
Dado que el indicador 31009: "Mecanismos de evaluación de la calidad de la
enseñanza y planes de mejora", por aplicación del Método de ACP aparece como
eliminable en las evaluaciones externas y como no eliminable en las internas y que se lo
considera lo suficientemente importante, de acuerdo con el juicio de expertos de
SECAI, se propone mantenerlo.
El indicador 31010: "Clima de trabajo y relaciones humanas", por la aplicación del
Método de ACP aparece como eliminable en las evaluaciones internas y como no
eliminable en las externas. Dado que el juicio de expertos de SECAI, ha decido
mantenerlo y se considera lo suficientemente importante, se adopta el mismo criterio.
El indicador 32101: "Número de profesores (N" de estudiante/N" de profesores)", tal
como lo indican las dos matrices de correlación, está correlacionado con un nivel de
confianza igual o mayor al 95% con el indicador 32102: "Distribución de profesores
según su régimen de dedicación". Por otra parte, el Método de ACPnos dice que el
indicador 32101 debe mantenerse y que el indicador 32102 puede eliminarse. Teniendo
en cuenta esto, y que en realidad lo importante es que la cantidad de horas
profesor/alumno sea la adecuada, cosa que dependerá no solo de la cantidad de
profesores sino también del tipo de dedicación, se propone agrupar estos dos
indicadores, propuesta que, además, coincide con el juicio de expertos de SECAI.
El Método de ACP nos dice que el indicador 32103: "Distribución de profesores por
edades y años de experiencia docente", debe mantenerse, lo cual coincide con el juicio
de expertos de SECAI. No obstante, sería conveniente modificar su redacción y
contenido.
113
Francisco Alba Juez
El Método de ACP nos dice que el indicador 32104: "Distribución de los profesores en
función de unidades docentes y actividades", debe mantenerse, lo cual coincide con el
juicio de expertos de SECAI.
El Método de ACP aplicado a las evaluaciones internas nos dice que el indicador
32105: "Nivel académico", puede ser eliminado, mientras que aplicado a las
evaluaciones extemas, nos dice que debe mantenerse. Dado que el juicio de expertos de
SECA] propone mantenerlo, se adopta este criterio.
Se propone agrupar el indicador 32106: "Formación y experiencia pedagógica", con el
indicador 32110: "Producción de material de apoyo a la enseñanza", pues como lo
muestran las dos matrices de correlación y la experiencia, ambos están altamente
correlacionados. Además el juicio de expertos de SECAI, coincide con esta agrupación.
Por las mismas razones y por las mismas justificaciones, se propone agrupar el
indicador 32107: "Formación y experiencia investigadora", con el indicador 32109:
"Producción científica".
A pesar de que la aplicación del Método de ACP dice que el indicador 32108:
"Formación y experiencia profesional", puede eliminarse, la experiencia nos indica
que es lo suficientemente importante como para mantenerio, cosa con la cual concuerda
el juicio de expertos de SECAI.
El indicador 32111: "Dedicación a cada una de las actividades docentes,
investigadoras, de extensión y de gestión", se encuentra implícito en los indicadores
32102, 32103 y 32104 tal como lo indica la correlación existente entre ellos. Por otra
parte, tal como lo confirma el Método de ACP aplicado a las evaluaciones internas y a
las externas, puede ser eliminado. Por tanto, se propone su eliminación.
El indicador 32112: "Actitudes frente al trabajo en equipo e integración en la
institución", tal como lo indica el Método de ACP aplicado tanto a las evaluaciones
internas como a las externas, debe mantenerse. Decisión que concuerda con el juicio de
expertos de SECAI.
El indicador 32201: "Número de personal administrativo y de senñcios (relación
PAS/profesores y PAS/alumnos)" debe mantenerse por indicarlo así el Método de
ACP aplicado tanto a las evaluaciones internas como a las externas, el juicio de
expertos de SECAI y porque la experiencia indica que es lo suficientemente importante
para ello. Por otra parte el indicador 32202: "Distribución en función de servicios y
actividades", según lo indican las matrices de correlación, está altamente correlacionado
con el indicador 32201. Además el indicador 32202 aparece como eliminable por la
aplicación del Método de ACP a las evaluaciones externas. Por tanto en concordancia
con el juicio de expertos de SECAI, se propone agrupar estos indicadores manteniendo
el código 32201.
El indicador 32203: "Preparación técnica para la función", si bien aparece como
eliminable por la aplicación del Método de ACP a las evaluaciones internas, ocurre lo
contrario cuando se aplica este mismo método a las evaluaciones externas. Por tanto,
por considerarlo lo suficientemente importante y de acuerdo con el juicio de expertos de
SECAI, se propone mantenerio.
114
Francisco Alba Juez
El indicador 32204: "Actitudesy motivaciones en relación con el trabajo", tal como lo
indica el Método de ACP aplicado a las evaluaciones internas y externas, y el juicio de
expertos de SECAI, debe mantenerse.
Se propone agrupar el indicador 33101: "Número, capacidad y adecuación de aulas,
seminarios, etc.", con el indicador 33201: "Mobiliarioy equipamiento de aulas", pues
además de presentar las características de correlación establecidas y aparecer ambos
como no eliminables por la aplicación del Método de ACP, se considera que al evaluar
uno de ellos se debe tener en cuenta al mismo tiempo el otro. Por otra parte esta
agrupación es compartida por el juicio de expertos de SECAI.
Se propone agrupar el indicador 33102: "Número, capacidad y adecuación de los
laboratorios y talleres docentes", con el indicador 33202: "Equipamiento de
laboratorios, talleres docentes y de investigación", por las mismas razones y con las
mismas justificaciones del caso anterior.
Se propone agrupara el indicador 33103: "Bibliotecas, capacidad y adecuación de sus
instalaciones", con el indicador 33205: "Dotación bibliográfica, libros, revistas, etc.",
por las mismas razones y con las mismas justificaciones de los dos casos anteriores.
Por las mismas razones y con las mismas justificaciones de los tres casos anteriores, se
propone agrupar los indicadores 33104: "Instalaciones informáticas: centro de
cálculo, aulas especiales, etc., capacidad y adecuación", y 33203: "Recursos
informáticos a disposición de profesores y alumnos".
Se propone eliminar el indicador 33105: "Instalaciones destinadas a los servicios de
apoyo, extensión y acogida de estudiantes", por indicarlo asi el Método de ACP y el
juicio de expertos de SECAI.
Se propone agrupar el indicador 33106: "Instalaciones destinadas a senncios de apoyo
a la función docente", con el indicador 33204: "Recursos didácticos, impresos,
audiovisuales, etc.", pues además de presentar las características de correlación
establecidas, esta propuesta coincide con el juicio de expertos de SECAI.
El indicador 33107: "Instalaciones destinadas al trabajo del personal docente y
relación entre sus miembros", tal como lo indica el Método de ACP aplicado a las
evaluaciones internas y externas y el juicio de expertos de SECAI, debe mantenerse.
El indicador 34003: "Adecuación de los objetivos específicos de cada disciplina a los
generales de la enseñanza", a pesar de que aparece como eliminable por el Método de
ACP, es obvio que debe mantenerse, tal como sugiere el juicio de expertos de SECAI.
Se propone agrupar el indicador 34005: "Metodología didáctica y su adecuación a los
objetivos, tanto de las enseñanzas teóricas como prácticas", con el indicador 34006:
"Utilización eficaz de recursos didácticos en función de la metodología adoptada",
por cuanto además de presentar las condiciones de correlación establecidas y estar uno
implícito en el otro, la aplicación del Método de ACP propone eliminar el indicador
34005 y mantener el 34006. Por otra parte, el juicio de expertos de SECAI propone la
misma agrupación.
l i s
Francisco Alba Juez
Tal como lo indica el Método de ACP y el juicio de expertos de SECAI, el indicador
34007: "Sistema de verificación y evaluación del aprendizaje y su coherencia con ¡os
objetivos, contenidos y metodología aplicada", debe mantenerse.
El indicador 34008: "Distribución de alumnos en función de instalaciones, equipos y
métodos de trabajo", tal como lo indica el Método de ACP y el juicio de expertos de
SECAI, debe mantenerse.
El indicador 34009: "Utilización por parte de los alumnos de los medios de
laboratorio", tal como lo indica el Método de ACP y el juicio de expertos de SECAI,
debe mantenerse.
El indicador 34010: "Utilización por parte de los alumnos de los medios
informáticos", si bien la aplicación del Método de ACP a las evaluaciones externas
indica que puede eliminarse, la aplicación de este Método a las evaluaciones internas
dice que debe mantenerse. Dado que se considera lo suficientemente importante y que el
juicio de expertos de SECAI propone mantenerlo, se adopta estecriterio.
El indicador 34011: "Utilización por parte de los alumnos de los medios bibliográficos
y otros", tal como lo indica el Método de ACP y el juicio de expertos de SECAI, debe
mantenerse.
El indicador 34012: "Funcionamiento de las tutorías y otras actividades de apoyo a
los estudiantes", si bien la aplicación del Método de ACP a las evaluaciones internas
indica que puede ser eliminado, la aplicación de este Método a las evaluaciones externas
propone mantenerlo. Dado que se considera lo suficientemente importante y que el
juicio de expertos de SECAI así lo aconseja, se propone mantenerlo.
El indicador 34013: "Dirección de trabajos de fin de carrera", tal como lo indica el
Método de ACP y el juicio de expertos de SECAI, debe mantenerse.
El indicador 34014: "Clima de trabajo e integración de los estudiantes en la
institución" si bien la aplicación del Método de ACP a las evaluaciones internas
propone eliminarlo, la aplicación de este Método a las evaluaciones externas indica que
debe mantenerse. Dado que se considera lo suficientemente importante y que el juicio
de expertos de SECAI así lo aconseja, se propone mantenerlo.
El indicador 40001: "Nivel medio de logro de los objetivos previstos por parte de los
estudiantes que se gradúan", si bien la aplicación del Método de ACP a las
evaluaciones internas propone eliminarlo, la aplicación de este Método a las
evaluaciones externas propone mantenerlo. Dado que el juicio de expertos de SECAI
indica que debe mantenerse, se adopta este criterio.
El indicador 40002: "Relación entre ¡os estudiantes que logran graduarse y los que
iniciaron los estudios", tal como lo indica el Método de ACP, la experiencia y el juicio
de expertos de SECAI, debe mantenerse.
El indicador 40003: "Duración real media de los estudios", si bien aparece como
eliminable por la aplicación del Método de ACP a las evaluaciones externas, la
aplicación de este método a las evaluaciones internas propone mantenerlo. Dado que se
116
Francisco Alba Juez
considera un indicador importante y que el juicio de expertos de SECAI propone
mantenerlo, se adopta esta propuesta.
El indicador 40004: "Identificación de los graduados con el centro, facultad o
departamento", tal como lo indica la aplicación del Método de ACP, la experiencia y el
juicio de expertos de SECAI, debe mantenerse.
El indicador 40005: "Desenvolvimiento de los titulados que participan en programas
para posgraduados incluyendo doctorado", tal como lo indica la aplicación del Método
de ACP, la experiencia y el juicio de expertos de SECAI, debe mantenerse.
Se propone agrupar el indicador 50001: "Tiempo en que el 80% de cada promoción
logra su primer trabajo" con el indicador 50007: "Porcentaje de graduados en
desocupados un año después de finalizar sus estudios", pues si bien la aplicación del
Método de ACP sugiere mantenerlos a ambos, presentan las condiciones de correlación
establecidas y seguramente de cualquiera de ellos puede inferirse el otro. Por otra parte,
el juicio de expertos de SECAI acuerda con esta agrupación.
Se propone agrupar el indicador 50002: "Período de iniciación profesional" con el
indicador 50003: "Formación complementaria exigida para el ejercicio profesional en
diferentes actividades", pues además de presentar las características de correlación
establecidas, la formación complementaria exigida para el ejercicio profesional, definirá
el período de iniciación profesional, ya sea fliera o dentro de la empresa contratante. Por
otra parte, la aplicación del Método de ACP dice que el indicador 50002 debe
mantenerse, mientras que el indicador 50003 podría eliminarse. Además, el juicio de
expertos de SECAI concuerda con esta agrupación.
Se propone agrupar el indicador 50004: "Porcentaje de graduados que trabajan en
áreas de actividad relacionadas con su formación (graduados en los tres últimos
años)" con el indicador 50005: "Porcentaje de graduados que trabajan en áreas de
actividad diferentes, pero con análogo nivel profesional (graduados en los tres
últimos años)" y con el indicador 50006: "Porcentaje de subempleados entre los
graduados de los tres últimos años", puesto que además de presentar las características
de correlación establecidas, el Método de ACP aplicado a las evaluaciones externas
propone mantener los indicadores 50004 y 50005 y eliminar el indicador 50006,
mientras que este mismo Método aplicado a las evaluaciones internas propone mantener
los indicadores 50005 y 50006 y eliminar el indicador 50004. Por otro lado, se hace
obvio que el porcentaje de graduados en los tres últimos años que trabajan en áreas de
actividad relacionadas con su especialidad, automáticamente nos dirá cual es el
porcentaje de graduados en ese mismo lapso que trabajan en áreas de actividad
diferentes, algunos de los cuales pueden ser subempleados. Además, el juicio de
expertos de SECAI coincide con esta agrupación.
El indicador 50008: "Valoración de los empleadores respecto a la adecuación entre
formación y ejercicio profesional", es un indicador de suma importancia, y tal como lo
indica el Método de ACP y el juicio de expertos de SECAI, debe mantenerse.
A continuación se presenta un cuadro donde se resumen las eliminaciones y
agrupaciones propuestas.
117
Francisco Alba Juez
Cuadro XI: Agrupación propuesta para optimizar el Modelo SECAI
Nueva Numeración
Indicador
11001
11002
11003
11004
11005
11006
12001
12002
12003
12004
12005
12006
12007
13001
13002
13003
20001
20002
20003
20004
31001
31002
31003
31004
31005
Compuesto por los Indicadores
(numeración SECAI original -
94 indicadores)
11001 + 11003
11002 + 11003
12001
12003+34001
12005
12007
13001
13002 + 34004
13003
13004
13005
13006
13007 + 34002
14001
14002+14003
14004+14005
20003
20004
20005
20006
31001
31003
31004
31005 + 31006
31007 + 33206
Observaciones
Indicador 12002
original, eliminado
Indicador 12004
original, eliminado
Indicador 12006
orÍ£ înal, eliminado
Indicadores 20001 y
20002 originales,
eliminados
Indicador 31002
original, eliminado
118
Francisco Alba Juez
Nueva Numeración
Indicador
31006
31007
31008
32101
32102
32103
32104
32105
32106
32107
32108
32201
32202
32203
33001
33002
33003
33004
33005
33006
34001
34002
34003
34004
34005
34006
34007
34008
34009
Compuesto por los Indicadores
(numeración SECAI original -
94 indicadores)
31008
31009
31010
32101+32102
32103
32104
32105
32106 + 32110
32107 + 32109
32108
32112
32201+32202
32203
32204
33101+33201
33102 + 33202
33103+33205
33104 + 33203
33106 + 33204
33107
34003
34005+34006
34007
34008
34009
34010
34011
34012
34013
Observaciones
Indicador 32111
original, eliminado
Indicador 33105
original, eliminado
119
Francisco Alba Juez
Nueva Numeración
Indicador
34010
40001
40002
40003
40004
40005
50001
50002
50003
50004
Compuesto por los Indicadores
(numeración SECAI original -
94 indicadores)
34014
40001
40002
40003
40004
40005
50001+50007
50002 + 50003
50004 + 50005 + 50006
50008
Observaciones
En ílinción de esta agmpación, y adoptándose la denominación de los factores propuesta
por los expertos de SECAI en su Versión reducida (03), los indicadores que quedarían,
su nueva numeración, denominación y contenidos son los que se muestran en el
siguiente cuadro:
120
Francisco Alba Juez
Cuadro XII:
Denominación Indicadores de Calidad Finales
FACTOR INDICADOR CÓDIGO
P
L
A
N
D
E
E
S
T
U
D
I
O
S
PROCESO DE ELABORACIÓN
Participación de los agentes externos relacionados con la
Carrera: Naturaleza y estructura de la participación.
Participación de los miembros de la comunidad académica de la
institución: Naturaleza y estructura de la participación.
Definición de ámbitos y perfilesprofesionales de los titulados en
función de la demanda social.
Análisis y valoración de los conocimientos, capacidad e
intereses de los estudiantes que acceden a la carrera.
Análisis de congruencia entre los
recursos en función de los objetivos.
contenidos, métodos y
Posibilidades de logro en fimción del tiempo disponible para
cursar el plan.
CONTENIDO
Definición expresa del modelo de formación y de los objetivos
educativos generales de la carrera
Contenido de las enseñanzas. Actualización y adecuación a los
objetivos.
Orientaciones metodológicas y su adecuación a los objetivos.
Criterios para la evaluación
conocimientos y objetivos.
de la congruencia entre
Estructura del Plan de Estudios.
Plan académico de cada asignatura.
Previsión de actividades de nivelación
(propedéuticas)
refuerzo
PUESTA EN MARCHA
Previsión de necesidades (recursos humanos y materiales) en
consonancia con los contenidos del plan.
Nivel de conocimientos y aceptación del Plan por parte de los
miembros de la comunidad educativa.
Programa de seguimiento, evaluación y actualización del Plan.
11001
11002
11003
11004
11005
11006
12001
12002
12003
12004
12005
12006
12007
13001
13002
13003
FACTOR
CONDICIONES DE
INGRESO
ESTUDIANTIL
INDICADOR
Conocimientos previos en áreas básicas.
Capacidades intelectuales generales y especificas en
función de las exigencias de la carrera de ingeniería.
Procedencia de los estudiantes: centros de estudios,
situación socioeconómica.
Motivos de la elección de la carrera y del centro.
CÓDIGO
20001
20002
20003
20004
121
Francisco Alba Juez
FACTOR INDICADOR CÓDIGO
P
R
O
C
E
S
O
D
E
E
N
S
E
Ñ
A
N
Z
A
GESTIÓN ACADÉMICA
Planificación y coordinación de las actividades educativas.
Funcionamiento de los servicios de apoyo, extensión educativa y acogida de
estudiantes.
Funcionamiento de los servicios de apoyo a la función docente.
Mecanismos de seguimiento del progreso académico de los estudiantes y
control de logros.
Recursos económicos destinados a actividades docentes y su gestión.
Programa de captación, formación, perfeccionamiento, retención y
renovación de profesores y personal de administración y servicios.
Mecanismos de evaluación de la calidad de la enseñanza y planes de mejora.
Clima de trabajo, relaciones humanas y compromiso.
31001
31002
31003
31004
31005
31006
31007
31008
RECURSOS HUMANOS: PERSONAL DOCENTE
Número de profesores y su dedicación.
Distribución de profesores por edades y años de experiencia docente y
categorías académicas.
Distribución en función de unidades docentes y actividades.
Nivel académico.
Experiencia académica, formación y producción pedagógica.
Fonnación, experiencia investigadora y producción científica.
Experiencia profesional.
Trabajo en equipo
32101
32102
32103
32104
32105
32106
32107
32108
RECURSOS HUMANOS: PERSONAL DE SERVICIOS
Personal administrativo y de servicio. Número y distribución en función de
actividades.
Preparación técnica para la función.
Actitudes y motivaciones en relación con el trabajo.
INSTALACIONES Y EQUIPAMIENTO
Número, capacidad, equipamiento y adecuación de aulas.
Número, capacidad, equipanuento y adecuación de talleres y laboratorios.
Bibliotecas; capacidad, dotación, accesibilidad y adecuación.
Instalaciones y recursos informáticos. Capacidad y adecuación.
Instalaciones, equipos y recursos didácticos de apoyo a la función docente.
Instalaciones destinadas al trabajo del personal docente y relación entre sus
miembros.
FACTORES DIDÁCTICOS
Adecuación de los objetivos específicos de cada disciplina a los generales de
la enseñanza.
Metodología didáctica y su adecuación a los objetivos.
Sistema de evaluación del aprendizaje y su coherencia con los objetivos,
contenidos y metodología.
Distribución de alumnos en función de las instalaciones, equipos y métodos
de trabajo.
Utilización por parte de los alumnos de los medios de laboratorios y talleres.
Utilización por parte de los estudiantes de los medios informáticos.
Utilización por parte de los alumnos de los medios bibliográficos.
Funcionamiento de las tutorías u otro sistema de apoyo estudiantil.
Dirección de trabajos de fin de carrera.
Clima de trabajo e integración de los estudiantes en la institución.
32201
32202
32203
33001
33002
33003
33004
33005
33006
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
122
Francisco Alba Juez
FACTOR
RESULTADOS
INMEDIATOS
INDICADOR
Nivel de logro de los objetivos previstos.
Relación entre los estudiantes que logran graduarse y los que iniciaron
los estudios.
Duración real media de los estudios.
Identificación de los graduados con el centro, facultad o departamento.
Desenvolvimiento de los titulados en programas de postgrado.
CÓDIGO
40001
40002
40003
40004
40005
FACTOR
INTEGRACIÓN
INDICADOR
Tiempo de logro de su primer trabajo y tasas de desocupación.
Periodo de iniciación profesional y formación complementaria
requerida.
Funciones profesionales desempeñadas por los egresados.
Valoración de los empleadores respecto a la adecuación entre la
formación recibida y el ejercicio profesional.
CÓDIGO
50001
50002
50003
50004
En función de esta agrupación y su nueva numeración, vemos que finalmente el modelo
ha quedado compuesto por cinco (5) factores, nueve (9) subfactores y sesenta y cuatro
(64) indicadores.
En el siguiente cuadro se presenta la comparación global entre la Versión 02 de SECAI
(94 indicadores) y la Versión Optimizada (64 indicadores):
123
Francisco Alba Juez
Cuadro XIII: Comparación Global de la Versión SECAI (94 indicadores) y la
Versión Optimizada (64 indicadores)
Versión SECAI
(94 Indicadores)
Factores y Subfactores
Ii. Plan de Estudios
Ii i . Participación
Ii2. Metodología
Ii3. Contenidos
¡14. Puesta en Marcha
I2. Ingreso de Estudiantes
I3. Proceso de Enseñanza
Aprendizaje
131. Gestión Académica
132. Rec. Humanos
l32i- Profesores
l322- P- Servicios
133. Recursos Materiales
¡331. Instalaciones
I332. Equipamiento
134. Factores Didácticos
I4. Resultados Inmediatos
I5. Integración
Total.
Indicadores
22
3
7
7
5
6
53
10
16
12
4
13
7
6
14
5
8
94
Versión Optimizada
(64 Indicadores)
Factores y Subfactores
Ii. Plan de Estudios
Ii i . Proceso de elaboración
112. Contenido
113. Puesta en Marcha
I2. Ingreso de Estudiantes
I3. Proceso de Enseñanza
131. Gestión Académica
132. Recursos Humanos
1321. Profesores
1322. P. Servicios
l33.Instal. y Equipamiento
I34. Factores Didácticos
I4. Resultados Inmediatos
I5. Integración
Total.
Indicadores
16
6
7
3
4
35
8
11
8
3
6
10
5
4
64
124
Franasco Alba Juez
A continuación-se presenta en. el siguiente cuadro k-comparación-global entre la-Versión 03
de SECAI (69 indicadores) y la Versión Optimizada (64 indicadores):
Cuadro XIV: Comparación. Global entre^ la última versión SECAI
y la Versión Optimizada
Última versión SECAI
Factores y Subfactores
Ii. Plan de estudios
Iii. Proceso de elaboración
Ii2. Contenidos
lis. PuBSta en marcha
I2. Ingresa de estudiantes^
I3. Proceso de Enseñanza
131. Gestión Académica
132. Rec. Humanos
I321. Profesores
l322- P- Servicios
I33 Instalaciones y
Equipamientos
I34. Factores didácticos
I4. Resultados Inmediatos
lis Integración
Total.
Indicadores
16
6
7
3
4
40
9
12
9
3
6
13
5
4
69
Versión Optimizada
Factores ŷ Subfactores
Ii, Plan de estudios
lu. Proceso de elaboración
In. Contenidos
In. Puesta en marcha
I2 Ingresa de estudiantes
la. Proceso de Enseñanza
131. Gestión Académica
132. Ree. Humanos
l32h Profesores
1322- P. Servicios
I33 Instalaciones y
Equipamientos
Ij4. Factores didácticos
I4. Resultados Inmediatos
I5 Integración
Total.Indicadores
16
6
7
3
4
35
8
11
8
3
6
10
5
4
64
125
Francisco Alba Juez
Tal como lo demuestran los cuadros XIII y XIV, el modelo optimizado ha reducido los
94 indicadores originales(versión 02 SECAI) y los 69 indicadores (versión 03, reducida
SECAI) a 64 indicadores.
5.6. APLICACIÓN DEL SISTEMA OPTIMIZADO DE INDICADORES AL
MODELO SECAL
Obtenido el Modelo Optimizado de Indicadores, aparentemente, lo que se debiera hacer,
es efectuar una nueva evaluación, tanto interna como externa, con este modelo
optimizado. Pero en realidad esto no seria correcto, ya que una carrera o centro una vez
evaluado ya no es el mismo, y por tanto, a los efectos de verificar si con el modelo
optimizado se obtienen resultados equivalentes a los obtenidos con el modelo original,
dicha nueva evaluación no seria de mucha utilidad.
Por otra parte, a los efectos de esta tesis, y en función del tiempo, esto seria imposible.
En función de estas dos limitaciones, lo que se propone es evaluar cada una de las nueve
universidades con los nuevos indicadores, dándole a cada uno de ellos como
calificación resultante, el promedio de las calificaciones de cada uno de los indicadores
originales que se han agrupado en cada uno de los nuevos indicadores. De la misma
manera, los índices de calidad finales de cada factor, se calificarán con el promedio de
los valores correspondientes a los indicadores que califican a dicho factor.
A los efectos de poder realizar las comparaciones pertinentes, este trabajo se realizará
con el modelo optimizado (64 indicadores) producto de esta Tesis y con el modelo
reducido de SECAI (69 indicadores)
A tal efecto se presentan seis planillas para cada una de las carreras evaluadas: Dos
planillas correspondientes a la Evaluación Interna y a la Externa efectuadas con el
modelo original (94 indicadores) por los expertos designados por SECAI, dos planillas
correspondientes a la Evaluación Interna y Externa efectuadas con el modelo reducido
de SECAI (69 indicadores) con la calificación de cada uno de los nuevos indicadores e
índices obtenida como se indica más arriba y dos planillas correspondientes a las
Evaluaciones Internas y Externas efectuadas con el modelo optimizado (64
indicadores), producto de esta Tesis, con la calificación de cada uno de los nuevos
indicadores e índices obtenida como se indica más arriba.
5.7. COMPARACIÓN ENTRE LOS ÍNDICES DE CALIDAD OBTENIDOS
CON LA UTILIZACIÓN DE LOS INDICADORES DEL MODELO
ORIGINAL, LOS OBTENIDOS CON EL MODELO REDUCIDO Y LOS
OBTENIDOS CON EL MODELO OPTIMIZADO
De la comparación de cada una de las planillas de evaluación generadas por el Comité
de Evaluación Interna y el Comité de Evaluación Externa, con cada una de las planillas
de evaluación generadas con los nuevos indicadores, se ve claramente que los valores
correspondientes a cada uno de los índices tanto en la Evaluación Interna como en la
Evaluación Externa realizadas con el Modelo SECAI (94 indicadores), coinciden casi en
forma exacta con los valores de los índices obtenidos tanto con el Modelo Reducido de
126
Francisco Alba Juez
SECAI (69 indicadores) como con el Modelo Optimizado (64 indicadores),producto de
esta tesis.
Por tanto, la decisión de asignar a cada uno de los nuevos indicadores el promedio del
valor de los indicadores obtenidos con el Modelo Original de SECAI que los componen,
parece ser aceptable.
A continuación se presentan los cuadros de Evaluación correspondientes al Modelo
Original de SECAI y sus equivalentes correspondientes al Modelo Reducido de SECAI
y al Modelo Optimizado producto de esta Tesis, para cada una de las Universidades y
carreras evaluadas, así como los cuadros correspondientes a cada universidad y cada
carrera, donde se comparan los índices obtenidos con el modelo Original, con el
Reducido de SECAI y los obtenidos con el Modelo Optimizado.
Como se podrá ver en estos cuadros, cada indicador del Modelo Optimizado permanece
en la misma posición de la escala de valoración que los indicadores del Modelo
Original, y las diferencias existentes entre ellos no son sustantivas.
Lo mismo sucede con los índices finales de calidad. En general las diferencias entre los
índices de los dos Modelos SECAI y los del Modelo Optimizado no son sustantivas,
salvo en algunos casos, y siempre localizados en los índices In, I12 e lo, puesto que al
haberse modificado la estructura del Modelo Original, el índice In tanto en el Modelo
Reducido de SECAI como en el Modelo Optimizado producto de esta Tesis, califica al
subfactor "Proceso de Elaboración", que es la conjunción de los subfactores:
"Participación" (índice In), y "Metodología" (índice I12) del Modelo Original de
SECAI.
Así mismo, en el Modelo Original de SECAI, los índices I]2 e I13, califican a los
subfactores "Metodología" y "Contenido" respectivamente, mientras que, tanto en el
Modelo Reducido de SECAI como en el Modelo Optimizado producto de esta Tesis,
califican a los subfactores "Contenido" y "Puesta en Marcha" respectivamente.
El resto de las diferencias se deben, en general, a que tanto en el Modelo Reducido de
SECAI como en el Modelo Optimizado, el índice de cada factor es el promedio de las
calificaciones otorgadas a cada indicador perteneciente a dicho factor, mientras que en
el Modelo Original de SECAI, el índice de cada factor no siempre coincide con el
promedio de los valores asignados a los indicadores de ese factor, y cuanto más se
aparta de éste, mayor es la diferencia.
127
Francisco Alba Juez
MODELO SECAI
( 94 indicadores)
EVALUACIÓN INTERNA - CEI
P.J.B.C-.
Carrera: Ingeniería Electrónica
CRE-COLUMBUS
PLAN DE ESTUDIOS
PARTICIPACIÓN
11001
11002
11003
4
CONTENIDO
13001
5 13002
4 1 13003
1 METODOLOGÍA I 13004
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
5 1 13005
4
5
5
4
5
4
4
4
13006
13007
P.EN M
14001
14002
14003
14004
14005
Il3
lld
li = 4
5
4
5
4
4
5
3
ARCHA
4
5
4
4
4
4
4
SISTEMA DE EVAI.IIAriON DE I.A T A I i n A n
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
I. ESTUDIANTES
20001
20002
20003
20004
20005
20006
5
5
4
4
3
5
PROCESO DE ENSEÑANZA
• —
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
1 31008
31009
31010
4
4
3
3
3
3
4
3
4
5
1 P. SERVICIOS
32201
32202
l 2 = 4
32203
32204
l31
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
32109
32110
32111
4 1 32112
3
5
5
4
I321
I322
I32
3
3
3
2
3
3
3
3
4
3
4
5
3
4
4
U
INSTALACIONES
33101
33102
33103
33104
33105
33106
33107
4
4
4
4
4
3
3
EQUIPOS
33201
33202
33203
33204
33205
33206
I331
I332
I33
4
4
4
4
4
4
4
4
4
= 4
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
F. DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
I34
3
3
5
4
4
3
3
4
4
3
4
3
3
5
= 4
RESULTADOS
40001
40002
40003
40004
40005
4
3
INTEGRACIÓN
50001
50002
3 50003
4 1 50004
4 50005
50006
50007
1 50008
1
1
I4 = 4 ,
i
5
4
4
4
0
2
4
4
= 4
128
Francisco Alba Juez
MODELO SECAI
( 94 indicadores)
EVALUACIÓN EXTERNA CEE
P.J.B.CJ.
Carrera: Ingeniería Electrónica
CRE-COLUMBUS
PLAN DE ESTUDIOS
PARTICIPACIÓN 1 CONTENIDO
11001
11002
11003
4
5
2
METODOLOGÍA
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
5
4
5
5
4
5
3
3.67
13001
13002
13003
13004
13005
13006
13007
5
4
5
4
4
5
2
P.EN MARCHA
14001
14002
14003
14004
14005
1,3
4.43 1 1,4
li = 4.04
4
5
4
4
4
3.85
4.2
SI
DE
I. ESTUDIANTES
20001
20002
20003
2 0 0 0 4
20005
20006
' -
5
5
4
4
4
3
4.17
STEMA DE EVALUACIÓN DE LA CALIDAD
LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
PROCESO DE ENSEÑANZAGESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
4
5
3
4
3
3
5
2
4
5
P. SERVICIOS
32201
32202
32203
32204
Ui
5
4
5
5
3.8
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
32109
32110
32111
32112
l32i
I322
I32
1
2
2
2
2
2
3
3
3
3
4
5
2.67
4.75
3.71
u
INSTALACIONES
33101
33102
33103
33104
33105
33106
33107
4
4
5
5
4
4
4
EQUIPOS
33201
33202
33203
33204
33205
33206
h^^
l » 2
I33
= 4
5
5
5
5
4
4
4.29
4.67
4.48
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
F. DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
I34
3
3
5
4
4
3
3
5
5
5
5
3
3
5
= 4
RESULTADOS INTEGRACIÓN
40001
40002
40003
40004
40005
4 1 50001
3 50002
3 50003
4
4
50004
50005
50006
50007
50008
1
U=3.6 .
5
4
4
4 1
° 2
5
4
= 4
129
Francisco Alba Juez
P.J.B.C..
Carrera: Ingeniería Electrónica
EVALUACIÓN INTERNA
CON MODELO SECAI REDUCIDO
(69 Indicadores)
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
4
5
5
5
4
4
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
5
4
5
4
4
5
3
4.5
4.28
PUESTA EN
MARCHA
13001
13002
13003
l„
4
4.5
4
4.16
li = 4.3
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
4
4
3
5
PROCESO DE ENSEÑANZA
1 RECURSOS
GESTIÓN 1 HUMANOS
31001
31002
31003
31004
31005
1 31006
31007
31008
31009
l2=4
l31
4 PROFESORES
4 32101
3 32102
3 32103
3 32104
4 32105
3 32106
4 32107
5 32108
32109
3
3
2
3
3
3.5
3
4
5
1 PERS. SERVICIOS
32201
32202
32203
' ' "
1 ^"^
3.6 1 Ij2
3.5
5
5
INSTALACIONES Y
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
3.28
4.5
3.89
l3 =
I33
4
4
4
4
3.5
3
3.75
3.72
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
3
3
5
4
3.5
3
4
4
3
4
3
3
5
'34 = 3.65
RESULTADOS
40001
40002
40003
40004
40005
INTEGRACIÓN
4 1 50001
3 50002
3 50003
4 50004
4
1 i
4.5
4
3
4
U = 3.6 U - 3.88
130
Francisco Alba Juez
EVALUACIÓN EXTERNA
CON MODELO SECAI REDUCmO
(69 Indicadores)
P.J.B.C.
Carrera : Ingeniería Electrónica
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE 1 PUESTA EN
ELABORACIÓN I MARCHA
11001
11002
11003
11004
11005
11006
4 1 13001
5 13002
5 13003
5
4
3
CONTENIDO 1
12001
12002
12003
12004
12005
12006
12007
íii
Il2
5 1
4 1
5
4
4
5
3
4.33 Ii3
4.28 i
1, = 4.25
4
4.5
4
4.16
cisTPMA np FVAí iiAmniM np i A r-Ai irtAn
DE LAS ENSEÑANZAS DE INGENIERÍA (SECA!)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
4
4
4
4
l 2 = 4
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
31009
Ui
RECURSOS
HUMANOS
4 1 PROFESORES
4
3
32101
32102
3 32103
3 32104
4
3
32105
32106
4 32107
5 32108
32109
1.5
2
2
2
2.5
3
3
4
5
1 PERS. SERVICIOS
322Ó1
32202
3.7
32203
I321
I322
I32
4.5
5
5
2.77
4.8
3.8
h =
INSTALACIONES Y
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
I33
3.9
4.5
4.5
4.5
5
4.5
4
4.5
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN |
FACT
DIDAC
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
ORES
TICOS
3
3
5
4
3.5
3
4
4
3
^
RESULTADOS
40001
40002
40003
40004
40005
3
3
5
1 3 4 = 3 . 6 5
4
3
3
4
4
I4 = 3.6
INTEGRACIÓN
50001
50002
50003
50004
5 1
4
3
4
l 5 = 4
131
Francisco Alba Juez
EVALUACIÓN INTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
P.J.B.C
Carrera: Ingeniería Electrónica
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
PUESTA EN
MARCHA
4 1 13001
4.5 13002
5 13003
4
^
4
CONTENIDO 1
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
5 1
4 1
5
4
4
5
3
4.25
4.28
Il3
4
4.5
4
4.16
li = 4.23
e i s T f M A nir r V A í i i A r ' i n v n r i A Í - A I ir>An
DE LAS ENSEÑANZAS DE INGENIERÍA (SECA!)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
4
4
3
5
PROCESO DE ENSEÑANZA
GESTIÓN
31001
3 1 0 0 2
3 1 0 0 3
3 1 0 0 4
31005
31006
31007
31008
l31
4
3
3
3
4
3
4
5
3.6
RECURSOS
HUMANOS
PROFESORES
32101
32102
32103
3 2 1 0 4
32105
32106
32107
32108
3
3
2
3
3
3.5
3
5
PERS. SERVICIOS
32201
32202
32203
I321
I322
I32
3.5
5
5
3.18
4.5
3.84
lj=4 I l3 =
INSTALACIONES Y
EQUIPAMIENTO
33001
3 3 0 0 2
3 3 0 0 3
3 3 0 0 4
3 3 0 0 5
33006
I33
3.73
4
4
4
4
3.5
3
3.75
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
3 4 0 0 2
3 4 0 0 3
3 4 0 0 4
34005
34006
34007
34008
3 4 0 0 9
34010
5
3.5
3
4
4
3
RESULTADOS
40001
4 0 0 0 2
40003
4 0 0 0 4
40005
4
3
3
5
1 1 1
134=3.75
INTEGRACIÓN
4 50001
3
3
5 0 0 0 2
5 0 0 0 3
4 5 0 0 0 4
4
I4 = 3.6
4.5
4
3
4
U = 3.88
132
Francisco Alba Juez
EVALUACIÓN EXTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
P.J.B.C.
Carrera: Ingeniería Electrónica
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
riTóoi
11002
11003
11004
11005
11006
3
3.5
5
4
4
3
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
PUESTA EN
MARCHA
13001
13002
13003
5 1
4 1
5
4
4
5
2.5
3.75 Il3
4.2 1
l, = 4
4
4.5
4
4.16
sisTPVtA niT r v A í iiAí-inM nir i \ r'Ai iriAn
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
4
4
4
4
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
i l31
4
3
4
3
4.5
2
4
5
RECURSOS
HUMANOS
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
1.5
2
2
2
2.5
3
3
5
PERS. SERVICIOS
32201
32202
32203
I321
1 '̂̂ ^ 3.7 1 1,2
l2=4 I
4.5
5
5
2.62
4.8
3.72
I3 •
INSTALACIONES Y
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
hi
= 4
4.5
4.5
4.5
5
4.5
4
4.5
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
IM =
5
3.5
3
5
5
5
5
3
3
5
4.25
RESULTADOS
40001
40002
40003
40004
40005
4
3
3
4
4
I4 = 3.6
1
INTEGRACIÓN
50001
50002
50003
50004
'
5
4
3
4
= 4
133
Francisco Alba Juez
Comparación de los índices obtenidos con el modelo SECAI (94 indicadores)
y los obtenidos con los modelos SECAI reducido (69 indicadores) y Optimizado (64 indicadores)
P.J.B.C.
Carrera: Ingeniería Electrónica
ÍNDICE
Iii
1.2
1.3
1.4
1.
h
hx
hll
I322
I32
I33.
I332
I33
I34
I3
I4
I5
(1)
EVAL.
INT.
SECAI
(94 ind.)
4
4
4
4
4
4
4
3
4
4
4
4
4
4
4
4
4
(2)
EVAL.IN
T. SECAI
(69 Ind.)
4,5
4,28
4,16
4,3
4
3,6
3,28
4,5
3,89
3,75
3,65
3,72
3,6
3,88
(3)
EVAL.
INT.
MOD.
OPTIM.
(64 Ind.)
4,25
4,28
4,16
4,23
4
3,6
3,19
4,5
3,85
3,75
3,75
3,73
3,6
3,88
DIFERENCIA
( l ) - (2)
0,5=12,5%
0,28=7%
0,16=4%
0,3=7,5%
0=0%
0,4=10%
0,28=9,3%
0,5=12.5%
0,11=2,75%
0,25=6,25%
0,35=8.75%
0,28=7%
0,4=10%
0,12=3%
DIFERENCIA
( l ) - (3)
0,25=6,25%
0,28=7%
0,16=4%
0,23=5,75%
0=0%
0,4=10%
0,19=6%
0,5=12.5%
0,15=3,75%
0,25=6,25%
0,25=6,25%
0,27=6,75%
0,4=10%
0,12=3%
DIFERENCIA
(2)-(3)
0,25=5,5%
0=0%
0=0%
0,07=1,6%0=0%
0=0%
0,09=2,7%
0=0%
0,04=1%
0=0%
0,1=2,6%
0,01=0,26%
0=0%
0=0%
(4)
EVAL.
EXT.
SECAI
(94 ind.)
3,67
4,43
3,85
4,2
4,04
4,17
3,8
2,67
4,75
3,71
4,29
4,67
4,48
4
4
3,6
4
(5)
EVAL.
EXT.
SECAI
(69 ind.)
4,33
4,28
4,16
4,25
4
3,7
2,77
4,8
3,8
4,5
3,65
3,9
3,6
4
(6)
EVAL.
EXT.
MOD.
OPTIM
(64 ind.)
3,75
4,2
4,16
4
4
3,7
2,62
4,8
3,72
4,5
4,25
4
3,6
4
DIFERENCIA
(4)-(5)
0,66=18%
0.15=3.4%
0.31=8%
_
0.26=6.4%
0.17=4%
0.1=2.6%
0,1=3,7%
0.05=1%
0.09=2,4%
—
_
0,02=0,44%
0.35=8.7%
0,1=2,5%
0=0%
0=0%
DIFERENCIA
(4)-(6)
0.08=2.1%
0.23=5.2%
0.31=8%
~
0.04=0.99%
0,17=4%
0.1=2.6%
0.05=1.87%
0.05=1%
0.01=0.27%
—
—
0.02=0.44%
0.25=6.25%
0=0%
0=0%
0=0%
DIFERENCIA
(5)-(6)
0,58=13,4%
0.08=1.9%
0=0%
—
0.3=7%
0=0%
0=0%
0,15=5,4%
0=0%
0,08=2,1%
—
—
0=0%
0.6=14%
0,1=2,5%
0=0%
0=0%
134
Francisco Alba Juez
GRÁFICO 1: P.J.B.C. - CARRERA INGENIERÍA ELECTRÓNICA
EVALUACIÓN INTERNA
5 n
4,5
4
3,5
c2,5
c
' 2
o
1,5
1
0,5
O
111
m(3)
'^ \ i í - f
.•í. ^ ^ ir -i >á
í -r:
:3
í%
•-f v«
112 113 114 11 12
EVAL INT. SECAI (94 ind.)
EVALINT. SECAI (69 Ind.)
EVAL INT. MOD. OPTIM (64 Ind.)
131 1321 1322 132 1331 1332 133 134 13 14 15
135
Francisco Alba Juez
GRÁFICOII: P.J.B.C. • CARRERA INGENIERÍA ELECTRÓNICA
EVALUACIÓN EXTERNA
5
4,5
4
^3,5
A
"• 3
F
¿2,5
A
o
'̂ 1,5 4- ^ .
ir«
0,5 -
O f
1
1 '
V
1
r ,
-B
A
1
~- 4 ->. <
"
r
i.
—
•
*
J
i
",
, - ,
•
-
-
1.
T'
•-1
P
-
^ 1
n n ;
<
: ^
p—
• 1
^
•
:
.
-
,
•^
^>
\
^
í^:
- i ;
1
"
r
-í
u « .
S™
( í í
i •
í
í
su
í "̂
r j
i''
A
>
^ í
-
y
T >
i '
í
'
\'
'^i- i
¿
,
-
i-.
>
i-
é
%
tt
!
;-í«
"<.
1;
A
-
\'
1̂
t
9
Vi
T'
n.*;
4
#
4?
?' - í ái ¥
^ >í • ^
^
•N>
A:
V^/
fl :
^
•í
•f
*
« 1
<#=
¡Si
s
4
KJ
! • • :
íi !<
i'.í
* 5£̂
• * <
111 112 113 114 II 12 131 1321 1322 132 1331 1332 133 134 13 14 15
m(4)
m(6)
EVAL EXT. SECAI (94 ind.)
EVAL EXT. SECA! (69 ind.)
EVAE EXT. MOD. OPTIM (64 ind.)
136
Francisco Alba Juez
MODELO SECAI
( 94 indicadores)
EVALUACIÓN INTERNA - CEI
N.M.P.A.
Carrera: Ingeniería Eléctrica y Electrónica
CRE-COLUMBUS
PLAN DE ESTUDK
PARTICIPACIÓN 1 '^"'^^
11001
11002
11003
3 1 13001
4
4
METODOLOGÍA
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
3
4
13002
13003
13004
13005
13006
3 13007
:>iiDO
5
4
3
4
4
4
3
^ 1 P.EN MARCHA
4 14001
3 14002
2 I 14003
14004
14005
1
1
3.66 Ii3
3.3 1 Ii4
3
4
4
3
3
3.85
3.4
1, = 3.53
SISTEMA DE EVALUACIÓN DE LA CALIDAD
DE LAS ENSEÑANZAS DE INGENIERU (SECAI)
I. ESTUDIANTES
20001
20002
20003
20004
20005
20006
l2 =
5
0
4
'
3
1
2.8
PROCESO DE ENSEÑANZ.A
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
4
4
3
3
4
4
3
4
4
4
P. SERVICIOS
32201
32202
32203
32204
I31
4
3.5
3
0
3.7
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
32109
32110
32111
32112
l32i
\^n
I32
4
3
4
3
3
3
3
3
3
3
3
4
3.25
3.5
3.37
13 =
INSTALACIONES
33101
33102
33103
33104
33105
33106
33107
3
3
1
3
3
2
4
EQUIPOS
33201
33202
33203
33204
33205
33206
I331
'332
r33
3
2
2
2
1
2
2.71
2
2.36
= 3
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
F. DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
IS4=
3
4
4
4
4
3
3
4
2
3
2
2
4
4
3.29
RESULTADOS
40001
40002
40003
40004
40005
4
2
3
3
4
I4 = 3 .2
INTEGRACIÓN
50001
50002
50003
50004
50005
50006
50007
50008
u =
1
^
3
4 1
3
^
4
3 1
3.25
137
Francisco Alba Juez
MODELO SECAI
( 94 indicadores)
EVALUACIÓN EXTERNA - CEE
N.M.P.A.
CRE-COLUMBUS
PLAN DE ESTUDIOS
PARTICIPACIÓN
11001
11002
11003
3
4
4
METODOLOGÍA
12001
12002
12003
12004
12005
12006
12007
lii
Il2
3
4
4
4
4
4
2
3.6
3.6
CONTENIDO
13001
13002
13003
13004
13005
13006
13007
5
4
4
5
4
5
4
P.EN MARCHA
14001
14002
14003
14004
14005
Ii3
Il4
3
4
4
4
4
4.4
3.8
1
SISTEMA DE EVALUACIÓN DE LA CALIDAD
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
I. ESTUDIANTES | PROCESO DE ENSEÑANZA
20001
20002
20003
20004
20005
20006
l2 =
5
0
4
'
GESTIÓN
31001
31002
31003
31004
0 31005
1
2.7
31006
31007
31008
31009
31010
4
4
3
2
PROFESORES
32101
32102
32103
32104
4 1 32105
4
2
3
3
5
P. SERVICIOS
32201
32202
32203
32204
I31
3
3
3
0
3.5
32106
32107
32108
32109
32110
32111
32112
I321
I322
I32
4
4
4
3
4
3
4
3
4
3
4
4
3.6
3
3.3
l3 =
INSTALACIONES
33101
33102
33103
33104
33105
33106
33107
3
3
2
3
3
2
4
EQUIPOS
33201
33202
33203
33204
33205
33206
I331
I332
I33
3
3
3
2
2
2
2.8
2.5
2.6
= 3
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
F. DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
134 =
3
4
4
4
4
3
4
4
2
3
2
4
5
5
3.6
RESULTADOS INTEGRACIÓN
40001
40002
40003
40004
40005
0 1 50001
2 50002
3 50003
5 1 50004
4 50005
50006
50007
1 50008
l4 = 3.5 l5=
0
0
0
4
0
0
°
3
3.5
138
Francisco Alba Juez
EVALUACIÓN INTERNA
CON MODELO SECAI REDUCIDO
{69 Indicadores)
N.M.P.A.
Carrera: Ingeniería Eléctrica y Electrónica
CRE-COLUMBUS
SISTEMA DE EVALUACIÓN DE LA CALIDAD
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
139
Francisco Alba Juez
EVALUACIÓN EXTERNA
CON MODELO SECAI REDUCmO
(69 Indicadores)
N.M.P.A.
arrer a: Ingeniería E
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE 1 PUESTA EN
ELABORACIÓN I MARCHA
11001
11002
11003
11004
11005
11006
3.5 1 13001
4 13002
3 13003
4
4
2
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
'«
5
4
4
5
4
5
4
3.4 1,3
4.4 1
3
4
4
3.6
li = 3.82
éctrica y Electrónica
SISTEMA DE EVALUACIÓN DE LA CALIDAD
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
4
PROCESO DE ENSEÑANZA
1 RECURSOS
GESTIÓN 1 HUMANOS
31001
1 31002
0 31003
1 31004
31005
31006
31007
31008
31009
..= 2
l ] i
4 1 PROFESORES
4 32101
3 32102
2 32103
4
2
3
3
5
32104
32105
32106
32107
32108
32109
4
4
3
4
3
4
3
4
4
PERS. SERVICIOS
32201
32202
32203
l321
l]22
3.33 1 I32
3
3
0
3.6
3
3.3
l j =
INSTALACIONES Y
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
I33
3
3
2
3
2
4
2.8
3.27
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN |
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
134 =
3
4
4
4
3.5
4
4
2
3
2
4
5
5
3.65
RESULTADOS
40001
40002
40003
40004
40005
0
2
3
5
4
l4 = 3.5
INTEGRACIÓN
50001
50002
50003
50004
0
0
4
3
I5 = 3.5
140
Francisco Alba Juez
N.M.P.A
Carrera: Ingeniería Eléctrica y Electrónica
EVALUACIÓN INTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
CRE-COLUMBL'S
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
3.5
4
PUESTA EN
MARCHA
13001
13002
3 1 13003
3
4
2
1
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
5
4
3
4
4
4
3.5
3.25 Ii3
3.91
3
4
3
3.33
li = 3.6
DÉLAS
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
4
1
3
1
. ,= 2.25
ENSEÑANZAS DE INGENIERÍA (SECA!)
PROCESO DE
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
Ui
4
3
RECURSOS
HUMANOS
PROFESORES
32101
3 I 32102
4 32103
2.5
4
4
4
32104
32105
32106
32107
32108
3.5
4
3
3
3
3
3
4
1 PERS. SERVICIOS
32201
32202
32203
g ' " ^
hl2
3.6 1 1,2
3.75
3
0
3.3
ENSEÑANZA
INSTALACIONES V
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
3.4
3.35 1 1»
3
2.5
1
2.5
2
4
2.5
lj = 3.15
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
IM =
4
RESULTADOS
40001
3.5 40002
3
4
2
3
40003
40004
40005
2
2
^
4
1 1
4
2
3
3
4
INTEGRACIÓN
50001
50002
50003
50004
j
3.15
U = 3.2
2.5
3.5
3.66
3
Is = 3.16
141
Francisco Alba Juez
EVALUACIÓN EXTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
N.M.P.A.
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
PUESTA EN
MARCHA
4.5 1 13001
4 13002
3 13003
3.5
4
2
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
lii
'«
5
4
4
5
4
5
4
3.5 l„
4.4 1
3
4
4
3.6
li = 3.85
BisTPVfA wv iTVAí i r A n i n v T\v I A r-Ai i r i A n
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
4
1
0
1
PROCESO DE ENSEÑANZA
1 RECURSOS 1 INSTALACIONES Y
GESTIÓN I HUMANOS 1 EQUIPAMIENTO
31001
31002
31003
31004
31005
31006
31007
31008
l 2 = 2
Ui
4 I PROFESORES 1 3 3 0 0 1
3 32101
2
4
32102
32103
2 32104
3
3
5
32105
32106
32107
32108
4 1 33002
4 33003
3
4
3
33004
33005
33006
4
3
^
1 PERS. SERVICIOS 1
3.25
32201
32202
32203
I321
I32}
I32
3 1
3
0
3.6
3
3.3 1 I3J
t3 = 3.26
3
3
2
3
2
4
2.8
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
4
4
4
4
2
3
2
4
5
5
«34=3.7
RESULTADOS
40001
40002
40003
40004
40005
0
INTEGRACIÓN
50001
2 50002
3 50003
5 50004
4
1
1
1
i
U = 3.5 , . .
0
0
4
3
3.5
142
Francisco Alba Juez
Comparación de los índices obtenidos con el modelo SECAI (94 indicadores)
y los obtenidos con los modelos SECAI reducido (69 indicadores) y Optimizado (64 indicadores)
N.M.P.A.
Ingeniería Eléctrica y Electrónica
ÍNDICE
Iii
Il2
I|3
Il4
Ii
I:
I31
I321
I322
I32
I331
I332
I33
I34
I3
I4
I5
(1)
EVAL.
INT.
SECAI
(94 ind.)
3,66
3,3
3,85
3,4
3,53
2,8
3,7
3,25
3,5
3,37
2,71
2
2,36
3,29
3
3,2
3,25
(2)
EVAL.IN
T. SECAI
(69 Ind.)
3,25
3,86
3,33
3,48
2,25
3,6
3,3
3,4
3,35
2,5
3,27
3,18
3,2
3,16
(3)
EVAL.
INT.
MOD.
OPTIM.
(64 Ind.)
3,25
3,9
3,33
3,5
2.25
3,6
3,3
3,4
3,35
2,5
3,15
3,15
3,2
3,16
DIFERENCIA
0)-(2)
0.41 = 11%
0.56=17%
0,52=13,5%
~
0,05=1,4%
0.55=19.6%
0.1=2.7%
0.05=1.5%
0.1=2.8%
0.02=0.59%
—
—
0.14=5.9%
0.02=0.6%
0.18=6%
0=0%
0.09=2.77%
DIFERENCIA
( l ) - (3)
0.41 = 11%
0.6=18%
0.52=13.5%
—
0.03=0.85%
0.55=19.6%
0.1=2.7%
0.05=1.5%
0.1=2.8%
0.02=0.59%
— "
_
0.14=5.9%
0.14=4.2%
0.15=5%
0=0%
0.09=2.77%
DIFERENCIA
(2)-(3)
0=0%
0.04=0.97%
0=0%
—
0,02=0,5%
0=0%
0=0%
0=0%
0=0%
0=0%
—
—
0=0%
0.12=3.7%
0.03=0.94%
0=0%
0=0%
(4)
EVAL.
EXT.
SECAI
(94 ind.)
3,6
3,6
4,4
3,8
3,8
2,7
3,5
3,6
3
3,3
2,8
2,5
2,6
3,6
3
3,5
3,5
(5) ,
EVAL.
EXT.
SECAI
(69 ind.)
3,4
4,4
3,6
3,82
2
3,33
3,6
3
3,3
2,8
3,65
3,27
3,5
3,5
(6)
EVAL.
EXT.
MOD.
OPTIM
(64 ind.)
3,5
4,4
3,6
3,85
2
3,25
3,6
3
3,3
2,8
3,7
3,26
3,5
3,5
DIFERENCIA
(4)-(5)
0.2=5.5%
0.8=22%
0.8=18%
—
0.02=0.5%
0.7=26%
0.17=4.8%
0=0%
0=0%
0=0%
_
—
0.2=7%
0.05=1.37%
0.27=9%
0=0%
0=0%
DIFERENCIA
(4)-(6)
0.1=2.7%
0.8=22%
0.8=18%
_ .
0.05=1.3%
0.7=26%
0.25=7%
0=0%
0=0%
0=0%
—
—
0.2=7%
0.1=2.7%
0.26=8.6%
0=0%
0=0%
DIFERENCIA
(5)-(6)
0.1=2.8%
0=0%
0=0%
~
0.03=0.8%
0=0%
0.08=2.4%
0=0%
0=0%
0=0%
—
_
0=0%
0.05=1.35%
0.01=0.3%
0=0%
0=0%
143
Francisco Alba Juez
GRÁFICO III: N.M.P.A - CARRERA INGENIERÍA ELÉCTRICA Y ELECTRÓNICA
EVALUACIÓN INTERNA
4,5
4 . _ .
3,5
2,5
2 -
1,5 • -
I
0,5
O -r
111 112 113 114 I I 12 131
U(2)
B(3)
EVAL INT. SECAI (94 ind.)
EVALINT. SECAI (69 Ind.)
EVAL INT. MOD. OPTIM. (64 Ind.)
1321
í '
• \ '
Sí
1 í? 4s
> 4,
• 1
i
. t
i
!5!
;; '̂
'r
1
#-.
t^ i- ti"
fe k
1̂ ); ií
,*'
*£
1^
1322 132 1331 1332 133
ÍNDICE
134 15
144
Francisco Alba Juei
GRÁFICO ly: N.M.PA. - CARERA INGENIERÍA ELÉCTRICA Y ELECTRÓNICA
EVAL UACION EXTERNA
'
3.5
3
2 . 5 .
• :
;
': :. .;••. ,^^-7-:. :v
jp^ -̂̂ -'" • rr:
•
-
1
¡̂ ,5] .
i
i :
1 i :
0.5 -
1
?;•=
i V
aj.:
«:
fcɫ
V
*
ii'
ÍÍÍ-
>'.*;
'.̂ '
¡ ; ;
'*
|:
í
«
• Í ;
1 • í
, i
1
-.; \;
' • -
. í
Sí-
i
IS
HS
f
3,
1
i
\
• J:
• • -
> • • , • •
^
!,
1
1
.'..:
•
",:,
•••
V
t.
V-
• ;
i*
X
K
r
h
• j
r
1
r
t
-
•
—
_ .
'
1 - .
b
r
, -ilKi0
»-Ki
•
•
,
'
T
"
)
«•
i*»
-
r l . " '
V.
^
•
î <
•
.̂ ' i i :
V •
;
; '
^ o
y^
\<
\ i
—
" •
^ -*
í
3*
\
í •)
—
%
' ^
;•?«
•^r
T j(
...
<T
•
í
.,.,
• V ,
-<.
•
.«.;
1
("?í
i
t
*
, —
'1
'«.
r
f
¿£
s
k
^
r
^
^
Ví̂
R
r
^
, ^ .
r>
-
-•r
•^
> • :
'.
-_
" •
, "
, ,
V
,
-
- í
\* íVf
- ' •
,
( 1
^
< ,
J'
h S
1
j
, '̂ -• 1 .
^
,
V
• »
> • $
" i
••
' r
-,
D22
Í N D I C E
0(4)
B(5)
• (6)
EVAL. EXT. SECAH94 ind.)
EVAL. EXT. SECAH69 ind.)
EVAL. EXT. MOD. OPTIM (64 Ind.)
145
Francisco Alba Juez
MODELO SECAI
(94 indicadores)
EVALUACIÓN INTERNA - CEI
P.N.Q.E.
Carrera : Ingeniería Eléctrica y Electrónica
CRE-COLUMBUS
PLAN DE ESTUDIOS
PARTICIPACIÓN I CONTENIDO
11001
11002
11003
4 1 13001
5 13002
4.5 I 13003
METODOLOGÍA I 13004
12001
12002
12003
12004
12005
12006
12007
lii
Il2
4 1 13005
5 13006
4 13007
4
4
4
4
4
4
4
4
4
4
4
P.EN MARCHA
14001
14002
14003
14004
14005
4.5 l,j
4.1 !• Il4
5
4
4
4
4
4
4.2
li = 4.2
.SISTEMA DE F.VAI.IIAriON HE LA C A L i n A n
DÉLAS
I. ESTUDIANTES
20001
20002
20003
20004
20005
20006
3 1
3
3
3
3
3
. .= 3
ENSEÑANZAS DE INGENIERÍA (SECAI)
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
4
PROFESORES INSTALACIONES
32101
4 32102
4 32103
4 I 32104
4 32105
4 32106
4 32107
4 1 32108
4 32109
4 1 32110
p. SERVICIOS 1 32111
32201
32202
32203
32204
I31
3 1 32112
3
3
3
4
I321
I322
I32
4
4
4
4
4
4
4
4
4
4
4
4
4
3
3.5
33101
33102
33103
33104
33105
33106
33107
4
4
4
4
3
3
4
EQUIPOS
33201
33202
33203
33204
33205
33206
I331
I332
I33
4
4
4
4
4
4
3.7
4
3.9
I3 = 3.7
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
F. DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
I34
4
4
4
4
4
4
4
4
4
4
4
4
4
4
= 4
1 RESULTADOS
1 40001
40002
40003
1 40004
40005
1
1 1
1
4
4
4
4
4
INTEGRACIÓN
50001
50002
50003
50004
50005
50006
50007
500081
1 U=4 1 U'
4
4
4
4
4
4
4
4
= 4
146
Franásco Alba Juez
MODELO SECAI
( 94 indicadores)
EVALUACIÓN EXTERNA - CEE
P.N.Q.E.
Carrera; Ingeniería Eléctrica y Electrónica
CRE-COLUMBUS
PLAN DE ESTUDIOS
PARTICIPACIÓN
11001
11002
11003
2
4
2.75
METODOLOGÍA
12001
12002
12003
12004
12005
12006
12007
.. ' l i
Il2
2
3
2
3.5
3
2.5
CONTENIDO
13001
13002
13003
13004
13005
13006
13007
3.5
3.5
3
2.5
4
3
4
' •^MARCHA
14001
14002
2.5 1 14003
14004
14005
2.9 1 Ii3
2.6 1 l„
3
4
3.5
2.5
2
3.4
3
l, = 3
SISTEMA DE EVALUACIÓN DE LA CALIDAD
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
I. ESTUDIANTES | PROCESO DE ENSEÑANZA
20001
20002
20003
20004
20005
20006
l7 =
0
0
0
GESTIÓN I PROFESORES
31001
31002
31003
0 1 31004
0 31005
0 31006
31007
1 31008
31009
31010
3.5 j 32101
2
3
2
2.5
2.5
1.5
1.5
1.5
2
1 P. SERVICIOS
32201
32202
32203
32204
1 l31
= 0
3.5
2.5
2.5
2.5
2.2
32102
32103
32104
32105
32106
32107
32108
32109
32110
32111
32112
I321
I322
1»
4
4
3
3
3.5
2.3
1.5
2.6
1.5
3
2.4
2
2.7
2.8
2.8
l3 =
INSTALACIONES
33101
33102
33103
33104
33105
33106
33107
3
3
2
3
3
2
3
EQUIPOS
33201
33202
33203
33204
33205
33206
'331
I332
I33
2.5
2
1.5
2
2
1
1.8
2.7
1.7
2.2
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
F. DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
l34=
4
4
3
3.1
3
2.5
3
3.5
3
2
1.5
2.4
2.6
2.3
2.9
RESULTADOS INTEGRACIÓN
40001
40002
40003
40004
40005
3.4 1 50001
2.5
2.5
50002
50003
4 1 50004
4.5 50005
50006
50007
50008
1
1
l 4 = 3 . 4
l5 =
1
4
4
3
4
4
4.5
4
4
í
3.9
147
Francisco Alba Juez
EVALUACIÓN INTERNA
CON MODELO SECAI REDUCIDO
(69 Indicadores)
P.N.Q.E.
Carrera: Ingeniería Eléctrica y Electrónica
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
4.25
5
4
4
PUESTA EN
MARCHA
13001
13002
13003
4
4
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
Il7
4
4
4
4
4
4
4
4.2
4
Ii3
5
4
4
4.33
l ,=4.17
«leTFVtA n c rvAí irAr'irjM nir i A / -AI inAn
DE
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
3
3
3
3
l2=3
LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
PROCESO DE ENSEÑANZ.A
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
31009
l ] i
4
4
4
4
4
4
4
4
4
4
RECURSOS 1 INSTALACIONES V
HUMANOS 1 EQUIPAMIENTO
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
32109
4
4
4
4
4
4
4
4
4
PERS. SERVICIOS
32201
32202
32203
l » i
I322
I32
3
33001
33002
33003
33004
33005
33006
3 1
'
'
^
3.5 1 Ijj
4
4
4
4
3.5
4
3.91
Ij = 3.85
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
4
4
4
4
4
4
4
4
4
4
4
4
4
I M = 4
RESULTADOS
40001
40002
40003
40004
40005
4
4
4
4
4
INTEGRACIÓN
50001
50002
50003
50004
1
l 4 = 4
4
4
4
4
U = 4
148
Francisco Alba Juez
P.N.Q.E.
Carrera: Ingeniería Eléctrica y Electrónica
EVALUACIÓN EXTERNA
CON MODELO SECAI REDUCmO
(69 Indicadores)
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
MÍooi
11002
11003
11004
11005
11006
2.37
PUESTA EN
MARCHA
13001
4 13002
2 13003
2
3
2.5
1 CONTENIDO I 12001
12002
12003
12004
12005
12006
12007
lii
Il2
3.5
3.5
3
2.5
4
3
4
2.6
3.35
Il3
3
3.75
2.25
3
li = 2.98
CICTI7MA nc r v A í iiAí-irkV nir i * I - A I i n A n
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
l2 =
PROCESO DE ENSEÑANZA
1 RECURSOS
GESTIÓN 1 HUMANOS
0 1 31001
0 31002
0 31003
0 31004
31005
31006
31007
31008
31009
'"
= 0
3 5 y PROFESORES
2
3
2
2.5
1.65
1.5
1.5
2
32101
32102
32103
32104
32105
32106
32107
32108
32109
4
3
3
3.5
2.65
1.5
2.6
2.4
2
PERS. SERVICIOS
32201
32202
32203
l]21
1 '"' 2.18 1 l„
3
2.5
2.5
2.74
2.66
2.7
INSTALACIONES Y
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
I33
2.5
2.25
1.5
2.5
2
3
2.3
Ij = 2.5
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EN'ALUACION
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
IM =
4
4
3
3.1
2.75
3
3.5
3
2
1.5
2.4
2.6
2.3
2.8
RESULTADOS
40001
40002
40003
40004
40005
1
INTEGRACIÓN
3.4 1 50001
2.5 50002
2.5 50003
4
4.5
50004
1
U = 3.4 ls =
4
3.5
4.16
4
3.9
149
Francisco Alba Juez
EVALUACIÓN INTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
P.N.Q.E
Carrera: Ingeniería Eléctrica y Electrónica
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
4.25
4.75
4
4
4
4
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
4
4
4
4
4
4
4
4.16
4
PUESTA EN
MARCHA
13001
13002
13003
Il3
5
4
4
4.33
li = 4.16
«ISTI7MA n P FVAI IIAr-IOM TW I i r-AI inAH
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
3
3
3
3
..= 3
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
l31
4
4
RECURSOS
HUMANOS
PROFESORES
32101
4 32102
4 32103
4 32104
4 32105
4 32106
4 32107
32108
4
4
4
4
4
4
4
4
PERS. SERVICIOS
32201
32202
32203
I321
''"
4 1 l„
3
3
INSTALACIONES Y
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
3
4
3
3.5 I33
4
4
4
4
3.5
4
3.91
I3 = 3.85
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
4
4
4
4
4
4
4
4
4
4
134 = 4
RESULTADOS
40001
40002
40003
40004
40005
4
4
4
4
4
U = 4
INTEGRACIÓN
50001
50002
50003
50004
Is
4
4
4
4
= 4
150
Francisco Alba Juez
P.N.Q.E.
EVALUACIÓN EXTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
arrer a: Ingeniería E
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
2.4
3
4
2
3
3
2.5
PUESTA EN
MARCHA
13001
13002
13003
CONTENIDO 1
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
3,5
3,3
3
2.5
4
3
4
2.5
3.3
Il3
3
3.75
2.25
3
li = 2.9
éctrica y Electrónica
SISTEMA DE EVALUACIÓN DE LA CALIDAD
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
0
0
0
0
l 2 = 0
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
I31
3.5
3
2
2.5
1.65
1.5
1.5
RECURSOS
HUMANOS
INSTALACIONES Y
EQUIPAMIENTO
PROFESORES j 3 3 0 O I
32101
32102
32103
32104
32105
32106
2 32107
32108
4
3
3
3.5
2.65
1.5
2.6
2
1 PERS. SERVICIOS
32201
32202
32203
1 I321
I322
2.2 1 I32
3
2.5
2.5
2.8
2.66
2.73
33002
33003
33004
33005
33006
I33
2.5
2.25
1.5
2.5
2
3
2.3
1] = 2.46
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
l34 =
3 1 40001
2.75
3
3.5
3
2
1.5
2.4
2.6
2.3
2.6
40002
40003
40004
40005
3.4
2.5
50001
50002
2.5 50003
4 1 50004
4.5
1
1
1
I
U = 3.4
4
•' 3.5
4.16
4
Is = 3.9
151
Francisco Alba Juez
Comparación de los índices obtenidos con el modelo SECAI (94 indicadores)
y los obtenidos con los modelos SECAI reducido (69 indicadores) y Optimizado (64 indicadores)
P.N.Q.E.
Carrera:Ingeniería Eléctrica y Electrónica
ÍNDICE
Iii
Il2
Il3
lu
II
l2
l31
I32I
I322
I32
I33I
I332
I33
I j .
I3
I4
I5
(1)
EVAL.
INT.
SECAI
(94 ind.)
4,5
4,1
4
4,2
4,2
3
4
4
3
3,5
3.7
4
3,9
4
3,7
4
4
(2)
EVAL.IN
T. SECAI
(69 Ind.)
4,2
4
4,33
4,17
3
4
4
3
3,5
3,91
4
3,85
4
4
(3)
EVAL.
INT.
MOD.
OPTIM.
(64 Ind.)
4,16
4
4,33
4,16
3
4
4
3
3,5
3,91
4
3,85
4
4
DIFERENCIA
( l ) - (2)
0.3=6.6%
0.1=2.4%
0.33=8.25%
—
0.3=0.7%
0=0%
0=0%
0=0%
0=0%
0=0%
—
—
0.01=0.26%
0=0%
0,15=4%
0=0%
0=0%
DIFERENCIA
( l ) - (3)
0.34=7.5%
0.1=2.4%
0.33=8.25%
_
0.04=0.95%
0=0%
0=0%
0=0%
0=0%
0=0%
—
—
0.01=0.26%
0=0%
0.15=4%
0=0%
0=0%
DIFERENCIA
(2)-(3)
0.04=0.95%
0=0%
0=0%
_ .
0.01=0.24%
0=0%
0=0%
0=0%
0=0%
0=0%
_
_
0=0%
0=0%
0=0%
0=0%
0=0%
(4)
EVAL.
EXT.
SECAI
(94 ind.)
2,9
2,6
3,4
3
3
0
2,2
2,7
2,8
2,8
2,7
1.7
2.2
2.9
2.5
3,4
3,9
(5)
EVAL.
EXT.
SECAI
(69 ind.)
2,6
3,35
3
2,98
0
2,18
2,74
2,66
2,73
2,3
2,8
2,5
3,4
3,9
(6)
EVAL.
EXT.
MOD.
OPTIM
(64 ind.)
2,5
3,3
3
2,9
0
2,2
2,8
2,66
2,73
2,3
2.6
2,46
3,4
3,9
DIFERENCIA
(4)-(5)
0.3=10.3%
0.75=28.8%
0.4=11.7%
—
0.02=0.66%
0=0%
0.02=0.9%
0.04=1.48%
0,14=5%
0,1=3.6%
—
—
0.1=4.35%
0.1=3.4%
0=0%
0=0%
0=0%
DIFERENCIA
(4)-(6)
0.4=13.8%
0.7=26.9%
0.4=11.7%
_
0.1=3.3%
0=0%
0=0%
0.1=3.7%
0.14=5%
0,1=3,6%
—
—
0.1=4.35%
0.3=10.3%
0.04=1.6%
0=0%
0=0%
DIFERENCIA
(5)-(6)
0.1=3.8%
0.05=1.5%
0=0%
—
0.08=2.7%
0=0%
0.02=0.9%
0.06=2.14%
0=0%
0=0%
—
—
0=0%
0.2=7%
0.04=1,6%
0=0%
0=0%
152
Francisco Alba Juez
GRÁFICO V: P.N.QE. - GARBERA INGENIERLA ELÉCTRICA YELECTROMCA
EVALUACIÓN INTERNA
5 -
4,5
3,5 -
L 3
/
F
I
C •
A
C
I 2
o
N
2,5
1,5
0,5
O -,
í - v , ^ >-
. • •
*
•
;-f
; w
.i
V
'N i
s «•
<:
X.
í.
AP-
"
•f
•^
^
*
•
^
S
y
é
y
''
y
f\
,
^
^.
•< í-'
< * »,
-w
•^
.n
•fy
<,
V
>
>-
• . t •«
-̂
5.
'̂
<.
í
^
!>
A
• ^
^ V
-
^
•t-
~i
y
'
*
]
*
^
,>
-
N
-
5-
. , í
í
\i
. N
• í
: . i^
i
1
ÍJ
\^'
',.
J-
c
4
* •
^
S :
^
^
n.4.
Í:S
: Í
::.
: Jü
' j
L I
I*"*-
í *
^
• ^
í
ft
^
«;
¡̂
1'
•£
14 ^ j .
^ • j
* •
-
>
í
*s
i-í
<.
-r
' V
'
*
i
:̂
.^
L̂"
fe f ^
4 r->
• " • "
-
^
.«
-í
>
í
>
• >
f f'
' y-
f
^
4,.
• > • ,
_̂, \
'
•í^
,í
'•
9
»-v
í
:¥
A
t
" -F
^ í
i
13
<í
í-
BK
^
i
*
í
• >
9Í-1
.it
III 112 113 114 II 12
m(l) EVAE INT. SECAI (94 iní)
U (2) EVAL INT. SECAI (69 IiuL)
U (3) EVAL INT. MOD. OPTIM (64Ind.)
131 1321 1322 132 1331 1332 133
ÍNDICE
134
153
Francisco Alba Juei
GRÁFICO V¡: P.N.Q.E - CARRERA INGENIERÍA ELÉCTRICA y ELECTRÓNICA
EVALUACIÓN EXTERNA
4,5
c
I
o
N
t.-vt ^
¿ tí^"^
2,5 •
2 -
1,5
0,5 -
p- .
y •
jí
.1v
V
<>
•l
»
*
S
J
V
?:
>
('
;
t \
r
1
fw>
*>
4
•
,
í
s
'
u
¿
^
I!'
H
• ;
•
-
1—1 , .
t
A
\
.
1
1 1 y j
Kl
t
(̂ _
;
n
t
.
1
_.
i
v
•
- 1
m 112 113 114 II 12
U (4) EVAL EXT. SECAI (94 ind)
B (5) EVAL EXT SECAI (69 iiuL)
m (6) EVAL EXT MOD. OPTIM (64 ind.)
131 1321 1322 132 1331 1332 133
ÍNDICE
134
i>'
154
Francisco Alba Juez
MODELO SECAI
(94 indicadores)
EVALUACIÓN INTERNA - CEI
P.M.E.
Carrera: Ingeniería Técnica Aeronáutica
C R E - C O L U M B U S
PLAN DE ESTUDIOS
1 PARTICIPACIÓN
fiióoi
11002
11003
1
2
2
METODOtOCIA
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
2
2
2
2
2
2
1
1.66
1.85
CONTENIDO
13001
13002
13003
13004
13005
13006
13007
1
2
2
4
3
3
2
P.EN MARCHA
14001
14002
14003
14004
14005
Ii3
Il4
3
3
2
1
2
2 .42
2.2
li = 2.03
SISTEMA DE EVALUACIÓN DE LA CALIDAD
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
I. ESTUDIANTES
20001
2 0 0 0 2
2 0 0 0 3
2 0 0 0 4
2 0 0 0 5
20006
l2 =
4
1
1
2
0
2
= 2
P R O C E S O DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
3 1 0 0 9
31010
4
4
3
4
4
2
2
2
2
3
P. SERVICIOS
32201
32202
3 2 2 0 3
32204
l31
3
PROFESORES
32101
32102
3 2 1 0 3
32104
32105
32106
32107
32108
32109
32110
32111
32112
3
3
4
3
I321
Ij22
U2
2
3
2
3
3
2
0
3
0
4
4
4
INSTALACIONES
33101
33102
3 3 1 0 3
33104
3 3 1 0 5
33106
3 3 1 0 7
4
3
4
2
4
2
2
EQUIPOS
33201
3 3 2 0 2
3 3 2 0 3
3 3 2 0 4
3 3 2 0 5
1 33206
3
3.25
3.12
l3 =
I331
I332
I33
2.99
3
3
3
2
4
2
3
3 .25
3.12
INSTITUCIÓN (CÓDIGO)
H O J A DE RESUMEN DE EVALUACIÓN
F. DIDÁCTICOS
34001
3 4 0 0 2
3 4 0 0 3
3 4 0 0 4
3 4 0 0 5
34006
3 4 0 0 7
3 4 0 0 8
3 4 0 0 9
34010
34011
3 4 0 1 2
3 4 0 1 3
3 4 0 1 4
2
2
3
3
2
3
2
4
2
2
4
4
4
3
I34 = 2 .85
RESULTADOS I INTEGRACIÓN
40001
40002
4 0 0 0 3
40004
40005
3 1 50001
3 50002
1 5 0 0 0 3
0
0
50004
50005
50006
5 0 0 0 7
5 0 0 0 8
I
U = 2.33 I5 =
3
4
3
2
4
0
0
3
3.16
155
Francisco Alba Juez
MODELO SECAI
(94 indicadores)
EVALUACIÓN EXTERNA - CEE
P.M.E.
Carrera: Ingeniería Técnica Aeronáutica
CRE-COLUMBUS
PLAN DE ESTUDIOS
PARTICIPACIÓN
11001
11002
11003
1
2
2
METODOLOGÍA
12001
12002
12003
12004
12005
12006
12007
lii
Il2
1
2
2
2
0
2
1
1.66
1.66
CONTENIDO
13001
13002
13003
13004
13005
13006
13007
1
3
0
0
4
4
2
P.EN MARCHA
14001
14002
14003
14004
14005
Ii3
1,4
3
3
2
1
2
2.8
2.2
li = 2.08
SISTEMA DE EVALUACIÓN DE LA CALIDAD
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
I. ESTUDIANTES
20001
20002
20003
20004
20005
20006
l2 =
4
1
1
2
3
3
2.33
PROCESO DE ENSEÑANZA
GESTIÓN 1 PROFESORES
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
4 1 32101
4 32102
3 32103
3 1 32104
2 32105
2 32106
3 32107
2
2
3
P. SERVICIOS
32201
32202
32203
32204
I31
2
32108
32109
32110
32111
32112
3
3
4 I321
1 '̂ '̂
2.8 1 I32
3
5
2
4
4
3
0
4
0
4
4
4
3.7
3
3.35
lj =
INSTALACIONES
33101
33102
33103
33104
33105
33106
33107
4
3
4
^
3
2
2
EQUIPOS
33201
33202
33203
33204
33205
33206
I331
I332
I33
3
3
3
2
4
2
2.85
2.83
2.84
2.99
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
F. DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
Ij4 =
2
2
3
3
2
3
2
4
2
2
5
4
4
3
2.71
RESULTADOS
40001
40002
40003
40004
40005
3
INTEGRACIÓN
50001
3 50002
1 50003
0 j 50004
0 50005
50006
14=2.33
50007
50008
3
4
4
0
4
0
0
4
U=3.8
156
Francisco Alba Juez
EVALUACIÓN INTERNA
CON MODELO SECAI REDUCIDO
(69 Indicadores)
P.M.E.
Carrera: Ingeniería Técnica Aeronáutica
CRE-COLUMBUS
PLAN DE ESTL'DK
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
1.5
2
2
2
2
1
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
1
2
2
4
3
3
2
1.75
2.4
PUES!
MAR
13001
13002
13003
In
li = 2.16
)S
rAEN
CHA
3
2.5
1.5
2.33
c i c T c v f A nn P V A I i iAr - i í^M n i ? i A r-
DE LAS ENSEÑAN2US DE INGENIERI
_
ESTUDIANTES
20001
20002
20003
20004
1
2
0
2
PK<
GESTIÓN
31001
31002
31003
31004
3100531006
31007
31008
31009
1
12=1.66
u,
4
RECU
IIUM,
PROFE
4 1 32101
3 32102
4
3
2
2
2
3
32103
32104
32105
32106
32107
32108
32109
ALIDAD
A (SECAI)
3CESO DE
USOS
wos
SORES
2.5
2
3
3
3
0
3
ENSEÑANZA
INSTALACIONES V
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
4
4
1 PERS. SERVICIOS
1 32201
32202
3
32203
I321
I322
I32
3
3
4
3
3.33
3.16
13 =
I33
2.97
3.5
3
4
2.5
2
2
2.83
INSTITUCIÓN (CÓDIGO)
HOJA DE
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
2
2
3
3
2.5
2
4
2
2
4
4
4
3
(34=2.88
RESUMEN DE EVALUACIÓN
RESULTADOS
40001
40002
40003
40004
40005
3
3
1
0
0
l4 = 2.33
INTEGRACIÓN
50001
50002
50003
50004
3
3.5
3
3
l5 = 3.13
157
Francisco Alba Juez
P.M.E.
Carrera: Ingeniería Técnica Aeronáutica
EVALUACIÓN EXTERNA
CON MODELO SECAI REDUCIDO
(69 Indicadores)
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE 1 PUESTA EN
ELABORACIÓN 1 MARQiA
11001
11002
11003
11004
11005
11006
1.5 1 13001
2 13002
1 13003
2
0
1
CONTENIDO 1
12001
12002
12003
1 2 0 0 4
12005
12006
12007
l i i
Il2
1 1
3
0
0
4
4
2
1.5 1,3
2.8 1
3
2.5
1.5
2.33
li = 1.87
DE LAS ENSEÑANZAS DE INGENIERU (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
PROCESO DE ENSEÑANZA
GESTIÓN
1 j 31001
2 31002
3 31003
3 31004
31005
31006
31007
31008
31009
i
l2=2.25
l31
4
4
3
3
2
2.5
2
2
3
RECURSOS
HUMANOS
PROFESORES
32101
32102
32103
3 2 1 0 4
32105
32106
32107
32108
32109
4
2
4
4
3.5
0
4
4
4
PERS. SERVICIOS
1 . 3 2 2 0 1
32202
3 2 2 0 3
I321
1 •'"
2.8 1 l3j
2.5
3
4
3.68
3.16
3.4
I3
INSTALACIONES Y
EQUIPAMIENTO
33001
3 3 0 0 2
33003
3 3 0 0 4
33005
33006
I33
3.5
3
4
2.5
2
2
2.83
= 3
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
3 4 0 1 2
34013
134 =
2
2
3
3
2.5
2
4
2
2
5
4
4
3
2.96
RESULTADOS
40001
4 0 0 0 2
4 0 0 0 3
4 0 0 0 4
40005
3
3
1
0
0
I4 = 2.33
INTEGRACIÓN
50001
50002
50003
5 0 0 0 4
3
4
4
4
Is = 3.75
158
Francisco Alba Juez
EVALUACIÓN INTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
P.M.E.
Carrera : Ingeniería Técnica Aeronáutica
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
1.5
2
2
2
2
1
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
lii
Il2
1
2.5
2
4
3
3
2
1.75
2.S
PUESTA EN
MARCHA
13001
13002
13003
Il3
3
2.5
1.5
2.33
li = 2.19
cicxi7Ví\ n c r v A í inr-ir íM nir i A n\i i m n
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
PROCESO DE ENSEÑANZA
1 RECURSOS
GESTIÓN 1 HU^iANOS
1 j 31001
2 31002
0 31003
2 31004
31005
31006
31007
31008
i l31
4 1 PROFESORES
3 32101
4 32102
3 32103
2 32104
2 32105
2 32106
3 32107
32108
2.5
2
3
3
3
0
3
4
PERS. SERVICIOS
32201
32202
32203
I321
I322
2.9 1 I3,
3
3
4
2.93
3.3
3.13
INSTALACIONES V
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
hi
3.5
3
4
2.5
2
2
2.83
12=1.66 lj = 2.98
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
3
2.5
2
4
2
2
4
4
4
3
I M = 3 . 0 5
RESULTADOS
40001
40002
40003
40004
40005
3
3
1
0
0
I4 = 2.33
INTEGRACIÓN
50001
50002
50003
50004
3
3.5
3
3
U = 3.13
159
Francisco Alba Juez
EVALUACIÓN EXTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
P.M.E.
Carrera: Ingeniería Técnica Aeronáutica
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
PUESTA EN
MARCHA
1.5 j 13001
2 13002
1
2
0
1
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
1
3
0
0
4
4
2
1.5
13003
Il3
2.8 1
3
2.5
1.5
2.33
li = 1.87
SISTITMA n P PVAI IIAI^IOV TW I A r-AI inAH
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
l2 =
1
2
3
3
2.25
PROCESO DE ENSEÑANZA
1 RECURSOS
GESTIÓN 1 HUMANOS
31001
31002
31003
31004
31005
31006
31007
31008
Ui
4
3
3
2
PROFESORES
32101
32102
32103
2.5 32104
2 32105
2 32106
3 32107
32108
4
2
4
4
3.5
0
4
4
1 PERS. SERVICIOS
32201
1 32202
I 32203
1 I321
1 '̂̂ ^
2.7 1 I32
2.5
3
INSTALACIONES Y
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
4 1
3.64
3.16
3.4
l3 =
I33
3.5
3
4
2.5
2
2
2.83
3.02
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
«34 =
3
2.5
2
4
2
2
5
4
4
3
3.15
RESULTADOS
40001
40002
40003
40004
40005
INTEGRACIÓN
3 1 50001
3
1
0
0
50002
50003
50004
I4 = 2.33 I5 =
3
4
4
4
3.76
160
Francisco Alba Juez
Comparación de los índices obtenidos con el modelo SECAI (94 indicadores)
y los obtenidos con los modelos SECAI reducido (69 indicadores) y Optimizado (64 indicadores)
P.M.E.
Carrera: Ingeniería Técnica Aeronáutica
ÍNDICE
Iii
Il2
1|3
lu
II
I:
Iji
I321
I322
I32
I331
I332
I33
I34
I3
I4
I5
(1)
EVAL.
INT.
SECAI
(94 ind.)
1,66
1,85
2,42
2,2
2,03
2
3
3
3,25
3,12
3
3,25
3,12
2,85
2,99
2,33
3,16
(2)
EVAL.IN
T. SECAI
(69 Ind.)
1,75
2,4
2,33
2,16
1,66
3
3
3,33
3,16
2,83
2,88
2,97
2,33
3,13
(3)
EVAL.
INT.
MOD.
OPTIM.
(64 Ind.)
1,75
2,5
2,33
2,19
1,66
2,9
2,93
3,33
3,13
2,83
3,05
2,98
2,33
3,13
DIFERENCIA
( l ) - (2)
0.09=5%
0.55=29.7%
0.09=3.7%
—
0.13=6%
0.34=17%
0=0%
0=0%
0.08=2.4%
0.04=1.28%
—
—
0.29=9.3%
0.03=1.04%
0.02=0.66%
0=0%
0.03=0.94%
DIFERENCIA
( l ) - (3)
0.09=5%
0.65=35%
0.09=3.7%
—
0.16=7%
0.34=17%
0.1=3.3%
0.07=2.33%
0.08=2.4%
0.01=0.32%
—
—
0.29=9.3%
0.2=6.5%
0.1=0.33%
0=0%
0.03=0.94%
DIFERENCIA
(2)-(3)
0=0%
0.1=4%
0=0%
—
0.03=1.37%
0=0%
0.1=3.3%
0.07=2.33%
0=0%
0.03=0.95%
—
—
0=0%
0.17=5.6%
0.01=0.33%
0=0%
0=0%
(4)
EVAL.
EXT.
SECAI
(94 ind.)
1,66
1,66
2,8
2,2
2,08
2,33
2,8
3,7
3
3,35
2,85
2,83
2,84
2,71
2,99
2,33
3,8
(5)
EVAL.
EXT.
SECAI
(69 ind.)
1,5
2,8
2,33
1,87
2,25
2,8
3,68
3,16
3,4
2,83
2,96
3
2,33
3,75
(6)
EVAL.
EXT.
MOD.
OPTIM
(64 ind.)
1,5
2,8
2,33
1,87
2,25
2,7
3,64
3,16
3,4
2,83
3,15
3,02
2,33
3,75
DIFERENCIA
(4)-(5)
0.16=9.6%
1.14=68%
0.47=16.8%
—
0.21 = 10%
0.08=3.4%
0=0%
0.02=0.54%
0.16=5%
0.05=1.47%
_
—
0.01=0.35%
0.25=9.2%
0.01=0.33%
0=0%
0.05=1.3%
DIFERENCIA
W-(6)
0.16=9.6%
1.14=68%
0.47=16.8%
~
0.21 = 10%
0.08=3.4%
0.1=3.6%
0.06=1.6%
0.16=5%
0.05=1.47%
—
—
0.01=0.35%
0.44=16%
0.03=0.99%
0=0%
0.05=1.3%
DIFERENCIA
(5)-(6)
0=0%
0=0%
0=0%
—
0=0%
0=0%
0.1=3.6%
0.04=1.1%
0=0%
0=0%
~
—
0=0%
0.19=6%
0.02=0.66%
0=0%
0=0%
161
Francisco Alba Juez
GRÁFICO Vil: P.M.E • CARRERA INGENIERÍA TÉCNICA AERONÁUTICA
EVALUACIÓN INTERNA
5 -,
4,5
3,5
L 3 J
/
F
c 2 , 5 i
c
o
N
1.5
0,5
m
m(i)
m(3)
112 113 114 11 12 131 1321 1322 132 1331 1332
EVAL INT. SECAI (94 ind.)
EVAL INT. SECAI (69 Ind)
EVAL INT. MOD. OPTIM (64 Ind.)
^tt
vi >
133
ÍNDICE
134
^ \
162
Francisco Alba Juet
GRÁFICO yin. P.M.E. - CARRERA INGENIERÍA TÉCNICA AERONÁUTICA
EVALUACIÓN EXTERNA4,5
•• V -
_ — _ —^
/ l
'• 2
I ^ 1
F
A
C
O
N 1 r—1
1,5 t
1 1 {
I''
r
: t
í
A
> • -
— -
-
1
>
•
-
f
1—r '^ *
í
í
?
• í
y* N í-
^
^
• í
.
,̂
a-
i
f
í
—
í-
• f
s
f
: y
, 1
h
i,
,í"
t
¥
%
S.,
*
X
— >
\
í
V
^ •
-ti-
í
4
s-
" \
£!
ÍTrí
*
111 112 113 114 II 12 131 1321 1322 132 1331 1332 133
INDKI.
134
£(Í4L. £Vr 5£C4/ (9^ ini)
EVAL EXT SECAI (69 ind.)
EVAL EXT. MOD. OPTIM (64 ind.)
163
Franasco Alba Juez
MODELO SECAI
( 94 indicadores)
EVALUACIÓN INTERNA - CEI
C.V.CH.
Carrera: Bioquímica
CRE-COLUMBUS
PLAN DE ESTUDIOS
PARTICIPACIÓN
11001
11002
11003
3
5
4
METODOLOGÍA
12001
12002
12003
12004
12005
12006
12007
lii
Il2
5
5
5
5
4
4
3
4
4.43
CONTENIDO
13001
13002
13003
13004
13005
13006
13007
3
5
3
4
4
4
3
P.EN MARCHA
14001
14002
14003
14004
14005
lu
Ii4
1, = 4.11
5
5
4
5
5
3.71
4.8
SISTEMA DE EVALUACIÓN DE LA CALIDAD
DE LAS E N S E Ñ A N 2 : A S DE INGENIERÍA (SECAI)
I. ESTUDIANTES
20001
20002
20003
20004
20005
20006
l2 =
4
4
3
5
3
4
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
3.83
5
5
5
5
4
5
2
4
3
5
P. SERVICIOS
32201
32202
32203
32204
(31
5
3
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
32109
32110
32111
32112
5
2
4.3
I321
I322
I37
3
4
5
5
5
3
5
"
5
2
5
5
INSTALACIONES
33101
33102
33103
33104
33105
33106
33107
3
3
3
2
3
3
4
EQUIPOS
33201
33202
33203
33204
33205
1 33206
4.25
3.75
4
l3 =
I331
I332
I33
3.81
4
2
3
4
5
4
3
3.67
3.34
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
F. DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
l34 =
3
3
4
4
2
2
4
5
5
4
3
4
5
4
3.71
RESULTADOS
40001
40002
40003
40004
40005
4
3
3
3
INTEGRACIÓN
50001
50002
50003
50004
3 50005
50006
50007
1 50008
1
1
"•" 1 "•
5
5
5
5
5
3
4
5
4.63
164
Francisco Alba Juez
MODELO SECAI
( 94 indicadores)
EVALUACIÓN EXTERNA - CEE
C.V.CH.
Carrera; Bioquímica
CRE-COLUMBUS
PLAN DE ESTUDIOS
PARTICIPACIÓN I CONTENIDO
11001
11002
11003
3
5
4
METODOLOGÍA
12001
12002
12003
12004
12005
12006
12007
lii
Il2
3
4
3
4
4
2
2
13001
13002
13003
13004
13005
13006
13007
2
4
4
4
4
4
2
P.EN MARCHA
14001
14002
14003
14004
14005
1
4 1»
3.1 1 l„
5
5
4
5
5
3.4
4.8
li = 3.84
.SISTEMA DF. EVAI.IIAriON DE I.A r A L I D A D
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
I. ESTUDIANTES
20001
20002
20003
20004
20005
20006
4
4
3
4
4
4
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
5
4
5
5
3
4
PROFESORES
32101
32102
32103
32104
32105
32106
2 32107
4 1 32108
3
5
1 P. SERVICIOS
32201
32202
, .= 3 . .
32203
32204
I31
4
3
5
2
4
32109
32110
32111
32112
I321
l322
I32
3
5
5
4
5
3
5
4
5
2
5
5
4.3
3.5
3.9
l3 =
INSTALACIONES
33101
33102
33103
33104
33105
33106
33107
2
2
4
2
4
3
4
EQUIPOS
33201
33202
33203
33204
33205
33206
I331
I332
I33
4
2
3
3
4
3
3
3.2
3.1
3.65
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
F. DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
'34 =
4
3
3
3
3
3
4
5
5
3
3
3
5
4
3.6
RESULTADOS
40001
40002
40003
40004
40005
4
INTEGRACIÓN
50001
3 50002
3
4
5
50003
50004
50005
50006
50007
50008
I4 = 3.8 '5 =
5
0
3
5 1
5
0
4
4
4.3
165
Francisco Alba Juez
C.V.CH.
Carrera: Bioquímica
EVALUACIÓN INTERNA
CON MODELO SECAI REDUCIDO
(69 Indicadores)
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
3.5
PUESTA EN
MARau
13001
5 13002
5 13003
5
4
3
CONTEMDO 1
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
3 1
5
3
4
4
4
3
4.2S
3.7
Il3
5
4.5
5
4.83
li = 4.26
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
o
3
5
3
4
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
31009
1
l2=3.7S
1̂ 1
5
5
5
RECURSOS 1 INSTALACIONES Y
HUMANOS 1 EQUIPAMIENTO
PROFESORES
32101
32102
5 32103
4.5 32104
3 32105
4 32106
3 32107
5 32108
32109
3.5
5
5
5
2.5
33001
33002
33003
33004
33005
33006
^
"^
5
S
1 PERS. SERVICIOS
32201
32202
32203
1 I321
ha
4.38 1 1»
4
5
2
4.38 1
3.66 1
4
u=
I33
3.5
2.5
4
2.5
3.5
4
3.33
3.89
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
134 =
3
3
4
4
2
4
5
5
4
3
4
5
4
3.85
RESULTADOS
40001
40002
40003
40004
40005
4
3
INTEGRACIÓN
50001
50002
3 50003
3 50004
3
4.5
5
4.3
5
1
U = 3.2 I5 = 4.45
166
Frandseo Alba Juez
C.V.CH.
Carrera: Bioquímica
EVALUACIÓN EXTERNA
CON MODELO SECAI REDUCmO
(69 Indicadores)
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
3.5
5
3
3
PUESTA EN
MARCHA
13001
13002
13003
^
2
CONTENIDO 1
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
2 1
4 1
4
4
4
^
2 I
3.4
3.4
Il3
5
4.5
5
4.83
li = 3.87
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
3
4
4
4
l2=3.75
PROCESO DE ENSEÑANZA
1 RECURSOS
GESTIÓN 1 HUMANOS
1
31001
31002
31003
31004
31005
31006
31007
31008
31009
l i i
5 1 PROFESORES
4 32101
5 32102
5 32103
3.5 32104
2.5 32105
4 32106
3 32107
5 32108
32109
4
5
4
5
2.5
5
4
5
5
PERS. SERVICIOS
32201
32202
32203
1»,
1 •'"
4.11 1 I32
3.5
5
2
4.38
3.5
3.94
INSTALACIONES V
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
I33
3
2
4
2.5
3
4
3.1
U = 3.71
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
1^001
34002
34003
34004
34005
34006
34007
34008
34009
1 34010
34011
34012
34013
4
3
3
3
3
4
5
5
3
3
3
5
4
1 134=3.7
RESULTADOS
40001
40002
40003
40004
40005
4
3
3
4
5
INTEGRACIÓN
50001
50002
50003
50004
1 1
I4 = 3 . 8 I5 =
4.5
3
5
4
4.12
167
Francisco Alba Juez
C.V.CH.
Carrera: Bioquímica
EVALUACIÓN INTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
3.5
4.5
5
4
4
3
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
3
4.5
3
4
4
4
3
4
3.6
PUESTA EN
MARaiA
13001
13002
13003
Il3
5
4.5
5
4.83
li = 4.14
- -
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
PROCESO DE ENSEÑANZA
GESTIÓN
3 1 31001
5 31002
3 31003
4 31004
31005
31006
31007
31008
1 h^
5
RECURSOS
HUMANOS
PROFESORES
5 32101
5 32102
4.5
3
32103
32104
4 32105
3 32106
5 32107
32108
3.5
5
5
5
2.5
5
4
5
PERS. SERVICIOS
32201
32202
32203
ha
hn
4.3
l2=3.75
I32
4
5
2
4.37
3.66
4
l3 =
INSTALACIONES Y
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
I33
3.5
2.5
4
2.5
3.5
4
3.33
3.9
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
340104
2
4
5
5
4
3
4
5
4
l34=4
RESULTADOS
40001
40002
40003
40004
40005
4
3
3
3
INTEGRACIÓN
50001
50002
50003
50004
3
1 1
1
1
I4 = 3.2
4.5
5
4.3
5
I5 = 4.45
168
Francisco Alba Juez
C.V.CH.
Carrera: Bioquímica
EVALUACIÓN EXTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
PUESTA EN
MARaiA
3.5 1 13001
4.5 13002
3 13003
3.5
4
2
1
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
2
3.5
4
4
4
4
2.5
3.4 l,j
3.4 1
5
4.5
5
4.83
li = 3.87
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
PROCESO DE ENSEÑANZA
GESTIÓN
3 1 31001
4
4
4
31002
31003
31004
31005
31006
31007
31008
l2=3.75
Ui
5
5
5
3.5
2.5
4
3
5
RECURSOS 1 INSTALACIONES Y
HUMANOS 1 EQUIPAMIENTO
PROFESORES | 3 3 0 0 1
32101
32102
32103
32104
32105
32106
32107
32108
4 1 33002
5 33003
4 33004
5 33005
2.5
5
33006
4
5
PERS. SERMCIOS
32201
32202
32203
l32i
I322
4.12 1 1,2
3.5
5
2
4.31
3.5
3.9 I33
3
2
4
2.5
3
4
3.1
U = 3.73
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
1 34010
3
3
RESULTADOS
40001
40002
4 40003
5
5
3
3
3
40004
40005
5
4
1
1
1 134=3.8
4
INTEGRACIÓN
50001
3 50002
3 50003
4 50004
5
1
1 1
1 i
1 1
I4 = 3 . 8 I5 =
4.5
3
5
4
4.12
169
Francisco Alba Juez
Comparación de los índices obtenidos con el modelo SECAI (94 indicadores)
y los obtenidos con los modelos SECAI reducido (69 indicadores) y Optimizado (64 indicadores)
C.V.CH
Carrera: Bioquímica
ÍNDICE
IM
1.2
Il3
IH
I.
I2
I3.
13:1
I322
I32
I33.
I332
I33
I34
I3
I4
I5
(1)
EVAL.
INT.
SECAI
(94 ind.)
4
4,43
3,71
4,8
4,11
3,83
4,3
4,25
3,75
4
3
3,67
3,34
3,71
3,81
3,2
4,63
(2)
EVAL.INT.
SECAI
(69 Ind.)
4,25
3,7
4,83
4,26
3,75
4,38
4,38
3,66
4
3,33
3,85
3,89
3,2
4,45
(3)
EVAL.
INT. MOD.
OPTIM.
(64 Ind.)
4
3,6
4,83
4,14
3,75
4,3
4,37
3,66
4
3,33
4
3,9
3,2
4,45
DIFERENCU
( l ) - (2 )
0.25=6.25%
0.73=16.5%
1.12=25%
—
0.15=3.6%
0.08=2%
0.08=1.8%
0.13=3.05%
0.09=2.4%
0=0%
—
—
0.01=0.3%
0.14=3.7%
0.08=2%
0=0%
0.18=3.8%
DIFERENCIA
( l ) - (3)
0=0%
0.83=18.7%
1.12=25%
—
0.03=0.73%
0.08=2%
0=0%
0.12=2.8%
0,09=2,4%
0=0%
~
—
0.01=0.3%
0.29=7.8%
0.09=2,5%
0=0%
0.18=3.8%
DIFERENCIA
(2)-(3)
0.25=5.9%
0.1=2.7%
0=0%
—
0.12=2.8%
0=0%
0,08=1,8%
0.01=0.22%
0=0%
0=0%
—
—
0=0%
0.15=3.75%
0,01=0,25%
0=0%
0=0%
(4)
EVAL.
EXT.
SECAI
(94 ind.)
4
3,1
3,4
4,8
3,84
3,83
4
4,3
3,5
3,9
3
3,2
3,1
3,6
3,65
3,8
4,3
(5)
EVAL.
EXT.
SECAI (69
ind.)
3,4
3,4
4,83
3,87
3,75
4,11
4,38
3,5
3,94
3,1
3,7
3,71
3,8
4,12
(6)
EVAL.
EXT. MOD.
OPTIM
(64 ind.)
3,4
3,4
4,83
3,87
3,75
4,12
4,31
3,5
3,9
3,1
3,8
3,73
3,8
4,12
DIFERENCIA
(4)-(5)
0.6=15%
0.3=8.8%
1.43=42%
~
0.03=0.78%
0.08=2%
0.11=2.75%
0.08=1.8%
0=0%
0.04=1%
—
—
0=0%
0.1=2.7%
0.06=1.6%
0=0%
0.18=4.2%
DIFERENCIA
(4)-(6)
0.6=15%
0.3=8.8%
1.43=42%
—
0.03=0.78%
0.08=2%
0.12=3%
0.01=0.23%
0=0%
0=0%
—
—
0=0%
0.2=5.5%
0.08=2.1%
0=0%
0.18=4.2%
DIFERENCIA
(5)-(6)
0=0%
0=0%
0=0%
—
0=0%
0=0%
0.01=0.24%
0.07=1.6%
0=0%
0.04=1%
—
~
0=0%
0.1=2.6%
0.02=0.5%
0=0%
0=0%
170
Francisco Alba Juez
GRÁFICO IX: C. V.CH. - CARRERA BIOQUÍMICA
EVALUACIÓN INTERNA
3 -
</
3,5 -
c
A
A
C
I 2 •
o
1,5 - ~
1
1
-
1
f
- -
>l
,;<
J
t
í.
1i
i
' i
ltí!Í
•Zi
-
-
•4
;
^
í ^
1
1
í"
í
^
<
1
•í
1
-
X-
>
A.
-
-}.,
-i'
J-
J
A
<ír,.
;
sr
R
i
mm
^
rf
í
,«
/>
X
1-í
- -
—
1
f
L
• í
2-^
¿
(/
/í>
\
>
V
>
•
í
e
f
• A
"%
^ X
í
\
!
-
^
s
-
-
^
< '•
* •
í
*>
?
1!
t
4-)
„
I'
i
•»«
^ '̂ \ -íí
'i-
X
^
^
_
•i
~
_
V
"
K
ú •
3 <
111
m(2)
S(3)
112 113 114 II 12 131 1321 1322 132 1331 1332
EVAL. INT. SECAI (94 ind.)
EVALINT. SECAI (69 Ind)
EVAL INT. MOD. OPTIM (64 Ind)
133
ÍNDICE
134
t
Si; -
n ff
í*
171
Francisco Alba Juez
GRÁFICOX. CV.CH- CARRERA BIOQUÍMICA
EVALUACIÓN EXTERNA
5 1
4,5
4
3,5 -
A
'• 3 -
/ i
'c^-^-
A
C
I 2 -
0
N
1,5 r-
1
1 -
0,5 4
>
1
~ "
• ,
1
Xfí
?
1 .
—
r
'
^
-
—
t "
1
III
m(4)
3(5)
B(6)
112
- > -
113 114 II
EVAL. EXT. SEC.4I(94 ind.)
EVAL.EXT SECAI (69 ind)
EVAL EXT. MOD. OITIM (64 ind.)
12
, v " ""^ *•
" ^ k /
l
\
V
\
-^S-^
y >.
•>
y
" ? %
í ^
l j - S
'"
•^
'
•>
^
1 ^
í
V <
^ *
^
y
" r .
^
X
; Í"
?•<
: 3
f
, I
:
'
<
1-
;.
f¡ • •
^
X
f>
"
#'
^
i K r ^
,XÍ
/
\
,
« • "
*SÍ
T̂ í
'.V
ÍA
131 1321 1322 132 1331 1332 133 134
ÍNDICE
I
172
Francisco Alba Juez
MODELO SECAI
( 94 indicadores)
EVALUACIÓN INTERNA - CEI
C.V.CH.
Carrera: Ingeniería Eléctrica
CRE-COLUMBUS 1
PLAN DE ESTUDIOS
PARTICIPACIÓN 1 CONTENIDO
11001
11002
11003
4
4
4
METODOLOGÍA
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
2
3
4
4
4
13001
13002
13003
13004
13005
13006
13007
4
4
3
3
5
3
0
P.EN MARCHA
14001
3 14002
4 j 14003
14004
4
3.4
14005
l1l
Il4
4
4
4
4
3
3.7
3.8
li = 3.7
SISTEMA DE EVALUACIÓN DE LA CALIDAD
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
I. ESTUDIANTES
20001
20002
20003
20004
20005
20006
l2 =
4
3
2
3
4
3
3.2
PROCESO DE
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
5
4
5
3
2
4
4
3
3
4
P. SERVICIOS
32201
32202
32203
32204
I31
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
32109
32110
32111
5 32112
5
4
4
3.7
I321
I322
\n
4
5
4
5
4
4
4
4
4
3
4
4
4.1
4.5
4.3
13 =
ENSEÑANZA
INSTALACIONES
33101
33102
33103
33104
33105
33106
33107
4
4
4
4
4
2
5
E9UIP0S
33201
33202
33203
33204
33205
33206
I331
I332
I33
4
2
3
2
4
3
3.9
3
3.5
3.8
1
F. DIDA
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
13.=
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
crieos
2
2
4
4
4
3
3
3
3
3
4
4
4
4
3.4
RESULTADOS
40001
40002
40003
40004
40005
4
2
4
INTEGRACIÓN
50001
50002
50003
3 1 50004
3 50005
50006
50007
50008
1
1 1
I4 = 3.2 15 =
1 5
5
4
5
3
4
4
5
-
4.4
173
Francisco Alba Juez
MODELO SECAI
( 94 indicadores)
EVALUACIÓN EXTERNA - CEE
C.V.CH.
Carrera: Ingeniería Eléctrica
CRE-COLUMBUS
PLAN DE ESTUDIOS
PARTICIPACIÓN
11001
11002
11003
3
3
3
METODOLOGÍA
12001
12002
12003
12004
12005
12006
12007
lii
Il2
2
2
4
CONTENIDO
13001
13002
13003
13004
13005
13006
13007
4
4
3
3
5
4
0
^ 1 P.EN MARCHA
4
3
3
3
3.1
14001
14002
14003
14004
14005
Il3
Il4
4
4
4
3
3
3.8
3.6
1, = 3.4
SISTEMA DE EVALUACIÓN DE LA CALIDAD
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
I. ESTUDIANTES
20001
20002
20003
20004
20005
20006
l2 =
4
3
3
4
0
3
3.4
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
5
4
5
3
2
4
4
2
3
4
P. SERVICIOS
32201
32202
32203
32204
l31
55
4
4
3.6
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
32109
32110
32111
32112
l321
I322
I32
4
5
4
5
4
3
3
4
2
3
4
3
3.7
4.5
4.1
l3 =
INSTALACIONES
33101
33102
33103
33104
33105
33106
33107
4
4
4
4
4
2
5
EQUIPOS
33201
33202
33203
33204
33205
33206
I331
I332
I33
4
2
4
2
4
3
3.9
3.2
3.6
3.7
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
F. DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
l34 =
2
1
4
4
4
3
3
4
2
3
5
4
5
5
3.5
RESULTADOS
40001
40002
40003
40004
40005
5
2
3
4
0
I4 = 3.5
INTEGRACIÓN
50001
50002
50003
50004
50005
50006
50007
50008
5
5
4
5
4
5
4
5
1
i
I
15=4.6
174
Francisco Alba Juez
C.V.CH.
Carrera; Ingeniería Eléctrica
EVALUACIÓN INTERNA
CON MODELO SECAI REDUCIDO
(69 Indicadores)
CRE-COLUMBUS
PLAN DE ESTUDIC
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
4
4
2
4
4
4
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
4
4
3
3
5
3
0
3.66
3.6
PUES!
MAR
13001
13002
13003
Il3
)S
TAEN
CHA
4
4
3.5
3.83
li = 3.7
eicTPVfA np FV'Ai inr'iríM n p i A r̂ Ai inAn
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
2
3
4
3
l j = 3
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
31009
I31
5
4
5
3
3
3.5
3
3
4
3.7
PROCESO DE ENSEÑANZA
RECURSOS
HUMANOS
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
32109
INSTALACIONES Y
EQUIPAMIENTO
33001
4.5 33002
4
5
4
3.5
4
4
4
4
PERS. SERVICIOS
32201
32202
32203
l32i
I322
I32
5
4
33003
33004
33005
33006
-*
4.1
4.33 j
421 1 I33
4
3
4
3.5
2
5
3.6
I3 = 3.71
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACT
DIDAC
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
ORES
TICOS
2
2
4
RESULTADOS
40001
40002
40003
4 J l 40004
3.5
3
40005
3
3
3
4
4
4
4
134=3.35
4
2
INTEGRACIÓN
50001
50002
4 50003
3
3
50004
4.5
4.5
4
5
14=3.2 l5«=4.5
175
Frandsco Alba Juez
EVALUACIÓN EXTERNA
CON MODELO SECAI REDUCmO
(69 Indicadores)
C.V.CH.
Carrera: Ingeniería Eléctrica
...
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
3
3
PUESTA EN
MARCHA
13001
13002
2 13003
4
4
3
1
CONTENIDO 1
12001
12002
12003
12004
12005
12006
12007
l i i
Ii2
4
4
3
3
5
4
0
3.16 1 Ii3
3.8
li = 3.54
4
4
3
3.66
cíoxiTviA niT irvAt fiAr"ir»M ni? i A r-Ai inAn
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
l2 =
3
4
0
3
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
3.33
31008
31009
lji
5
4
5
3
RECURSOS
HUMANOS
PROFESORES
32101
32102
32103
3 32104
3.5
2
3
4
32105
32106
32107
32108
32109
4.5
4
5
4
3
2.5
4
4
3
INSTALACIONES Y
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
1 PERS. SERVICIOS |
32201
32202
32203
I321
l » 2
3.6 1 I3J
5 1
4
4
3.77
4.33
4
13 =
l33
3.69
4
3
4
4
2
5
3.66
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
TACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
2
1
4
4
3.5
3
4
2
3
5
4
5
5
l34 = 3.5
RESULTADOS
40001
40002
40003
40004
40005
5
2
INTEGRACIÓN
50001
50002
3 50003
4 1 50004
0
U = 3.5
4.5 1
4.5
4.6
5
l5=4.6
176
Francisco Alba Juez
C.V.CH.
Carrera: Ingeniería Eléctrica
EVALUACIÓN INTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
4
4
PUESTA EN
MARCHA
13001
13002
2 13003
3
4
4
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
4
4
3
3
5
3
2
3.5 1,3
3.4 1
4
4
3.5
3.83
I, = 3.6
DE LAS ENSEÑAN2^S DE INGENIERÍA (SECAI)
. . . .
ESTUDIANTES
20001
20002
20003
20004
PROCESO DE ENSEÑANZA
GESTIÓN
2 1 31001
3
4
3
31002
31003
31004
31005
31006
31007
31008
l31
5
5
3
3
RECURSOS
HUMANOS
PROFESORES
32101
32102
32103
3.5 32104
3
3
4
32105
32106
32107
32108
4.5
4
5
4
3.5
4
4
4
1 PERS. SERVICIOS
32201
32202
32203
J '"'
1 Uti
3.7 1 \Z2
5
4
4
4.1
4.33
4.21
l3 =
INSTALACIONES V
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
I33
4
3
4
3.5
2
5
3.6
3.77
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
4
3.5
3
3
3
3
4
4
4
4
134=3.55
RESULTADOS
40001
40002
40003
40004
40005
INTEGRACIÓN
4 1 50001
2 50002
4 50003
3 50004
3
1
1
1
1
U = 3.2 15 =
4.5
4.5
4
5
4.5
177
Francisco Alba Juez
C.V.CH.
Carrera; Ingeniería Eléctrica
EVALUACIÓN EXTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
3
3
2
PUESTA EN
MARCHA
13001
13002
13003
3
4
3
CONTENIDO 1
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
4 1
4
3
3
5
4
1
3
3.4
Il3
4
4
3
3.66
li = 3.35
DE LAS ENSEÑANZAS DE INGENIERLV (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
3
4
0
3
PROCESO DE ENSEÑAN2L\
1 RECURSOS
GESTIÓN 1 HUMANOS
31001
31002
31003
31004
31005
31006
31007
31008
1
1 1
12=3.33
I31
5 y PROFESORES
5 32101
3 32102
3
3.5
2
32103
32104
32105
3 32106
4 32107
32108
4.5
4
5
4
3
2.5
4
3
PERS. SERMCIOS
32201
32202
32203
l]21
1 hn
3.56 I32
5
4
4
3.75
4.33
4.04
«3 =
INSTALACIONES Y
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
I33
3.77
4
3
4
4
2
5
3.66
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
l34 =
4
3.5
3
4
2
3
5
4
5
5
3.85
RESULTADOS
40001
40002
40003
40004
40005
5
INTEGRACIÓN
50001
2 50002
3 50003
4 50004
0
1
I4 = 3.5 u =
4.5 I
4.5
4.6
^
4.6
178
Francisco Alba Juez
Comparación de los índices obtenidos con el modelo SECAI (94 indicadores)
y los obtenidos con los modelos SECAI reducido (69 indicadores) y Optimizado (64 indicadores)
C.V.CH
Carrera: Ingeniería Eléctrica
ÍNDICE
In
Il2
Il3
Il4
Ii
I2
I31
I321
I322
I32
I331
I332
I33
I34
I3
I4
I5
(1)
EVAL.
INT.
SECAI
(94 ind.)
4
3,4
3,7
3,8
3,7
3,2
3,7
4,1
4,5
4,3
3,9
3
3,5
3,4
3,8
3,2
4,4
(2)
EVAL.INT.
SECAI
(69 Ind.)
3,66
3,6
3,83
3,7
3
3,7
4,1
4,33
4,21
3,6
3,35
3,71
3,2
4,5
(3)
EVAL.
INT. MOD.
OPTIM. (64
Ind.)
3,5
3,4
3,83
3,6
3
3,7
4,1
4,33
4,21
3,6
3,55
3,77
3,2
4,5
DIFERENCIA
( l ) - (2)
0.34=8.5%
0.2=5.8%
0.13=3.4%
—
0=0%
0.2=6.25%
0=0%
0=0%
0.17=3.8%
0.09=2%
—
—
0.1=0.28%
0.05=1.5%
0.09=2.4%
0=0%
0.1=2.2%
DIFERENCIA
( l ) - (3)
0.5=12.5%
0=0%
0.13=3.4%
„
0.1=2.7%
0.2=6.25%
0=0%
0=0%
0.17=3.8%
0.09=2%
—
_
0.1=0.28%
0.15=4%
0.03=0.8%
0=0%
0.1=2.2%
DIFERENCIA
(2)-(3)
0.16=4,4%
0.2=5.5%
0=0%
—
0.1=2.7%
0=0%
0=0%
0=0%
0=0%
0=0%
—
—
0=0%
0.2=5.6%
0.06=1.6%
0=0%
0=0%
(4)
EVAL.
EXT.
SECAI (94
ind.)
3
3,1
3,8
3,6
3,4
3,4
3,6
3,7
4,5
4,1
3,9
3,2
3,6
3,5
3,7
3,5
4,6
(5)
EVAL.
EXT.
SECAI (69
ind.)
3,163,8
3,66
3,54
3,33
3,6
3,77
4,33
4
3,66
3,5
3,69
3,5
4,6
(6)
EVAL.
EXT. MOD.
OPTIM (64
ind.)
3
3,4
3,66
3,35
3,33
3,56
3,75
4,33
4,04
3,66
3,85
3,77
3,5
4,6
DIFERENCIA
(4)-(5)
0.16=5%
0.7=22.5%
0.14=3.7%
—
0.14=4%
0.07=2%
0=0%
0.07=1.89%
0.17=3.8%
0.1=2.4%
—
—
0.06=1.6%
0=0%
0,01=0,27%
0=0%
0=0%
DIFERENCIA
(4)-(6)
0=0%
0.3=9.5%
0.14=3.7%
—
0.05=1.4%
0.07=2%
0.04=1%
0.05=1.35%
0.17=3.8%
0.06=1.46%
—
—
0.06=1.6%)
0.35=10%
0,07=1,9%
0=0%
0=0%)
DIFERENCIA
(5)-(6)
0.16=5%
0.4=10.5%
0=0%)
—
0.19=5.4%
0=0%
0.04=1%)
0.02=0.5%
0=0%)
0.04=0.99%
—
—
0=0%
0.35=9%
0,08=2,12%)
0=0% •
0=0%
179
Francisco Alba Juez
GRÁFICOXI: C V.CH. - CARRERA INGENIERÍA ELÉCTRICA
EVALUACIÓN INTERNA
3 •
4 ,5 •
4 •
3,5 -
3 -
2,5 -
2 -
1,5 -
0,5 -
0 -
:
f •
•
-
J
1
.Ata
ti
l "
*"
y-
• -
' •
r
•
(
>?. \ - ^ % ^ í í
; _
— •
JL.
1-1 i " ^ N i " ' . ^ .
V ^
•̂ ""̂
" >
•r
> « >!
'Jí.
. «
•>
'<5
*
/
<•
w
/•
í
• * .
'^
> í ^
+
-
fJJÍ
' í
• " í
1
1 ^
r
•i
i
^
«
•(&
*?
.^
>.
. < •
^
r
1
" i .
-t
1 i '
'•ó
T -
* •
í "
<.
. ™
*
V
>
'
\
> 4
^ .
¥
f^"'
<
-
'̂
í->
Á
"
5Í
<í~
,1
r
L
.
/ * •
V
4- -
(Sí
H .
»•>•
>. j J C
^̂ í.
'4
á
i<f.
f
^
;
-
"
-̂
4.
.
^ >
'
f
, ^S
:ía
; • • •
í-f-
f;
.••-;
í
'-'
• • . - •
'̂
; •
;;
• ;
i ( ' i :
íi
M Í ;
lii'
';•':
111 112 113 114 II 12
mO) EVAL INT. SECAI (94 ind.)
a(2) EVALINT. SECAI (69Ind.)
n(3) EVAL INT. MOD. OPTIM. (64Ind.)
131 1321 1322 132 1331 1332 133
ÍNDICE
134
180
Francisco Alba Juez
GRÁFICOXII: C. V.CK - CARRERA INGENIERÍA ELÉCTRICA
EVALUACIÓN EXTERNA
4,5
3,5
t- 3 /
F
I
C
A
. 2,5
/ 2
o
N
1,5 ,
0,5
111
m(4)
m(6>
112 113 114 II 12
EVAL EXT SECAI (94 ind)
EVALEXT SECAI (69 ind.)
EVAL EXT MOD. 0PTIM(64 ind.)
131 1321 1322 132 1331 1332 133
li-
134
r:
" i
V
I
181
Francisco Alba Juez
MODELO SECAI
( 94 indicadores)
EVALUACIÓN INTERNA - CEI
CV.CH.
Carrera: Ingeniería Mecánica
CKE-COLUMBU!
PLAN DE ESTUDIOS
PARTICIPACIÓN
11001
11002
11003
4
5
5
METODOLOGÍA
12001
12002
12003
12004
12005
12006
12007
1,1
Ii2
3
0
5
0
CONTENIDO
13001
13002
13003
13004
13005
13006
13007
P.EN M
4 14001
0 14002
5 1 14003
14004
14005
1
4.e 1,3
4.25 1 1,4
li = 4.16
5
5
4
3
5
4
1
ARCHA
4
5
4
4
4
3.8
4
SISTEMA DE FA'ALIIACION DE LA CALIDAD
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
I. ESTUDIANTES
20001
20002
20003
20004
20005
20006
4
4
2
2
5
4
PROCESO DE ENSEÑANZA
GESTIÓN 1 PROFESORES
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
5 1 32101
5 32102
5 32103
2 1 32104
0 32105
4
4
3
32106
32107
32108
2 32109
5 1 32110
P. SERVICIOS 1 32111
32201
l 2 = 3
32202
32203
32204
I3,
4 1 32112
4
4
3 1»,
1 '522
3.5 1 I32
4
4
4
2
5
3
2
4
2
3
4
0
3.5
3.75
3.6
INSTALACIONES
33101
33102
33103
33104
33105
33106
33107
4
3
4
4
4
2
5
EQUIPOS
33201
33202
33203
33204
33205
33206
1}},
I332
I33
3
2
4
3
4
3
3.7
3
3
I3 = 3.5
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
F. DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
I34
2
1
5
4
4
4
4
5
4
4
4
5
4
5
= 4
RESULTADOS
40001
40002
40003
40004
400C5
4
INTEGRACIÓN
50001
4 50002
4 50003
4 1 50004
0 50005
50006
50007
50008
u = = 4 l5 =
4
3
4
4
0
4
4
4
3.8
182
Frandíco Alba Juez
MODELO SECAI
( 94 indicadores)
EVALUACIÓN EXTERNA - CEE
C.V.CH
Carrera: Ingeniería Mecánica
CRE-COLUMBUS
PLAN DE ESTUDIOS
PARTICIPACIÓN
11001
11002
11003
4
5
5
METODOLOGÍA
12001
12002
12003
12004
12005
12006
12007
rii
Il2
3
CONTENIDO
13001
13002
13003
13004
13005
0 13006
5 13007
0
4
0
5
4.7
4
5
5
4
3
5
4
1
P.EN MARCHA
14001
14002
14003
14004
14005
1,3
Il4
4
5
4
4
4
4
4.2
li = 4.2
SISTEMA DE EVALUACIÓN DE LA CALIDAD
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
I. ESTUDIANTES
20001
20002
20003
20004
20005
20006
l2 =
4
4
2
2
5
4
PROCESO DE ENSEÑANZ.A
GESTIÓN I PROFESORES
31001
31002
31003
31004
31005
31006
31007
31008
31009
3.2
31010
5 1 32101
5 32102
5
2
0
4
4
32103
32104
32105
32106
32107
3 1 32108
2 32109
5 1 32110
P. SERVICIOS 1 3 2 1 1 1
32201
32202
32203
32204
I31
4 1 32112
^
4
3 I321
I322
3.8 1 I32
4
4
4
2
5
3
2
4
2
3
4
0
3.3
4
3.7
INSTALACIONES
33101
33102
33103
33104
33105
33106
33107
4
3
4
4
4
2
5
EQUIPOS
33201
33202
33203
33204
33205
33206
I331
1332
I33
3
2
4
3
4
3
3.8
3
3.4
I3 = 3.7
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
F. DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
I34
2
1
5
^
4
4
4
5
4
4
4
5
4
5
= 4
RESULTADOS 1 INTEGRACIÓN
1
40001
40002
40003
40004
40005
4
4
50001
50002
4 50003
4 1 50004
0 50005
50006
50007
50008
1 I
1
U = 4 ls =
4
3
4
4 1
0
4
4
4
3.8
183
Francisco Alba Juez
C.V.CH
Carrera: Ingeniería Mecánica
EVALUACIÓN INTERNA
CON MODELO SECAI REDUCIDO
(69 Indicadores)
CRE-COLUMBUS 1
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
4.5
5
3
5
4
5
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
5
PUESTA EN
MARCHA
13001
13002
13003
5 1
4
3
^
4 1
1
4.4
3.85
Il3
1, = 4.14
4
4.5
4
4.16
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
l2 =
2
2
5
4
3.25
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
31009
l31
5
5
5
2
4
3.5
3
2
RECURSOS
HUMANOS
PROFESORES
32101
32102
32103
32104
32105
32106
32107
5 32108
32109
4
4
2
5
3
2
4
4
0
1 PEES. SERVICIOS
32201
3.8
32202
32203
I321
I322
I32
4
4
3
3.5
3.66
3.58
INSTALACIONES V
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
I33
3.5
2.5
4
4
2.5
5
3.6
I3 = 3.72
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
L34011
34012
34013
2
1
5
4
4
4
5
4
4
4
5
4
5
134=3.9
RESULTADOS
40001
40002
40003
40004
40005
4
4
4
4
0
INTEGRACIÓN
50001
50002
50003
50004
1 1
1
4
3.5
4
4
I4 = 4 15 = 3.87
184
Francisco Alba Juez
C.V.CH.
Carrera; Ingeniería Mecánica
EVALUACIÓN EXTERNA
CON MODELO SECAI REDUCIDO
(69 Indicadores)
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
4.5
5
3
5
4
5
CONTENIDO
Í25oi
12002
12003
12004
12005
12006
12007
l i i
Il2
5
5
4
3
5
4
1
4.4
3.7
PUESTA EN
MARCHA
13001
13002
13003
I»
4
4.6
4
4.16
l i = 4
sisTFMA niT PVAI iiAZ-iríM np I A r-Ai inAn
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
2
2
5
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
4 31004
31005
31006
31007
31008
31009
1
l2=3.25
l31
5
5
5
2
4
3.5
3
2
5
3.8
RECURSOS 1 INSTALACIONES V
HUMANOS 1 EQUIPAMIENTO
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
32109
4
33001
33002
4 33003
2 33004
5
3
2
4
4
0
33005
33006
PERS. SERVICIOS \32201
32202
32203
I321
I322
l32
4 1
4
3
3.5
3.66
3.58 1 I33
3.5
2.5
4
4
2.5
5
3.58
Ij = 3.74
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
2
1
RESULTADOS
40001
40002
5 I 40003
4 40004
4
4
5
4
4
40005
4
5
4
5
134 = 4
4
INTEGRACIÓN
50001
4 50002
4 50003
4
0
50004
4
3.5
4
4
U = 4
1
U = 3.87
185
Frandsco Alba Juez
C.V.CH
Carrera: Ingeniería Mecánica
EVALUACIÓN INTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
4.5
5
3
3.5
4
5
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
5
4.5
4
3
5
4
1
4.16
3.8
PUESTA EN
MARCHA
13001
13002
13003
In
4
4.5
4
4.16
l, = 4
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
2
2
5
4
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
1 l31
5
5
2
4
3.5
3
2
5
3.7
RECURSOS
HUMANOS
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
4
4
2
5
3
2
4
0
PERS. SERVICIOS
32201
32202
32203
r]2i
I322
l32
12=3.25
4
4
3
3.42
3.66
3.54
l3 =
INSTALACIONES V
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
I33
3.5
2.5
4
4
2.5
5
3.6
3.8
INSTITUCIÓN (CÓDIGO)
1 HOJA DE RESUMEN DE EVALUACIÓN
1 FACTORES
1 DIDÁCTICOS
i 34001
34002
34003
34004
34005
34006
34007
34008
34009
1 34010
1
1
J 1
1 '""
5
4
4
5
4
4
4
5
4
5
4.4
RESULTADOS
40001
40002
40003
40004
40005
INTEGRACIÓN
4 1 50001
4
4
4
0
50002
50003
50004
4
3.5
4
4
U = 4 15 = 3.87
186
Francisco Alba Juez
C.V.CH
Carrera: Ingeniería Mecánica
EVALUACIÓN EXTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
4.5
PUESTA EN
MARCHA
13001
5 13002
3 13003
3.5
4
5
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
Il7
5
4.5
4
3
5
4
1
4.16
3.8
Il3
4
4.5
4
4.16
l, = 4
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
2
2
5
4
l2=3.2S
PROCESO DE ENSE1ÑÍAN2U
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
l31
5
5
2
4
3.5
3
2
RECURSOS
HUMANOS
PROFESORES
32101
32102
32103
32104
32105
32106
5 32107
32108
4
4
2
5
3
2
4
0
1 PERS. SERVICIOS
32201
32202
32203
3.7
I321
I322
I32
4
4
3
3.42
3.66
3.54
U =
INSTALACIONES Y
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
I33
3.8
3.5
2.5
4
4
2.5
5
3.58
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
5
4
1 40001
40002
4 40003
5 40004
4 40005
4
4
5
'^
5 1
1
1,4=4.4
4 1 50001
4 50002
4 50003
4 50004
° 1
4
3.5
4
4
1
l 4 = 4 15 = 3.87
187
Francisco Alba Juei
Comparación de los índices obtenidos con el modelo SECAI (94 indicadores)
y los obtenidos con los modelos SECAI reducido (69 indicadores) y Optimizado (64 indicadores)
C.V.CH
Carrera: Ingeniería Eléctrica
ÍNDICE
In
I|2
Il3
1.4
Ii
I2
I31
I321
I322
I32
I331
I332
I33
I34
I3
L,
I5
(1)
EVAL.
INT.
SECAI
(94 ind.)
4
3,4
3,7
3,8
3,7
3,2
3,7
4,1
4,5
4,3
3,9
3
3,5
3,4
3,8
3,2
4,4
(2)
EVAL.INT.
SECAI
(69 Ind.)
3,66
3,6
3,83
3,7
3
3,7
4,1
4,33
4,21
3,6
3,35
3,71
3,2
4,5
(3)
EVAL.
INT. MOD.
OPTM.
(64 Ind.)
3,5
3,4
3,83
3,6
3
3,7
4,1
4,33
4,21
3,6
3,55
3,77
3,2
4,5
DIFERENCIA
( l ) - (2)
0.34=8.5%
0.2=5.8%
0.13=3.4%
_ .
0=0%
0.2=6.25%
0=0%
0=0%
0.17=3.8%
0.09=2%
_
_ .
0.1=0.28%
0.05=1.5%
0.09=2.4%
0=0%
0.1=2.2%
DIFERENCIA
( l ) - (3)
0.5=12.5%
0=0%
0.13=3.4%
—
0.1=2.7%
0.2=6.25%
0=0%
0=0%
0.17=3.8%
0.09=2%
_ .
_ .
0.1=0.28%
0.15=4%
0.03=0.8%
0=0%
0.1=2.2%
DIFERENCIA
(2)-(3)
0.16=4,4%
0.2=5.5%
0=0%
_
0.1=2.7%
0=0%
0=0%
0=0%
0=0%
0=0%
—
—
0=0%
0.2=5.6%
0.06=1.6%
0=0%
0=0%
(4)
EVAL.
EXT.
SECAI
(94 ind.)
3
3,1
3,8
3,6
3,4
3,4
3,6
3,7
4,5
4,1
3,9
3,2
3,6
3,5
3,7
3,5
4,6
(5)
EVAL.
EXT.
SECAI
(69 ind.)
3,16
3,8
3,66
3,54
3,33
3,6
3,77
4,33
4
3,66
3,5
3,69
3,5
4,6
(6)
EVAL.
EXT. MOD.
OPTIM
(64 ind.)
3
3,4
3,66
3,35
3,33
3,56
3,75
4,33
4,04
3,66
3,85
3,77
3,5
4,6
DIFERENCIA
(4)-(5)
0.16=5%
0.7=22.5%
0.14=3.7%
_
0.14=4%
0.07=2%
0=0%
0.07=1.89%
0.17=3.8%
0.1=2.4%
™
—
0.06=1.6%
0=0%
0,01=0,27%
0=0%
0=0%
DIFERENCIA
(4)-(6)
0=0%
0.3=9.5%
0.14=3.7%
—
0.05=1.4%
0.07=2%
0.04=1%
0.05=1.35%
0.17=3.8%
0.06=1.46%
_ .
—
0.06=1.6%
0.35=10%
0,07=1,9%
0=0%>
0=0%
DIFERENCIA
(5)-(6)
0.16=5%
0.4=10.5%
0=0%
_
0.19=5.4%
0=0%
0.04=1%
0.02=0.5%
0=0%
0.04=0.99%
—
—
0=0%
0.35=9%)
0,08=2,12%
0=0%
0=0%
188
Francisco Alba Juez
GRÁFICOXI: C VCH. - CARRERA INGENIERÍA ELÉCTRICA
EVALUACIÓN INTERNA
3 -
4,5 •
4
3,5 -
C
A
L j j
/
F
A
C
I 2-
o
N
1,5 -
1 -
0,5 -
V "" ^ ^ '^ r.> •í '^/ ^^ ^>,í^ N •" , . . , ' 3, •! -> <• I < S ^ f^
5- ^
• ^ • * J l ,
í i
M
«
•
- (
i»
•
,
f
^
h
• •
,
' •> 4
i
i
1
<»
<• i ^ V,- „ •?
-
-
^
•^
^ ^ ^ < ^ V
c , -f ^ ,
f>
1
r
—
• 1
^7* \ •*
" y i ^ -íu ^ ' - ^
* ' '., .̂ ,
s
i í *
f
,
s
^
«
• '
•c
• .
^
^
.
•
•
,
'
. „
"
•
•
«« •>
j
, <• r~i
"̂ ' \ ^
V \
^
-.
^
' v "
A
^
•^"-•^í
I "• ^
?<--̂ ^ >
h ••
f:
'i
'4,
• 4
i
*
*
>
,"-:
i - í
/
'1
^
+
(i
lili
É
íá
í i í
••
;̂
-
^
'
•>
1
i
1
1
1
,
''' ' , ' - .̂'-
' '̂
^
^ ¡.<
,
r«
-
1
"
'̂
'í
\
'
-
-
,
1
i
PK
, :.'í
iit
J J l
i
t
i-'
"
-i?".
^
- ^ 5 . ^
%
í '
i -
"'H
<̂
T̂
~ S
'?Si
'9.
y Vi
l í >- ft
^
, 1
•
i-
f
iía
>
V
'
,
VA
111 112 113 114 11 12
m(l) EVAL INT. SECAI (94iiuL)
B(2) EVAEINT. SECAI (69Ind.)
m (3) EVAL. INT. MOD. OPTIM (64 Ind.)
131 1321 1322 132 1331 1332 133
ÍNDICE
134
189
Francisco Alba Juez
5 -
GRáFICOXn. C V.CH. - CARRERA INGENIERÍA ELÉCTRICA
EVALUACIÓN EXTERNA
4 , 5 ->•
,2,5
3,5
c I
^ 3 -»
1
C
A
C
I 2
o
N
1,5 —
0,5 ->-
5,
1
í
^
'
í
"
-
1
.̂
, ,
^
-
\ , •
•Y
E
<
:
i
1
á
\
^
' •
"
'
' •
1 "
-
)
* •
111 112 113 114 II 12
Q (4) EVAL. EXT. SECAI (94 ind.)
Q(5) EVA!. EXT SECAI (69 ind.)
m (6) EVAL EXT. MOD. OPTIM (64 ind.)
131 1321 1322 132 1331 1332 133
ÍNDICE
134
190
Francisco Alba Juez
MODELO SECAI
( 94 indicadores)
EVALUACIÓN INTERNA CEI
C.V.CH.
Carrera; Ingeniería Química
CRE-COLUMBUS
PLAN DE ESTUDIOS
PARTICIPACIÓN
11001
11002
11003
5
CONTENIDO
13001
4 13002
4 1 13003
METODOLOGÍA I ''3004
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
4 1 13005
4 13006
3 13007
5
3
3
2
4
5
4
^ i P.EN MARCHA
4 14001
3
4
14002
14003
14004
14005
1 4.3 lu
3.9 1 Ii4
3
4
4
4
2
3.8
3.2
li = 3.9
SISTEMA DE EVALUACIÓN DE LA CALIDAD
DE LAS ENSEÍÑÍANZAS DE INGENIERU (SECAI)
I. ESTUDUNTES
20001
20002
20003
20004
20005
20006
I 2 -
3
3
4
4
5
4
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
3.9
4
PROFESORES
321013 32102
5 32103
3 1 32104
3 32105
3 32106
4 32107
2
3
3
P. SERMCIOS
32201
32202
32203
32204
h^
32108
32109
32110
32111
5 1 32112
4
4
3
3.3
I321
I322
I32
4
5
3
4
5
4
4
4
3
3
5
3
4
4
4
h =
INSTALACIONES
33101
33102
33103
33104
33105
33106
33107
3
3
5
4
4
3
2
EQUIPOS
33201
33202
33203
33204
33205
33206
I331
I332
I33
3.6
3
2
4
3
3
4
3.3
3.2
3.3
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
F. DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
IM =
4
4
4
3
3
4
4
4
3
4
4
3
4
4
3.7
RESULTADOS
40001
40002
40003
40004
40005
4
3
3
4
0
INTEGRACIÓN
50001
50002
50003
50004
50005
50006
50007
50008
14=3.5 Is
4
4
4
4
^
° 4
4
= 4
191
Franaseo Alba Juez
MODELO SECAI
(94 indicadores)
EVALUACIÓN EXTERNA CEE
C.V.CH.
Carrera: Ingeniería Química
CRE-COLUMBUS
PLAN DE ESTUDIOS
PARTICIPACIÓN
11001
11002
11003
4
4
4
METODOLOGÍA
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
3
4
3
4
4
2
3
4
3.3
CONTENIDO
13001
13002
13003
13004
13005
13006
13007
4
3
3
3
4
5
3
P.EN MARCHA
14001
14002
14003
14004
14005
l i i
tl4
2
4
4
2
2
3.6
2.8
li = 3.4
SI
DE
I. ESTUDIANTES
20001
20002
20003
20004
20005
20006
l2 =
4
4
3
4
4
3
3.6
STEMA DE EVALUACIÓN DE LA CALIDAD
LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
1 PROCESO DE ENSEÑA^
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
5
2
5
3
2
3
2
1
1
1
P. SERVICIOS
32201
32202
32203
32204
1,1
5
4
4
3
2.5
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
32109
32110
32111
32112
I321
I322
I32
3
5
4
3
3
2
3
4
2
3
4
2
3.2
4
3.6
Ij —
2 ^
INSTALACIONES
33101
33102
33103
33104
33105
33106
33107
2
2
4
3
4
2
3
EQUIPOS
33201
33202
33203
33204
33205
33206
I331
I332
I33
3
1
3
3
2
3
2.9
2.5
2.7
3.05
F.DIDA
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
134 =
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
CTICOS
4
3
3
3
3
4
4
4
3
3
4
3
4
3
3.4
RESULTADOS
40001
40002
40003
40004
40005
4
INTEGRACIÓN
50001
3 50002
2 50003
5 1 50004
4 50005
50006
50007
50008
(4=3.6 l5 =
4
0
3
4
4
0
4
4
3.8
192
Francisco Alba Juez
EVALUACIÓN INTERNA
CON MODELO SECAI REDUCIDO
(69 Indicadores)
C.V.CH.
Carrera: Ingeniería Química
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
4.5
4
4
3
4
4
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
5
3
3
2
4
5
4
3.9
3.7
PUESTA EN
MARCHA
13001
13002
13003
l i j
3
4
3
3.3
li = 3.6
eisTiTMA ni? PVAI i i ir - ioN ni? i A nM inAn
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
PROCESO DE ENSEÑANZA
GESTIÓN
4 1 31001
4 31002
5 31003
4 31004
31005
31006
31007
31008
31009
1
l2 = 4.25
Ui
4
3
RECURSOS
HUMANOS
PROFESORES
32101
5 32102
3 32103
3 32104
4 32105
2 32106
3 32107
3
3.2
32108
32109
4.5
3
4
5
3.5
3.5
4
5
3
PERS. SERVICIOS
32201
32202
32203
I321
1322
I32
4.5
4
3
3.9
3.8
3.85
INSTALACIONES Y
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
I33
3
2.5
4
4
3
2
2.75
I3 = 3.38
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
4
4
4
3
3.5
4
4
3
4
4
3
4
4
134=3.7
RESULTADOS 1 INTEGRACIÓN
1
40001
40002
40003
40004
40005
4 I 50001
3 50002
3 50003
4 50004
0
U = 3.5
'•
4
4
4
4
= 4
193
Francisco Alba Juez
EVALUACIÓN EXTERNA
CON MODELO SECAIREDUCTOO
(69 Indicadores)
C.V.CH.
Carrera: Ingeniería Química
CRE-COLUMBUS
PLAN DE ESTUDK
y
PROCESO DE 1 PUES1
ELABORACIÓN I MAR
11001
11002
11003
11004
11005
11006
4 1 13001
4 13002
3 I 13003
3
4
3
CONTENIDO 1
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
4 1
3 1
3
3
4
5
3
3.5 l„
3.6 i
>S
TAEN
CIU
2
4
2
2.7
1, = 3.29
«ISTPMA np iTVAí iiAr-iríM n r i A f\i inAn
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
3
4
4
3
CESl
31001
31002
31003
31004
31005
31006
31007
31008
31009
l2=3.5
U,
PROCESO DE ENSEÑANZA
rioN
5
2
5
3
2.5
2.5
1
1
1
., ,
RECURSOS
HUMANOS
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
32109
4
4
3
3
2.5
2.5
4
4
2
PERS. SERVICIOS
32201
32202
32203
I321
I322
2.55 \ l32
4.5
4
3
3.2
3.8
3.5
INSTALACIONES Y
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
I33
2.5
1.5
3
3
2.5
3
2.6
Ij = 3.02
INSTITUCION (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
I 3 4 -
4
3
3
3
3.5
4
4
3
3
4
3
4
3
3.42
RESULTADOS INTEGRACIÓN
40001
40002
40003
40004
40005
4 1 50001
3
2
5
50002
50003
50004
^
1
4
3
4
4
1
l4 = 3.6 I5 = 3.75
194
Franáseo Alba Juez
C.V.CH.
Carrera: Ingeniería Química
EVALUACIÓN INTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
CRE-COLUMBUS 1
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
4.5
4
4
3.5
4
4
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
5
3
3
2
4
5
4
4
3.7
PUESTA EN
MAROU
13001
13002
13003
Il3
3
4
3
3.3
1
cisTirvtA n p PVAI iiAí-ioM nv i A n\j inAn
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
4
4
5
4
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
l2 = 4.25
l31
4
5
3
3
4
2
3
3
RECURSOS
HUMANOS
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
INSTALACIONES V
EQUIPAMIENTO
33001
4,5 1 33002
3 33003
4 33004
5 33005
3.5 33006
3.5
4
3
PERS. SERVICIOS
32201
32202
32203
3.4
I321
I322
l32
4,5
4
3
3.8
3.8
3.8 l33
3
2,5
4
4
3
2
2.75
Ij = 3.36
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
4
3.5
4
4
3
4
4
3
4
4
134=3.5
RESULTADOS
40001
40002
40003
40004
40005
4
3
1
INTEGRACIÓN
50001
50002
3 50003
4 50004
0
1
1
I4 = 3.5 Is
4 I
4
4
4
= 4
195
Francisco Alba Juez
EVALUACIÓN EXTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
C.V.CH.
Carrera; Ingeniería Química
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE 1 PUESTA E^
ELABORACIÓN | MARCIU
11001
11002
11003
11004
11005
11006
4 1 13001
4 13002
3 13003
iS 1
4
3
CONTENIDO 1
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
4 1
3 1
3
3
4
5
3
3.6 li,
3.6 1
2
4
2
2.7
li = 3.3
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
3
PROCESO DE ENSEÑANZA
GESTIÓN
31001
4 31002
4 31003
3 31004
31005
31006
31007
31008
1
1 I
I3I
5
5
3
2.5
2.5
1
1
1
2.6
RECURSOS
HUMANOS
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
4
4
3
3
2.5
2.5
4
2
PERS. SERVICIOS
32201
32202
32203
I321
I322
I32
4.5
4
3
3.12
3.8
3.5
INSTALACIONES Y
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
I33
2.5
1.5
3
3
2.5
3
2.6
•2=3.5 (3= 3.04
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
1 IM =
3
3.5
4
4
3
3
4
3
4
3
3.45
RESULTADOS
40001
40002
40003
40004
40005
4
3
2
5
4
INTEGRACIÓN
50001
50002
50003
50004
U = 3.6 I5 =
--
'
3
4
4
3.75
196
Francisco Alba Juez
Comparación de los índices obtenidos con el modelo SECAI (94 indicadores)
y los obtenidos con los modelos SECAI reducido (69 indicadores) y Optimizado (64 indicadores)
C.V.CH
Carrera: Ingeniería Quimica
ÍNDICE
Iii
Il2
Il3
Il4
li
I:
Iji
I321
hii
I32
I331
I332
I33
I34
I3
I4
I5
(1)
EVAL. INT.
SECAI
(94 ind.)
4.3
3,9
3,8
3,2
3,9
3,9
3.3
4
4
4
3,3
3,2
3,3
3,7
3,6
3,5
4
(2)
EVAL. INT.
SECAI
(69 Ind.)
3.9
3,7
3,3
3,6
4,25
3,2
3,9
3,8
3,85
2,75
3,7
3,38
3,5
4
(3)
EVAL. INT.
MOD. OPTIM.
(64 Ind.)
4
3,7
3,3
3,7
4,25
3.4
3,8
3,8
3,8
2.75
3,5
3,36
3,5
4
DIFERENCIA
(l)-(2)
0.4=9.3%
0.2=5%
0.5=13%
~
0.3=7.69%
0.35=8.9%
0.1=3%
0.1=2.5%
0.2=5%
0.15=3.75%
~
_
0.55=16.6%
0=0%
0.22=6%
0=0%
0=0%
DIFERENCIA
( l ) - (3)
0.3=6.97%
0.2=5%
0.5=13%
~
0.2=5%
0.35=8.9%
0.1=3%
0.2=5%
0.2=5%
0.2=5%
—
—
0.55=16.6%
0.2=5.4%
0.24=6.6%
0=0%
0=0%
DIFERENCIA
(2)-(3)
0.1=2.5%
0=0%
0=0%
—
0.1=2.7%
0=0%
0.2=5.8%
0.1=2.5%
0=0%
0.05=1.3%
—
—
0=0%
0.2=5.4%
0.02=0.59%
0=0%
0=0%
(4)
EVAL. EXT.
SECAI
(94 ind.)
4
3,3
3,6
2,8
3,4
3,6
2,5
3,2
4
3,6
2.9
2,5
2,7
3,4
3,05
3,6
3,8
(5)
EVAL. EXT.
SECAI
(69 ind.)
3,5
3,6
2,7
3,29
3,5
2,55
3,2
3,8
3,5
2,6
3,42
3,02
3,6
3.75
(6)
EVAL. EXT.
MOD. OPTIM
(64 ind.)
3,6
3,6
2,7
3,3
3,5
2,6
3,12
3.8
3,5
2,6
3,45
3.04
3,6
3,75
DIFERENCIA
(4)-(5)
0.5=12.5%
0.3=9%
0.9=25%
—
0.11=3.2%
0.1=2.77%
0.05=1.96%
0=0%
0.2=5%
0.1=2.77%
_
_ .
0.1=3.7%
0.02=0.58%
0.03=0.98%
0=0%
0.05=1.3%
DIFERENCIA
(4)-(6)
0.4=10%
0.3=9%
0.9=25%
—
0.1=2.9%
0.1=2.77%
0.1=3.8%
0.08=2.5%
0.2=5%
0.1=2.77%
_
_
0.1=3.7%
0.05=1.46%
0.01=0.32%
0=0%
0.05=1.3%
DIFERENCIA
(5)-(6)
0.1=2.77%
0=0%
0=0%
—
0.01=0.3%
0=0%
0.05=1.92%
0.08=2.5%
0=0%
0=0%
—
—
0=0%
0.03=0.86%
0.02=0.65%
0=0%
0=0%
197
Francisco Alba Juez
GRAFICOXV: C. V.CH. - CARRERA INGENIERÍA QUIAOCA
EVALUACIÓN INTERNA
4,5
3,5
>• 3
I
F
¡
C
A
C
I 2
O
N
1.5
. 2,5
^;::,''^M-^ ^S,.
0,5 -f»
« í Á i i -í"-̂ • ^
SO)
a (2)
m(3)
n
EVAL INT. SECAI (94 ind.)
EVALINT. SECAI (69 Ind.)
EVAL INT. MOD. OPTIM. (64 Ind.)
r
,
-..
; V
^
í .
i*!
(
jT5
[
1
<̂
X
C
1ÍL
%
i
>
^
-
V
*
ifeiái
;
/
«
t-̂
r
'V
-»
^
• ^
s
í.
í
•1;
íi.i
í
I
íh
i »
\
W
K
I
y
-
e-
^
!
)
•J^
•* í -
'̂
'•A
."ís
>
ff
^
r
i
P
iw
if
*
?•
N,
>.
-̂̂
• ^ ^
f •í
%
ifi'
iii
•a
a i .
i
ti!
1
«.(
%
^
i
• , ! • !
í™_
»K
131 1322 132 1332
ÍNDICE
134
198
Francisco Alba Juez
GRÁFICOXVI: C V.CH. - CARRERA INGENIERÍA QVIMICA
EVALUACIÓN EXTERNA
5
4,5 -
4 -
3,5
3
2,5 -
2 -
1.5 - H -
1
0,5
111 112 113 114 11 12
EVAL EXT. SECAI (94 ind.)
EVALEXT. SECAI (69 ind.)
EVAL EXT MOD. OPTIM (64 ind.)
131 1321 1322 132 1331 1332 133
ÍNDICE
134
•
^
Ti
. i .
• f
-
• í T
-
—
r
t
í~~-
— ^
V
1
t
i;
—
-
*
- •
.
<
-
A
- - ^ X'-X
>'\
i *
' i
t
-i
V
^
X
^ - ^
*.
y
^
•>
^
>
.
t
.te
í
'>̂
^
u;
h
~ \
^ "̂
f
• • , ' t •
í , r< d^
c « r
í " ílí:
•
199
Francisco Alba Juez
MODELO SECAI
(94 indicadores)
EVALUACIÓN INTERNA - CEI
C.V.CH.
Carrera: Ingeniería Industrial
CRE-COLL'MBUS
PLAN DE ESTUDIOS
PARTICIPACIÓN
11001
11002
11003
4
5
4
METODOLOGÍA
12001
12002
12003
12004
12005
12006
12007
l i i
Ii2
3
5
3
CONTENIDO
13001
13002
13003
13004
13005
13006
13007
4
4
4
3
5
2
5
3 1 P- EN MARCHA
4 14001
4
5
14002
14003
14004
14005
4 li.
3.8 1 1,4
4
5
5
4
4
3.8
4.4
l, = 4
SISTEMA DE EVALUACIÓN DE LA CALIDAD
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
I. ESTUDIANTES
20001
20002
20003
20004
20005
20006
h =
5
0
5
3
4
5
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
5
4
4
4
4
4
4
4
4
5
P. SERVICIOS
32201
32202
32203
32204
4.4
I31
4
4
4
3
4.2
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
32109
32110
32111
32112
I321
I322
I32
4
5
5
4
5
3
2
4
2
2
5
4
3.7
3.7
3.7
l j =
INSTALACIONES
33101
33102
33103
33104
33105
33106
33107
4
3
3
4
4
3
5
EQUIPOS
33201
33202
33203
33204
33205
33206
l33i
'332
I33
3
4
3
3
4
4
3.7
3.5
3.6
3.8
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
F. DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
34014
134 =
4
5
5
4
4
3
3
4
0
4
4
4
5
5
4.1
. . . . . .
40001
40002
40003
40004
40005
5
4
4
INTEGRAaON
50001
50002
50003
4 1 50004
3 50005
50006
50007
1 50008
14 = 4 15 =
1
5
5
4
5
0
0
5
4
4.6
200
Franasco Alba Juez
MODELO SECAI
( 94 indicadores)
EVALUACIÓN EXTERNA - CEE
C.V.CH.
Carrera: Ingeniería Industrial
CRE-COLUMBUS
PLAN DE ESTUDIOS
PARTICIPACIÓN 1 CONTENIDO
11001
11002
11003
4 j 13001
5 13002
4 1 13003
METODOLOGÍA I 13004
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
3 1 13005
5
3
3
4
13006
13007
4
4
4
3
5
2
5
P.EN MARCHA
14001
4 14002
5 14003
14004
14005
1
4.3 lu
3.8 1 Ii4
4
5
5
4
4
3.8
4.4
l , = 4
SISTE
DÉLAS
I. ESTUDIANTES
20001
20002
20003
20004
20005
20006
l2 =
5
3
5
3
4
5
= 4
MA DE EVALUACIÓN DE LA CALIDAD
ENSEÑANZAS DE INGENIERÍA (SECAI)
PROCESO DE ENSEÑANZA
" " • • ' • • " " "
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
31009
31010
5
4
4
4
4
4
4
4
4
5
P. SERVICIOS
32201
32202
32203
32204
l31
4
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
32109
32110
32111
32112
4
4
3
4.2
I321
hn
I32
4
5
5
4
5
3
2
4
2
2
5
4
3.7
3.7
3.7
l3 =
INSTALACIONES
33101
33102
33103
3 3 1 0 4
33105
33106
33107
4
3
3
4
4
3
5
EQUIPOS
33201
33202
33203
33204
33205
33206
I331
(332
I33
3.8
3
4
3
3
4
4
3.7
3.5
3.7
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
F. DIDÁCTICOS
34001
34002
3 4 0 0 3
3 4 0 0 4
34005
34006
34007
34008
34009
34010
34011
3 4 0 1 2
3 4 0 1 3
3 4 0 1 4
134 =
4
5
5
4
4
3
3
4
0
4
4
4
5
5
4.1
RESULTADOS INTEGRACIÓN
40001
40002
40003
4 0 0 0 4
40005
5
4
4
4
3
50001
50002
50003
50004
50005
50006
50007
50008
1
l4=4 l5 =
5
5
4
5
3
3
5
4
= 4
201
Francisco Alba Juez
C.V.CH
Carrera: Ingeniería Industrial
EVALUACIÓN INTERNA
CON MODELO SECAI REDUCIDO
(69 Indicadores)
CRE-COLUMBL'S
PLAN DE ESTUDIOS
PROCESO DE 1 PUESTA EN
ELABORACIÓN | MARCHA
11001
11002
11003
11004
11005
11006
4
5
3
3
4
5
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
13001
13002
13003
4 1
4 1
4
3
5
2
5
4 Il3
3.8
4
5
4
4.3
l, = 4
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
5
3
4
5
12=4.25
PROCESODE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
31009
l31
5
RECURSOS
HUMANOS
PROFESORES
4 32101
4 32102
4 32103
4 32104
4 32105
4 32106
4
5
32107
32108
32109
4.5
5
4
5
INSTALACIONES V
EQUIPAMIENTO
33001
33002
33003
33004
33005
2.5 j 33006
2
4
5
4
1 PERS. SER\1CI0S 1
32201
32202
32203
I I321
1 '̂̂ ^ 4.22 1 l„
4 1
4
3 1
4
3.66 1
3.83 i In
3,5
3.5
3.5
3.5
3
5
3.66
Ij = 3.99
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
4
5
5
4
4
3
4
0
4
4
4
5
5
134= 4.25
RESULTADOS
40001
40002
40003
40004
40005
5
INTEGRACIÓN
50001
4 50002
4 50003
4 50004
3
1 1 I
1
1
1 I 1 1
5 1
4.5
5
4
•4=4 Ij = 4.6
202
Francisco Alba Juez
C.V.CH.
Carrera; Ingeniería Industrial
EVALUACIÓN EXTERNA
CON MODELO SECAI REDUCIDO
(69 Indicadores)
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
4
PUESTA EN
MARCHA
13001
5 13002
3 13003
3
4
5
1
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
lii
Il2
4
4
4
3
5
2
5
4 Il3
3.8 1
4
5
4
4.3
l , = 4
cicTr\fA nir ir\r4i iwnnin nv i * I-IÍI in*r»
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
•2 =
PROCESO DE ENSEÑANZA
GESTIÓN
5 j 31001
3 31002
4 31003
5 31004
31005
31006
31007
31008
31009
4.25
I31
5
4
4
4
4
4
4
4
5
RECURSOS
HUMANOS
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
32109
4.5
5
4
5
2.5
2
4
5
4
INSTALACIONES Y
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
|| PERS. SERVICIOS |
1 32201
4.22
32202
32203
I321
I322
I32
4
4
3
4
3.66
3.83 I33
3.5
3.5
3.5
3.5
3
5
3.66
I3 = 3.98
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
34011
34012
34013
4
5
5
4
3.5
3
4
0
4
4
4
5
5
134=4.2
RESULTADOS
40001
40002
40003
40004
40005
5
INTEGRACIÓN
50001
4 50002
4 50003
4 50004
3
1
1
l4=4 j 15 =
5
^^
3.6
4
4.2
203
Francisco Alba Juez
EVALUACIÓN INTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
C.V.CH.
Carrera: Ingeniería Industrial
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE 1 PUESTA EN
ELABORACIÓN 1 MARCHA
11001
11002
11003
11004
11005
11006
4 1 13001
4.5 13002
3 13003
3.5
4
5
CONTENIDO 1
12001
12002
12003
12004
12005
12006
12007
l i i
Il2
4
4
4
3
5
2
5
4
3.8
Il3
4
5
4
4.3
l ,=4
«leTPMA ni7 r\'Ai inr-mM r»ir i A r-Ai inAn
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
5
3
4
5
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
1
1
l2=4.25
I31
5
4
4
RECURSOS 1 INSTALACIONES Y
HUMANOS 1 EQUIPAMIENTO
PROFESORES
32101
32102
4 32103
4 32104
4 32105
4 32106
5 32107
32108
4.5
5
4
5
33001
33002
33003
33004
33005
2.5 33006
2
4
4
I PERS. SERVICIOS |
32201
32202
32203
I321
1 '322
4.25 1 I32
4 1
4
3
3.87
3.66
3.76 I33
3.5
3.5
3.5
3.5
3
5
3.66
I3 = 3.96
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
5
3.5
3
4
0
4
4
4
5
5
134=4.16
RESULTADOS
40001
40002
40003
40004
40005
5
4
4
4
3
l 4 = 4
INTEGRACIÓN
50001
50002
50003
50004
5
4.5
5
4
U = 4.6
204
Francisco Alba Jaez
C.V.CH.
Carrera: Ingeniería Industrial
EVALUACIÓN EXTERNA
CON MODELO OPTIMIZADO
(64 Indicadores)
CRE-COLUMBUS
PLAN DE ESTUDIOS
PROCESO DE
ELABORACIÓN
11001
11002
11003
11004
11005
11006
4
4
3
3.5
4
5
CONTENIDO
12001
12002
12003
12004
12005
12006
12007
lii
1,7
PUESTA EN
MARCHA
13001
13002
13003
4 1
4 1
4
3
5
2
S
3.9
3.8
Ii3
4
5
4
4.3
li = 4
eisTPMA nv PVAI iiAí-ioM np I A r-Ai inAn
DE LAS ENSEÑANZAS DE INGENIERÍA (SECAI)
INGRESO DE
ESTUDIANTES
20001
20002
20003
20004
5
3
4
5
l2=4.25
PROCESO DE ENSEÑANZA
GESTIÓN
31001
31002
31003
31004
31005
31006
31007
31008
l31
5
4
4
4
4
4
4
5
4.25
RECURSOS
HUMANOS
PROFESORES
32101
32102
32103
32104
32105
32106
32107
32108
4.5
5
4
5
2.5
2
4
4
PERS. SERVICIOS
32201
32202
32203
l32,
I322
l32
4
4
3
3.9
3.66
3.78
INSTALACIONES V
EQUIPAMIENTO
33001
33002
33003
33004
33005
33006
I33
3.5
3.5
3.5
3.5
3
5
3.66
I3 = 3.96
INSTITUCIÓN (CÓDIGO)
HOJA DE RESUMEN DE EVALUACIÓN
FACTORES
DIDÁCTICOS
34001
34002
34003
34004
34005
34006
34007
34008
34009
34010
5
3.5
3
4
0
4
RESULTADOS
40001
40002
40003
40004
40005
4
4
5
5
5
4
INTEGRACIÓN
50001
50002
4 50003
4
3
50004
1
1
1
l34 = 4.16 1
I4 = 4 1 U-
5
4.5
3.6
4
4.2
205
Francisco Alba Juez
Comparación de los índices obtenidos con el modelo SECAI (94 indicadores)
y los obtenidos con los modelos SECAI reducido (69 indicadores) y Optimizado (64 indicadores)
C.V.CH
Carrera: Ingeniería Industrial
ÍNDICE
Iii
1.2
1.3
1.4
I.
h
hx
Im
I322
hi
I331
I332
I33
I34
I3
I4
I5
(1)
EVAL.
INT.
SECAI
(94 ind.)
4
3,8
3,8
4,4
4
4,4
4,2
3,7
3,7
3,7
3,7
3,5
3,6
4,1
3,8
4
4,6
(2)
EVAL.INT
.SECAI
(69 Ind.)
4
3,8
4,3
4
4,25
4,22
4
3,66
3,83
3,66
4,25
3,99
4
4,6
(3)
EVAL. ENT.
MOD. OPTIM.
(64 Ind.)
4
3,8
4,3
4
4,25
4,25
3,87
3,66
3,76
3,66
4,16
3,96
4
4,6
DIFERENCIA
( l ) - (2)
0=0%
0=0%
0.5=13%
—
0=0%
0.15=3.4%
0.02=0.47%
0.3=8%
0.04=1.1%
0.13=3.5%
—
—
0.06=1.66%
0.15=3.66%
0.19=5%
0=0%
0=0%
DIFERENCIA
( l ) - (3)
0=0%
0=0%
0.5=13%
—
0=0%
0.15=3.4%
0.05=1.19%
0.17=4.6%
0,04=1,1%
0,06=1,6%
~
—
0.06=1.66%
0.06=1.46%
0,16=4%
0=0%
0=0%
DIFERENCIA
(2)-(3)
0=0%
0=0%
0=0%
. . .
0=0%
0=0%
0.03=0.7%
0.13=3.25%
0.5=13.6%
0.33=8.6%
_
™
0=0%
0.09=2%
0.03=0,75%
0=0%
0=0%
(4)
EVAL.
EXT.
SECAI (94
ind.)
4,3
3,8
3,8
4,4
4
4
4,2
3,7
3,7
3,7
3,7
3,5
3,7
4,1
3,8
4
4
(5)
EVAL.
EXT.
SECAI (69
ind.)
4
3,8
4,3
4
4,25
4,22
4
3,66
3,83
3,66
4,2
3,98
4
4,2
(6)
EVAL.
EXT.
MOD.
OPTIM(64
ind.)
3,9
3,8
4,3
4
4,25
4,25
3,9
3,66
3,78
3,66
4,16
3,8
4
4,2
DIFERENCIA
(4)-(5)
0.3=7%
0=0%
0.5=13%
_
0=0%
0.25=6.25%
0.02=0.5%
0.3=8%
0.04=1.1%
0.13=3.5%
~
—
0.04=1.08%
0.1=2.44%
0.18=4.7%
0=0%
0.2=5%
DIFERENCIA
(4)-(6)
0.4=9.3%
0=0%
0.5=13%
~
0=0%
0.25=6.25%
0.05=1.2%
0.2=5%
0,04=1,1%
0,08=2,16%
—
_
0.04=1.08%
0.06=1.46%
0=0%
0=0%
0.2=5%
DIFERENCIA
(5)-(6)
0.1=2.5%
0=0%
0=0%
—
0=0%
0=0%
0.03=0.7%
0.1=2.5%
0=0%
0,05=1,3%
—
—
0=0%
0.04=0.95%
0.18=4.5%
0=0%
0=0%
206
Francisco Alba Juez
GRÁFICO XVll C V.CH. - CARRERA INGENIERÍA INDUSTRIAL
EVALUACIÓN INTERNA
4,5
3,5
2,5
1,5
0,5
\ -y
f
1
*
f
•1
. ,
T ~" '^
^
r—1 ^-í
"̂
^ -ib
í
"̂^
III 112 113 114 11 12 131 I32I 1322 132 I33I
•
r
X
^
1332
13(7; EVAL INT. SECAI (94 ind.)
0(2) EVALINT. SECAI (69 Ind.)
c (3) EV AL INT. 1 V/C m. 0 PTIi \l 164 In í)
-
: í
• ^
f
í *•
í
í •
-
133 134
'
-
13 14 15
/M)/C£
207
Francisco Alba Juez
GRÁFICO XVIII: C.V.CH. - CARRERA INGENIERÍA INDUSTRIAL
EVA L UA CION EXTERNA
5 1
4,5 -
3,5
2,5
1,5 -
1 -\
0,5 -
•
.
'
•> <;
•y.
-mí
t
:
^
?̂
i
/í '
-
; i
• í í
t^<
•c
i:
ít
i-\
/
, ía
^
'\
í
A
*
7
• ^ ^
^
í-
• í í *
<? '
> v
Jf 1
^"-í *
^<^
> * " ^ * 1,
«(<?
^ . X
4
'•^•v
1 '
N
í
• ^ '
y
i
•í-
k
j , .
-í
í
«
í̂-
" ' í
,1
^
5-̂
f ^
. z '
? —
: í-
i
• * :
i
3
i
p-
f
•Tr
* ^
j
-
-
i
' ,
i
111 112
B(4)
n(5)
B(6)
113 114 n 12 131 1321 1322 132 1331 1332 133
ÍNDICE
134 13
EVAL. EXT. SECAI (94 ind.)
EVAL.EXT. SECAI (69 ind.)
EVAL. EXT. MOD. OPTIM (64 ind.)
208
Francisco Alba Juez
6. CONCLUSIONES FINALES
En función del análisis realizado, de la extensa bibliografía consultada referente a modelos,
sistemas, procedimientos y metodologías para evaluar universidades, puestos en práctica en
distintos países del mundo, se ha llegado a las siguientes conclusiones:
• Se ha logrado desarrollar una metodología para el análisis y optimización de modelos
para evaluar la calidad de las enseñanzas.
• Dicha metodología ha sido desarrollada teniendo como referencia los procedimientos -
con las adaptaciones correspondientes aL caso y ámbito de estudio- utilizados para
determinar la calidad de productos, procesos y sistemas industriales, que en general,
consiste en realizar un análisis estadístico de calidad utilizando métodos- estadísticos
que correlacionan y comparan las variables enjuego.
•
•
Se haa utilizado dos métoxios estadísticos (Matriz, de Correlación, y. el Método de
Análisis de Componentes Principales) y un método basado en el Juicio de Expertos.
El método de- la- Matriz de Correlación, mediante el cual se correlacionaron
simultáneamente todas las variables (indicadores) en juego, ha contribuido al análisis de
correlaeión entredichas variables.
ELMétoda de. Análisis de.Componentes. Principales (ACP),. mediante eL cuaLse analiza
únicamente la relación entre las variables (indicadores) de cada Factor, factor por
factor̂ ha-contribuido a la-toma-de decisiones, referente-a la posible eliminación de
alguno de ellos.
El método- basado en, eL Criteria a Juicio. de. Expertos^ aplicado en_ conjundón_con los
dos métodos estadísticos antes mencionados, ha hecho posible definir criterios
suficientementecientíficosy estables^ que han-permitido llegat-a-un. modelo, optimizado
con resultados análogos a los obtenidos con el modelo original (94 indicadores) y con el
modela reducida (69 indicadores)-obtenido sólo. a.través-deL Juicia de Expertos.
Ha quedado puesto de manifiesto que, en este problema, la utilización de métodos
estadísticos- coiyuntamenle- con. eL métoda de. Juicia. de-Ejqjertos,. se- manifiesta- como
una estrategia de análisis y optimización muy adecuada.
Existe- eL convencimiento generalizada. de. que- se- deben implementar procesos de
evaluación interna y extema. De hecho todas las universidades del mundo han
implemeníadao estánJmplementando dichas-procesoS-de-evaluación.
Todos los sistemas o modelos que se han podido conocer, aún con diferentes
metodologías,-fínalmentey.a.la-hora-deconcretaLresultados,.recurren-aJa-utilizadón de
un sistema de indicadores, a los que se les asigna una valoración en función de una
escala-determinada.
209
•
Francisco Alba Juez
En. todos-los- casos, encontrados-en_la-bibliografía-de-referencia^dicha-escak-abarca
valores del 1 al 5, reservando el O (cero) para los casos en que no se puede valorar el
indicador correspondiente-porfalta-de-la-información-necesaria.
De la comparación del modelo SECAI con el resto de los modelos encontrados en la
bibliografía^-surge-que,dicho-modela-está-muchoLmejor estnicturado-que-la-mayoga de
ellos. Lo mismo ocurre con el procedimiento de evaluación, vale decir, con los pasos a
seguirpara aplicareLmodelo.
• No existen, "indicadores, de, calidad" absolutos. nL indiscutibles^ y mucha menos un
modelo de aplicación universal que pueda ser irrefiítable.
Tal romo nciirrft en tndns los pronesos para definir ii nhtftner la calidad requerida de un
producto final, conseguir ésta es algo sumamente difícil, por cuanto las características
de-calidad -reales..-que, son. las. que. defíneiLla-calidad deLproducto,_procesa o sistema-
son ahamente subjetivas y por tanto muy difíciles de medir.
• Como ya-se-ha-dicho^eiLk-extensa,bibliografía consultada^sLbien,se. encontraron
diversos modelos para evaluar la calidad de la enseñanza superior, no se encontró -ni
siquiera-.coma referencia^ ningiin modela o - análisis- con_ ñmdamenta científica ^ara
evaluar -y mucho menos para optimizar- la calidad del modelo de evaluación, que es lo
que se.ha-tratado.de-hacer en.esta.tesis.
• En fiínción de los resultados obtenidos y su comparación con los dos modelos SECAI,
el Modela Optimizado, desarrollado- erL esta tesis, fí^cilita la, aplicación, de. SECAI
mejorando su eficiencia sin disminuir su eficacia.
En. consecuencia, se- considera - haber - aportado,.una metodología- para .eL. Análisis y
Optimización de modelos para evaluar la calidad de las enseñanzas, utilizando una
estrategia de análisis mixta entre-experimentación y.métodos^estadísticos.
7. FUTURAS^ TiUlEAS^QüEPÜEDEN^^^&SAWiOMARSE EP^EL ÁMBITO.DE
ESTÜDiaABORDADO^POR^ESTArTESIS.
• Investigar la posibilidad de utilizar otros métodos estadísticos aptos para su aplicación
en elcampade-los-diseños-experimentales-y.su-x¡onaparación-coii-los.^licados, y los
resultados obtenidos en la presente tesis.
• Aplicación,d&criíerios.extrinsecos-de análisis-de-la calidad, vaLe,decir, otros-modelos y
otros evaluadores distintos al modelo y evaluadores de SECAI y comparar los
resultados-0bt€ñidos^eftlos^4e éste.
• Extender la aplicación del método desarrollado en la presente tesis, a otras carreras
(distintas de-ingeniería)^a-programas- de doctorado,^a-cohortes-deegresados,-produgción
científica o incluso a otros procesos diferentes a los académicos.
21&
Francisco Alba Juez
8. BIBLIOGRAFÍA
[1] "Acreditation Board for Engineering and Technology" (ABET) - Estados Unidos
[2] U.S. News Review - 1999
t^l "Quality Development in the United States" -the SUCCEED Coalition - USA -
Cari F. Zorowsky - North Carolina State University
"Japanese University Acreditation Association" - Encuentro internacional
sobre la Evaluación de la Enseñanza Superior - Gobierno de Brasil - Brasilia -
1986
T^i "EvaluationofHigherEducationin Japan"-iCunio Sato- 1986 - Brasilia-
Brasil
16]
[V]
"Self Evaluation of the Japanese University" - Yukio Fujita - 1986 - Brasilia -
Brasil
"An integrated Education Quality Control System - André van Peppen en Loes
Scheepers" - Faculty of Systems Engineering, Policy Analysis, and Management
Delfl University of Technolo©' - SEFI/CDWG SEMINAK - Grimstad,
Norway-1997
[8] "The^ use of performance indicators in the Faculty of Technolo^- &- Management''
University of Twente - N. J. Smit and W. M. van Woerden - SEFI/CDWG
SEMINAR.- Grimstad^Norway, 1997
"Continuos improvement versus Quality Control" - E.D.U. de Graaflf- Delft
[9] University of Technology, Faculty of Technology and Society - SEFI/CDWG
SEMINAR-Grimstad, Norway, 1997
L[10] "Quality Assurance in Engineering Education: Intemal Quality Care the Basis ;
for ExtemalQualityAssessment"-AlbertPilot-InstituteofEducatian_Utrecht
University- SEFI/CDWG SK^IINAR-Grimstad, Norway, 1997
"Pedagogical Network for Engineering Education in Denmark"—Ole Vinther IPN
I ̂ ^ í Denmark - SEFI/CDWG SEMINAR - Grimstad, Norway, 1997
"Stemal Evaluation as a tool for Quality Development" - Vibeke Fahlén - Center
i^^i for Quality Assurance and Evaluation ofHigher Education - Copenhagen -
Denmark - SEFI/CDWG SEMINAK- Grimstad^Norway, 1997
[13] "Quality Management" - Palle Slick - Engineering CoUege of Odense -
SEFI/CDWG SEMINAR - Grimstad, Norway,, 1997
[14] "Quality Development in Engineering Education at IST" M. Pile,
J.P. Tebceira, LC. Teixeira and- D. Durao- - Instituto Superior Técnico
Lisboa - Portugal - SEFI/CDWG SEMINAR - Grimstad, Norway, 1997
7n
Francaco Alba Juez
[15]"Classification and Ranking of Higher Engineering Education Programmes and
Institutions: the IST View" - M. Pile, J.P. Teixeira, I.C. Teixeira and D. Durao -
Instituto Superior Técnico - Lisboa - Portugal - SEFI/CDWG SEMINAR -
Grimstad, Norway 1997
[16] "Evaluation of the teaching at the ETH Zurich using student ratings: model
design, experiences and impacts on the eléctrica! engineering división" - Pamela
Alean-Kirkpatrick, Adolf H. Glattfelder and Walter Schaufelberg - Swiss
Federal Institute of Techonology, Zurich - SEFI/CDWG SEMINAR -
Grimstad, Norway 1997
[17] "Evaluation of Teaching Quality at Politenico di Torino" - Muzio M. Gola -
Torino - Italy - SEFI/CDWG SEMINAR - Grimstad, Norway 1997
[18] "Engineering Education Quality Evaluation System" (SECAI) - Rosa Mana
González-Tirados, Francisco Aparicio Izquierdo - Instituto de Ciencias de la
Educación (ICE) - Universidad Politécnica de Madrid - España - SEFI/CDWG
SEMINAR - Grimstad, Norway 1997
[19] "Guía de Autoevaluación. Centros Educativos y Formativos No Universitarios
Modelo Europeo de Calidad Total en la Gestión" - Confederación Española de
Centros de Enseñanza - 1997
[20] "Why Assessment Is Not Enough, Analysis of Evaluation of an Institution" -
A.Jounadeau, A.Beraud - Institut National des Sciences Appliquées de Lyon
(INSA) - Lyon - France - SEFI/CDWG SEMINAR - Grimstad, Norway 1997
[21] "L'Evaluation Institutionnelle Dans L'Enseignement Superieur" - L'Experience
Du Comité National D'Evaluation Des Universites en France - Gabriel Richet -
1986-Brasilia-Brasil
[22] "Intemal Evaluation of the Fachbereich Maschinenwesen at the Fachhochschule
Kiel" - Facts and Experiences - Gunter Grabe - Institute íur Konstruktion und,
Entwicklung - Kiel, Germany - SEFI/CDWG SEMINAR - Grimstad, Norway
1997
[23] "Experiences with Quality Development in Engineering Education" - 0yvind
Eek Jensen et al. - Faculty of Engineering, Buskerud College - Kongsberg,
Norway - SEFI/CDWG SEMINAR - Grimstad, Norway 1997
[24] "The Cri Quality System: Systematic fostering of Cooperation, Responsability,
and Improvement is the key to quality in Education" - Reidar Kvadsheim -
Faculty of Engineering - Oslo College - Oslo, Norway - SEFI/CDWG
SEMINAR - Grimstad, Norway 1997
[25] "Experience of Quality Assessment in Scotland" - Andre McGenttrick -
Department of Computer Science - SEFI/CDWG SEMINAR - Grimstad,
Norway 1997
212
Francisco Alba Juez
[26] "Preparing for External Assesment of Educational Provisión in Civil
Engineering" - I.G. Cross - Departament of Civil Engineering - University of
Portsmouth - U.K. - SEFI/CDWG SEMINAR - Grimstad, Norway 1997
[27] "The Council for National Academic Awards: Standars and Quality Control" -
F.A. Hibbers - Inglaterra - 1986 - Brasilia - Brasil
[28] "Dimensions of Evaluation" - U. Dahllóf, J. Harris, M. Shattock, A. Staporoli
and R. Veld - Report of the IMHE Study Group on Evaluation in Higher
Education - J. Kingsley Publishers - London - 1993
[29] "Quality Issues in the Department of industrial Technology" - Tony Pickles -
Department of industrail Technology - University of Bradford - Bradford, U.K.
- SEFI/CDWG SEMINAR - Grimstad, Norway 1997
[30] "Evaluation and Quality Development in Engineering Education at the
University of Zilina" - Vladimir Ferance - University of Zilina - Slovak
Republic - - SEFI/CDWG SEMINAR - Grimstad, Norway 1997
[31] "The State Educational Standards as a basis and tool for the higher education
quality evaluatin and control in Rusia" - Vagan V. Shakhgildian and Nikolai N.
Fomin - Moscow technical University of Communications and Informatics,
Moscow, Rusia - - SEFI/CDWG SEMINAR - Grimstad, Norway 1997
[32] "Modelo para la Autoevaluación Institucional" - Alicia Muro, Pedro Laílircade,
Teresa M. Mestre, Raúl Rubio, Guillermina Ramón orellano, Miguel E. Cáliz,
Raúl Sarmiento y otros - Universidad Nacional de San Juan - Departamento de
Publicaciones - 1996
[33] "Evaluación Institucional y Calidad de la Enseñanza" - F. Alba Juez - Congreso
Argentino de Enseñanza de la Ingenieria - Buenos Aires - Argentina - 1992
[34] "Le Sisteme Canadien D'Enseignement Superieur Ou Quelques Caractéristiques
Permettan Den Baliser L'Évaluation" - Michel Bellavance - Ecole Nationale
D'Administration Publique - Quebec - Canadá - 1986 -Brasilia - Brasil
[35] "Practiques de L'Evalution Dans le Milieu Universitaire Québécois" - Jacques
Tousignat - Universite de Québec - Canadá - 1986 - Brasilia - Brasil.
[36] "Autovaluación Institucional: Experiencia de la Universidad del Valle" - Cali -
Colombia - Simposio sobre Problemas y Perspectivas de la Evaluación
Institucional - Universidad Federal de Santa Maria R.S. - Brasil - 1987
[37] "Programa de Avaliagao Institutional das Universidades Brasileiras" (PAIUB) -
Ministro da Educafao e do Deporto - Secretaria de Educagao Superior - 1994
[38] ¿Que es el Control Total de Calidad? — Kaouru Ishikawa - Ed. Norma - 1993
[39] Control de Calidad - D.H. BESTERFIELD - Ed. Prentice Hall - 1995
213
Francisco Alba Juez
[40] Análisis y Planificación de la Calidad - J.M. Juran, F.M. Gryna - Ed. Me. Graw
Hill-1994.
[41] Control Total de la Calidad - A.V. Feingenbaun - Ed CECSA - 1974
[42] Métodos Estadísticos Aplicados a la Investigación y a la Producción - Owen L.
Davies - Ed. Aguilar - 1966
[43] Control de Calidad - B.L. Hansen - Ed. Hispano Europea - 1973
[44] Statistical Methods for Quality Improavement. - Hitoshi Kume. Ed. AOTS -
1990
[45] Probability and Statistics for Engineers and Scientists - RE. Walpole, R.H.
Myers - Ed. Me. Graw Hill - 1990
[46] Estadística Aplicada - N. Cortada, J.M. Carro - Ed. Eudeba - 1972
[47] Quality - Designed Curricula - F. Aparicio Izquierdo - European Journal of
Engineering Education. Vol. 18, N° 4 - 1993
[48] La Calidad de la Enseñanza Superior y Otros Temas Universitarios - F. Aparicio
Izquierdo, R.M. González Tirados - UPM - ICE - 1994 - Madrid - España
[49] Análisis de las Causas del Fracaso Escolar en la Universidad Politécnica de
Madrid - R.M. González Tirados - Centro de Publicaciones - Ministerio de
Educación y Ciencia - 1989 - Madrid - España
[50] Análisis de los Factores de Proceso y Otros Factores de Influencia que
Condicionan la Calidad de las Enseñanzas Universitarias y el Rendimiento -
R.M. González Tirados - Ed. ICE de la UPM - 1994 - Madrid - España.
[51] Applied Multivariable Statistical Analysis - R. Jhonson, D. Wichen - Ed.
Prentice-Hall-1988
[52] Manual Practico de Estadística Avanzada - K.Hope - Ed. Trillas - México -
1982
[53] Análisis Estadístico Multivariable: Teoria y Ejercicios - R. Sierra Bravo - Ed.
Paraninfo - Madrid - 1994
[54] Introducción a los Métodos Estadísticos - C. Prado Campos - Ed. Pontificia
Universidad Católica de Chile - Santiago - 1994
[55] Principal Components Analysis - L. Harman - Ed. Me. Graw Hill - 1980
[56] Introducción Conceptual al Análisis Multivariable - R. Bisquerra Alzina - Ed.
PPU S.A - Barcelona - 1989
214