<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0123-1294</journal-id>
<journal-title><![CDATA[Educación y Educadores]]></journal-title>
<abbrev-journal-title><![CDATA[educ.educ.]]></abbrev-journal-title>
<issn>0123-1294</issn>
<publisher>
<publisher-name><![CDATA[Universidad de La Sabana]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0123-12942010000200004</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Diagnóstico de dificultades de la evaluación del aprendizaje en la universidad: un caso particular en Chile]]></article-title>
<article-title xml:lang="en"><![CDATA[Diagnosing Learning Assessment Difficulties at the University Level: A Specific Case in Chile]]></article-title>
<article-title xml:lang="pt"><![CDATA[Diagnóstico de dificuldades na avaliação da aprendizagem na universidade: um caso específico em Chile]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Contreras]]></surname>
<given-names><![CDATA[Gloria]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Pontificia Universidad Católica de Valparaíso  ]]></institution>
<addr-line><![CDATA[Valparaíso ]]></addr-line>
<country>Chile</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>08</month>
<year>2010</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>08</month>
<year>2010</year>
</pub-date>
<volume>13</volume>
<numero>2</numero>
<fpage>219</fpage>
<lpage>238</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S0123-12942010000200004&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S0123-12942010000200004&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S0123-12942010000200004&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[La evaluación del aprendizaje a nivel universitario presenta características generales asociadas a un concepto de evaluación tradicional, individualista, con énfasis en la memorización de contenidos, cuya principal función es la calificación. En la Pontificia Universidad Católica de Valparaíso, Chile, el panorama señalado impulsó a realizar un diagnóstico respecto de la forma como los docentes evaluaban el aprendizaje de sus estudiantes en distintas carreras profesionales, mediante la aplicación de cuestionarios a estudiantes y profesores, y el desarrollo de talleres pedagógicos. Entre las conclusiones más importantes, se puede destacar que los docentes identificaron con claridad aquellas características técnicas de los procedimientos de evaluación que los hacían válidos y confiables. Sobre los criterios de evaluación, una de las principales dificultades que tuvieron fue explicitar la calidad esperada en los trabajos de sus estudiantes. Finalmente, hay que destacar el alto nivel de concordancia entre ellos sobre dos procesos que consideraban muy importantes, pero que no implemen-taban debido al desconocimiento de estrategias adecuadas: retroalimentación y auto y coevaluación.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[The general features of learning assessment at the university level are associated with a traditional concept of individualistic assessment focused on the memorization of contents, primarily for the purpose of grading. The situation at the Pontificia Universidad Católica de Valparaíso (Chile) prompted a diagnosis of how teachers in different faculties assess student learning. This was done with questionnaires for students and teachers alike, and through educational workshops. Among the most important conclusions, it was found that teachers were able to identify clearly the technical features of the procedures that make assessments valid and reliable. In terms of evaluation criteria, one of the main difficulties they faced was explaining the kind of quality they expected students to show in their work. There was consensus on two processes teachers regard as highly important: feedback and self-evaluation/co-assessment. However, those processes have not been implemented owing to lack of knowledge about the appropriate strategies.]]></p></abstract>
<abstract abstract-type="short" xml:lang="pt"><p><![CDATA[A avaliação da aprendizagem no nível universitário mostra características gerais associadas a um conceito de avaliação tradicional, individualista, com ênfase em memorização de conteúdos, cuja principal função é de qualificação. Na Universidade Católica de Valparaíso, no Chile, o quadro apontado levou a realizar um diagnóstico sobre como avaliavam os professores a aprendizagem dos alunos em diferentes carreiras, aplicando questionários para alunos e professores, assim como desenvolvendo oficinas pedagógicas. Entre as principais conclusões, os professores identificaram claramente as características técnicas dos processos de avaliação que os faziam válidos e confiáveis. Sobre os critérios de avaliação, uma das principais dificuldades que enfrentaram foi explicitar a qualidade esperada nos trabalhos de seus alunos. Finalmente, devemos salientar seu elevado nível de concordância em dois processos muito importantes para eles, mesmo que não os implementavam devido à falta de estratégias adequadas: feedback, auto e co-avaliação.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Educación superior]]></kwd>
<kwd lng="es"><![CDATA[evaluación del aprendizaje]]></kwd>
<kwd lng="es"><![CDATA[competencias del docente]]></kwd>
<kwd lng="es"><![CDATA[estrategias educativas]]></kwd>
<kwd lng="es"><![CDATA[Universidad Católica de Valparaíso-Chile]]></kwd>
<kwd lng="en"><![CDATA[Higher education]]></kwd>
<kwd lng="en"><![CDATA[learning assessment]]></kwd>
<kwd lng="en"><![CDATA[teaching skills]]></kwd>
<kwd lng="en"><![CDATA[educational strategies]]></kwd>
<kwd lng="en"><![CDATA[Universidad Católica de Valparaíso-Chile]]></kwd>
<kwd lng="pt"><![CDATA[Ensino superior]]></kwd>
<kwd lng="pt"><![CDATA[avaliação da aprendizagem]]></kwd>
<kwd lng="pt"><![CDATA[competência dos professores]]></kwd>
<kwd lng="pt"><![CDATA[estratégias de ensino]]></kwd>
<kwd lng="pt"><![CDATA[Universidade Católica de Valparaíso-Chile]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  <font face="verdana" size="2">     <p align="center"><font size="4"><b>Diagn&oacute;stico de dificultades de la evaluaci&oacute;n del aprendizaje en la universidad: un caso particular en Chile</b></font></p>     <p align="center"><b><font size="3">Diagnosing Learning Assessment Difficulties at the University Level: A Specific Case in Chile</font></b></p>     <p align="center"><font size="3"><b>Diagn&oacute;stico de dificuldades na avalia&ccedil;&atilde;o da aprendizagem na universidade: um caso espec&iacute;fico em Chile</b></font></p>     <p>Gloria Contreras</p>     <p>Doctora en Ciencias de la Educaci&oacute;n Acad&eacute;mica,    <br>   Pontificia Universidad Cat&oacute;lica de Valpara&iacute;so, Valpara&iacute;so, Chile.    <br>   <a href="mailto:gcontrer@ucv.cl">gcontrer@ucv.cl</a></p> <hr>     <p><b>Resumen</b></p>     <p><i>La evaluaci&oacute;n del aprendizaje a nivel universitario presenta caracter&iacute;sticas generales asociadas a un concepto de evaluaci&oacute;n tradicional, individualista, con &eacute;nfasis en la memorizaci&oacute;n de contenidos, cuya principal funci&oacute;n es la calificaci&oacute;n. En la Pontificia Universidad Cat&oacute;lica de Valpara&iacute;so, Chile, el panorama se&ntilde;alado impuls&oacute; a realizar un diagn&oacute;stico respecto de la forma como los docentes evaluaban el aprendizaje de sus estudiantes en distintas carreras profesionales, mediante la aplicaci&oacute;n de cuestionarios a estudiantes y profesores, y el desarrollo de talleres pedag&oacute;gicos. Entre las conclusiones m&aacute;s importantes, se puede destacar que los docentes identificaron con claridad aquellas caracter&iacute;sticas t&eacute;cnicas de los procedimientos de evaluaci&oacute;n que los hac&iacute;an v&aacute;lidos y confiables. Sobre los criterios de evaluaci&oacute;n, una de las principales dificultades que tuvieron fue explicitar la calidad esperada en los trabajos de sus estudiantes. Finalmente, hay que destacar el alto nivel de concordancia entre ellos sobre dos procesos que consideraban muy importantes, pero que no implemen-taban debido al desconocimiento de estrategias adecuadas: retroalimentaci&oacute;n y auto y coevaluaci&oacute;n.</i></p>     ]]></body>
<body><![CDATA[<p><b>Palabras clave</b></p>     <p>Educaci&oacute;n superior, evaluaci&oacute;n del aprendizaje, competencias del docente, estrategias educativas, Universidad Cat&oacute;lica de Valpara&iacute;so-Chile (fuente: Tesauro de la Unesco).</p> <hr>     <p><b>Abstract</b></p>     <p><i>The general features of learning assessment at the university level are associated with a traditional concept of individualistic assessment focused on the memorization of contents, primarily for the purpose of grading.</i></p>     <p><i>The situation at the Pontificia Universidad Cat&oacute;lica de Valpara&iacute;so (Chile) prompted a diagnosis of how teachers in different faculties assess student learning. This was done with questionnaires for students and teachers alike, and through educational workshops.</i></p>     <p><i>Among the most important conclusions, it was found that teachers were able to identify clearly the technical features of the procedures that make assessments valid and reliable. In terms of evaluation criteria, one of the main difficulties they faced was explaining the kind of quality they expected students to show in their work. There was consensus on two processes teachers regard as highly important: feedback and self-evaluation/co-assessment. However, those processes have not been implemented owing to lack of knowledge about the appropriate strategies.</i></p>     <p><b>Key words</b></p>     <p>Higher education, learning assessment, teaching skills, educational strategies, Universidad Cat&oacute;lica de Valpara&iacute;so-Chile (Source: Unesco Thesaurus).</p> <hr> <b>Resumo</b>     <p><i>A avalia&ccedil;&atilde;o da aprendizagem no n&iacute;vel universit&aacute;rio mostra caracter&iacute;sticas gerais associadas a um conceito de avalia&ccedil;&atilde;o tradicional, individualista, com &ecirc;nfase em memoriza&ccedil;&atilde;o de conte&uacute;dos, cuja principal fun&ccedil;&atilde;o &eacute; de qualifica&ccedil;&atilde;o. Na Universidade Cat&oacute;lica de Valpara&iacute;so, no Chile, o quadro apontado levou a realizar um diagn&oacute;stico sobre como avaliavam os professores a aprendizagem dos alunos em diferentes carreiras, aplicando question&aacute;rios para alunos e professores, assim como desenvolvendo oficinas pedag&oacute;gicas.</i></p>     <p><i>Entre as principais conclus&otilde;es, os professores identificaram claramente as caracter&iacute;sticas t&eacute;cnicas dos processos de avalia&ccedil;&atilde;o que os faziam v&aacute;lidos e confi&aacute;veis. Sobre os crit&eacute;rios de avalia&ccedil;&atilde;o, uma das principais dificuldades que enfrentaram foi explicitar a qualidade esperada nos trabalhos de seus alunos. Finalmente, devemos salientar seu elevado n&iacute;vel de concord&acirc;ncia em dois processos muito importantes para eles, mesmo que n&atilde;o os implementavam devido &agrave; falta de estrat&eacute;gias adequadas: feedback, auto e co-avalia&ccedil;&atilde;o.</i></p>     ]]></body>
<body><![CDATA[<p><b>Palavras-chave</b></p>     <p>Ensino superior, avalia&ccedil;&atilde;o da aprendizagem, compet&ecirc;ncia dos professores, estrat&eacute;gias de ensino, Universidade Cat&oacute;lica de Valpara&iacute;so-Chile (fonte: Tesouro da Unesco).</p> <hr>     <p><b><font size="3">Introducci&oacute;n</font></b></p>     <p>La Pontificia Universidad Cat&oacute;lica de Valparaiso (Chile) es una instituci&oacute;n privada de educaci&oacute;n superior, que cuenta con subsidio del Estado. En la actualidad tiene una matricula de aproximadamente 12.500 estudiantes, que cursan 63 carreras profesionales, y de cerca de 500 estudiantes que cursan otro tipo de programas, tales como mag&iacute;ster o doctorado. Sus acad&eacute;micos deben realizar docencia, investigaci&oacute;n, extensi&oacute;n y administraci&oacute;n, aunque la docencia es la funci&oacute;n que m&aacute;s se les demanda.</p>     <p>No obstante su importancia, la docencia en nuestra universidad ha sido tradicionalmente subvalorada en relaci&oacute;n con la investigaci&oacute;n o extensi&oacute;n acad&eacute;mica, situaci&oacute;n que se repite en diversas instituciones de educaci&oacute;n superior en otros pa&iacute;ses (Canales, 2003). Esta subvaloraci&oacute;n se traduce, por ejemplo, en el hecho de que los docentes son profesionales a los cuales no se les exige formaci&oacute;n pedag&oacute;gica previa alguna, como tampoco se les exige como parte de su carrera acad&eacute;mica, que se habiliten en materias de docencia universitaria.</p>     <p>Sin embargo, el a&ntilde;o 2005 por primera vez la universidad cuenta con un Plan de Desarrollo Estrat&eacute;gico, cuyo primer lineamiento es &quot;Formaci&oacute;n universitaria de calidad, con sello val&oacute;rico distintivo, innovadora y pertinente&quot; y compromete institucionalmente a la universidad en una nueva mirada hacia la formaci&oacute;n profesional y, por lo tanto, hacia la docencia (Pontificia Universidad Cat&oacute;lica de Valparaiso, 2005).</p>     <p>De esta manera, se concibe ahora la docencia como una actividad profesional que implica no solo un alto grado de conocimiento de la disciplina que se ense&ntilde;a, sino tambi&eacute;n de fundamentos y estrategias pedag&oacute;gicas, de forma que dicho saber disciplinar sea transformado en conocimiento ense&ntilde;able. Por este motivo, cobra importancia que el docente conozca, desarrolle y perfeccione competencias del campo pedag&oacute;gico para generar las condiciones necesarias para el aprendizaje de los estudiantes, potenciando procesos que les permitan aprender a aprender (Pontificia Universidad Cat&oacute;lica de Valpara&iacute;so, 2008.)</p>     <p>A la Direcci&oacute;n de Desarrollo Curricular y Formativo, dependiente de la Vicerrectoria de Asuntos Docentes y Estudiantiles de la Universidad, le corresponde en parte velar por la calidad de los procesos formativos que se desarrollan en las carreras profesionales que imparte la universidad. En este esp&iacute;ritu apoya la gesti&oacute;n de las carreras profesionales con una serie de acciones, entre las cuales se cuenta el perfeccionamiento pedag&oacute;gico de sus docentes.</p>     <p>Como una forma de proveer una base para futuros perfeccionamientos en docencia universitari a, dicha direcci&oacute;n inici&oacute;, a fines del a&ntilde;o 2008, un diagn&oacute;stico acerca de las pr&aacute;cticas en evaluaci&oacute;n del aprendizaje por parte de los profesores.</p>     <p>De acuerdo con Stake (2006), cualquier proceso que pretenda develar las fortalezas y debilidades debe considerar la participaci&oacute;n activa de los involucrados, en este caso los docentes, y la comprensi&oacute;n de su quehacer. Estos postulados constituyeron los fundamentos para realizar el diagn&oacute;stico sobre las pr&aacute;cticas evaluativas en la universidad, que se presenta a continuaci&oacute;n.</p>     ]]></body>
<body><![CDATA[<p><b>Evaluaci&oacute;n del aprendizaje universitario</b></p>     <p><b><i><font size="3">Concepto de evaluaci&oacute;n</font></i></b></p>     <p>La evaluaci&oacute;n del aprendizaje a nivel universitario constituye un aspecto central de la formaci&oacute;n profesional, dado que mediante este proceso los docentes deben dar cuenta del desarrollo de determinadas competencias en sus estudiantes. Esto implica para las instituciones de educaci&oacute;n superior una gran responsabilidad para con la sociedad.</p>     <p>Se puede se&ntilde;alar tambi&eacute;n que constituye un motivo de preocupaci&oacute;n para distintos actores, como son los estudiantes, los mismos profesores y autoridades, dados los efectos de las decisiones que se toman a trav&eacute;s de ella; por ejemplo, la promoci&oacute;n, reprobaci&oacute;n e incluso p&eacute;rdida de una carrera o graduaci&oacute;n para un estudiante.</p>     <p>Como se&ntilde;ala Broadfoot (2002), la evaluaci&oacute;n es el producto de la interacci&oacute;n de las personas, tiempo y espacio, enlazados en una compleja red de comprensiones, motivaciones, ansiedades, expectativas, tradiciones y elecciones. Esta red conforma un marco referencial desde el cual los docentes universitarios orientan sus pr&aacute;cticas de evaluaci&oacute;n.</p>     <p>Algunos de los elementos que influyen en este marco referencial son sus valores, sus experiencias como estudiantes, sus percepciones respecto de la disciplina que ense&ntilde;an, el contexto de la instituci&oacute;n en la que trabajan, sus ideas acerca de la ense&ntilde;anza, aprendizaje y evaluaci&oacute;n, entre otros. En la mayor&iacute;a de los casos, un elemento que falta es la formaci&oacute;n pedag&oacute;gica.</p>     <p>Los elementos presentes en la constituci&oacute;n del marco referencial que orienta las pr&aacute;cticas de evaluaci&oacute;n podr&iacute;an explicar algunas de las caracter&iacute;sticas que tiene la evaluaci&oacute;n universitaria. Barbera (2003) establece que la evaluaci&oacute;n universitaria puede caracterizarse brevemente como un conjunto de tareas puntuales sin conexi&oacute;n entre ellas, que se presenta a los estudiantes en instancias separadas de la ense&ntilde;anza, constituyendo m&aacute;s bien un resumen de lo ense&ntilde;ado; se tratar&iacute;a de situaciones descon-textualizadas y estandarizadas que se aplican al finalizar un per&iacute;odo (Herrera-Torres y Lorenzo-Quiles, 2009), que relevan el aprendizaje de contenidos y no de habilidades (G&oacute;mez Roldan, 2005), y cuya finalidad es la calificaci&oacute;n.</p>     <p>El informe de la OCDE sobre el sistema de educaci&oacute;n superior en Chile, en su apartado denominado &quot;Calidad de la docencia, cursos y aprendizaje&quot;, tambi&eacute;n da cuenta de procesos de ense&ntilde;anza y evaluaci&oacute;n enmarcados en un enfoque t&eacute;cnico y tradicionalista, con similares caracter&iacute;sticas a las mencionadas en el p&aacute;rrafo anterior. Se reconoce que si bien se ha intentado mejorar la calidad de la formaci&oacute;n, tanto acad&eacute;micos como estudiantes comparten las siguientes percepciones sobre la docencia: los m&eacute;todos pedag&oacute;gicos usados son generalmente muy tradicionales, con &eacute;nfasis en la memorizaci&oacute;n de contenidos, se fomenta el aprendizaje individual m&aacute;s que colaborativo y se aplican pruebas tradicionales. A esto hay que sumar la limitada participaci&oacute;n que se otorga a los estudiantes en aspectos que despu&eacute;s los afectar&aacute;n directamente en su formaci&oacute;n (OCDE, 2009). Esta &uacute;ltima situaci&oacute;n tambi&eacute;n se encuentra presente en instituciones de educaci&oacute;n superior de otros pa&iacute;ses, tales como M&eacute;xico (Covarrubias y Tovar, 2005).</p>     <p>Tras estas caracter&iacute;sticas se encuentra un concepto de evaluaci&oacute;n asociado fuertemente a la calificaci&oacute;n y posterior certificaci&oacute;n, que desatiende los procesos de ense&ntilde;anza y aprendizaje e ignora el potencial que la evaluaci&oacute;n tiene para transformar ambos.</p>     <p>La evaluaci&oacute;n en una conceptualizaci&oacute;n actualizada se comprende como un juicio de valor acerca del trabajo acad&eacute;mico del estudiante, el que debe expresar una comparaci&oacute;n entre su desempe&ntilde;o y uno o m&aacute;s criterios de excelencia, de manera que pueda orientar tanto el trabajo del estudiante como el del docente, evitando as&iacute; que se convierta en una instancia aislada solo realizada para otorgar calificaciones (Himmel, 2001). En esta conceptualizaci&oacute;n los criterios de evaluaci&oacute;n son un aspecto esencial, pues constituyen las orientaciones o gu&iacute;as desde la cual los profesores juzgar&aacute;n la calidad de las tareas, procesos o productos de sus estudiantes.</p>     ]]></body>
<body><![CDATA[<p><b><i><font size="3">Criterios de evaluaci&oacute;n</font></i></b></p>     <p>La palabra criterio proviene del griego <i>kr&iacute;-ter&iacute;on, </i>que significa &quot;medio para juzgar&quot; (Sadler, 2005). Seg&uacute;n este autor, un criterio es, en t&eacute;rminos generales, una propiedad o caracter&iacute;stica distinguible de alguna cosa, mediante la cual su calidad puede ser juzgada o estimada, o por la cual una decisi&oacute;n o clasificaci&oacute;n puede ser hecha. Entonces un criterio de evaluaci&oacute;n constituye la orientaci&oacute;n o gu&iacute;a desde la cual los profesores juzgar&aacute;n la calidad de las tareas, procesos o productos de sus estudiantes.</p>     <p>En otras palabras, los criterios describen &quot;qu&eacute; mirar&quot; en los trabajos de los estudiantes (Arter y Mcthige, 2001; Himmel, et al., 1999; Geoff, 1999). De esta manera, permiten orientar las explicaciones y decisiones, pues el juicio que se emita sobre el desempe&ntilde;o de los estudiantes se desprender&aacute; de la comparaci&oacute;n entre este y los aspectos definidos previamente como criterios.</p>     <p>Los criterios de evaluaci&oacute;n pueden ser de distinta naturaleza, obedecer a distintas l&oacute;gicas y, por lo tanto, generarse de variadas maneras. La forma m&aacute;s adecuada de establecerlos es con base en los aprendizajes que se espera que los estudiantes desarrollen a partir del proceso de ense&ntilde;anza, los que deben ser comunicados con antelaci&oacute;n al desarrollo del proceso de evaluaci&oacute;n. En esta modalidad se pueden establecer criterios de acuerdo con cada tarea o situaci&oacute;n de evaluaci&oacute;n particular o, en el otro extremo, generar criterios amplios y generales.</p>     <p>En el primer caso, que suele ser el m&aacute;s utilizado, los criterios de evaluaci&oacute;n permanecen &quot;anclados&quot; a una tarea o situaci&oacute;n de evaluaci&oacute;n en particular, quedando pr&aacute;cticamente reducidos a indicadores de evaluaci&oacute;n m&aacute;s que a criterios, y corriendo el riesgo de que se establezcan una serie de criterios que escapen al objetivo de aprendizaje.</p>     <p>En el segundo caso, los criterios de evaluaci&oacute;n constituyen un ejercicio de abstracci&oacute;n y representaci&oacute;n clara de las grandes tareas en la disciplina y sus componentes (Veslin &amp; Veslin, 1992). Esta forma permite dise&ntilde;ar tareas y situaciones de evaluaci&oacute;n diversas atendiendo a los mismos criterios; por ejemplo, explicar fen&oacute;menos en forma cient&iacute;fica o escribir un ensayo persuasivo, bien fundamentado y claro, son criterios m&aacute;s generales que cualquier particular explicaci&oacute;n o investigaci&oacute;n. De esta manera, los criterios act&uacute;an como un puente entre el gran objetivo de aprendizaje y las idiosincrasias de una tarea en particular (Wiggins, 1998), siendo claro para los estudiantes que lo que se enfatiza son las habilidades m&aacute;s que los contenidos espec&iacute;ficamente. As&iacute;, dos caracter&iacute;sticas importantes de los criterios de evaluaci&oacute;n ser&iacute;an la capacidad de cubrir lo esencial de los aprendizajes que se desean evaluar y su grado de generalizaci&oacute;n.</p>     <p>Los actuales planteamientos sobre evaluaci&oacute;n universitaria se&ntilde;alan que los estudiantes pueden participar activamente en los procesos de evaluaci&oacute;n en la medida en que comprendan los criterios y para ello los docentes deben usar estrategias de comunicaci&oacute;n, tales como respuestas modelo e indicaciones claras sobre c&oacute;mo tener &eacute;xito en sus tareas (Angelo &amp; Cross, 1993; Ramsden, 2007; Collazos, Mendoza &amp; Ochoa, 2007).</p>     <p>A este respecto, es importante mencionar que tanto a nivel nacional como internacional es poca la literatura referida a aspectos te&oacute;ricos y metodol&oacute;gicos de la comunicaci&oacute;n de criterios de evaluaci&oacute;n a estudiantes de nivel superior. Un autor que ha trabajado este aspecto es Royce Sadler (1998, 2005, 2009), quien propone dos maneras pr&aacute;cticas de comunicar criterios. Por una parte, se&ntilde;ala que los estudiantes deben tener acceso a ejemplos concretos de trabajos de buena y de mala calidad, para que de esta manera identifiquen qu&eacute; elementos los hacen de buena o mala calidad. Por otra, establece que deben ser sometidos a procesos en que puedan juzgar sus propios trabajos y los de sus compa&ntilde;eros. En ambas estrategias se encuentra presente la idea de la experiencia guiada con los criterios de evaluaci&oacute;n, es decir, el involucramiento prolongado en la actividad evaluativa compartida con y bajo el tutelaje de una persona que es un conocedor o experto, en este caso, el profesor. De esta manera los estudiantes son gradualmente expuestos al conjunto completo de criterios y a las reglas para usarlos, y pueden as&iacute; construir un cuerpo de conocimiento evaluativo y acceder a grados progresivos de autonom&iacute;a, lo que es vital para futuros aprendizajes.</p>     <p>La capacidad de los profesores de comunicar los criterios y espec&iacute;ficamente los grados de calidad y la siguiente comprensi&oacute;n por parte de los estudiantes constituyen aspectos centrales de las buenas pr&aacute;cticas de evaluaci&oacute;n (Shepard, 2000). Este punto es dif&iacute;cil para los profesores, pues en general lo que suele orientar la selecci&oacute;n, dise&ntilde;o y construcci&oacute;n de sus procedimientos de evaluaci&oacute;n son los contenidos, actividades o sencillamente aquello que les ha dado resultado antes y, por lo tanto, aunque es imposible evaluar sin recurrir a criterios de evaluaci&oacute;n, estos, la mayor&iacute;a de las veces, permanecen en el conocimiento t&aacute;cito de los profesores y no acostumbran a expresarse en t&eacute;rminos de criterios de evaluaci&oacute;n con sus estudiantes.</p>     <p><b><i><font size="3">Calidad t&eacute;cnica de los procedimientos de evaluaci&oacute;n</font></i></b></p>     ]]></body>
<body><![CDATA[<p>Un procedimiento de evaluaci&oacute;n se refiere a cualquier medio por el cual se recoge la evidencia sobre el aprendizaje de los estudiantes, la cual, una vez contrastada con los criterios y analizada, permitir&aacute; emitir un juicio con fundamento y tomar las mejores decisiones acerca del aprendizaje y la ense&ntilde;anza (Himmel, et al., 1999).</p>     <p>La tarea de dise&ntilde;ar y aplicar un procedimiento de evaluaci&oacute;n y analizar la evidencia de aprendizaje que recoge es muy delicada, si se tienen en cuenta los profundos y duraderos efectos de las decisiones que se toman sobre los estudiantes a partir de este proceso. Para que efectivamente un procedimiento de evaluaci&oacute;n sirva de base s&oacute;lida tanto para mejorar los procesos de ense&ntilde;anza y aprendizaje, como para certificar adecuadamente el aprendizaje, debe cumplir con las caracter&iacute;sticas de dar cuenta en forma v&aacute;lida y fidedigna de los conocimientos y habilidades que est&aacute;n presentes en los aprendizajes que los profesores desean desarrollar en forma progresiva en sus estudiantes. En otras palabras, el procedimiento de evaluaci&oacute;n debe &quot;alinearse&quot; con los aprendizajes consignados en los programas, expresados ya sea como objetivos o competencias.</p>     <p>Los conceptos asociados a estas caracter&iacute;sticas son conocidos en el &aacute;mbito de la medici&oacute;n con los nombres de validez y confiabilidad. Para expresarlo en t&eacute;rminos sencillos, a nivel de aula, la validez debe comprenderse como la capacidad de un procedimiento de evaluaci&oacute;n de dar cuenta de los conocimientos, habilidades, destrezas y actitudes que realmente se quieren evaluar, y la confiabilidad como la caracter&iacute;stica que indica en qu&eacute; medida se puede tener confianza en la precisi&oacute;n de las informaciones que recoge y que se utilizar&aacute;n para emitir un juicio o tomar una decisi&oacute;n (Himmel, et al., 1999).</p>     <p>A este respecto es importante se&ntilde;alar que el tipo de validez que se reconoce como m&aacute;s importante es el denominado &quot;de constructo&quot;, que alude a la coherencia entre el constructo hipot&eacute;tico que se va a medir y las tareas de evaluaci&oacute;n que se presentan a los estudiantes. Otro tipo de validez es el &quot;instruccional&quot;, que se relaciona con la coherencia entre lo ense&ntilde;ado y lo evaluado.</p>     <p>En esta &uacute;ltima d&eacute;cada ha cobrado fuerza un nuevo tipo de validez que se ha denominado &quot;validez de consecuencias&quot;, que hace relaci&oacute;n con la intencionalidad del proceso evaluativo. Esto quiere decir que si deseamos usar la evaluaci&oacute;n con un sentido formativo, debemos dise&ntilde;ar y aplicar procedimientos de evaluaci&oacute;n, y trabajar con la evidencia proveniente de ellos, de manera coherente con dicho prop&oacute;sito (Stobart, 2006).</p>     <p>Para que las caracter&iacute;sticas mencionadas se encuentren presentes, entonces es necesario cuidar una serie de aspectos, tales como la cantidad de situaciones de evaluaci&oacute;n que se pueden presentar al estudiante para que, en efecto, evidencie su aprendizaje. Obviamente una muestra m ayor de tareas o situaci ones arrojar&aacute; una informaci&oacute;n m&aacute;s confiable que si se le presenta solo una o dos. Si se ampl&iacute;a esta idea se puede pensar en la confiabilidad de un proceso de evaluaci&oacute;n completo y no solo de un procedimiento aislado, ya que una gama amplia de fuentes de informaci&oacute;n de evaluaci&oacute;n puede servir mejor para tomar buenas decisiones que lo arrojado por una sola prueba, por ejemplo.</p>     <p>La claridad de las instrucciones e indicaciones dadas a los estudiantes tambi&eacute;n es un factor importante, pues ante indicaciones poco claras es muy probable que no expliciten el conocimiento que el profesor desea, no porque no sepan, sino porque no entienden la tarea; por tanto, &iquest;qu&eacute; grado de confianza se puede tener en una informaci&oacute;n obtenida de esta manera? Adem&aacute;s, por la misma raz&oacute;n, los estudiantes pueden establecer una relaci&oacute;n con el conocimiento que difiere de la que demanda el profesor.</p>     <p>Por &uacute;ltimo, para cumplir con estas condiciones es absolutamente necesario que el profesor tenga pleno dominio de su disciplina, ya que es la &uacute;nica forma de determinar cu&aacute;les conceptos y procesos son m&aacute;s o menos importantes para que reflejen adecuadamente la extensi&oacute;n y profundidad de la disciplina en su ense&ntilde;anza y evaluaci&oacute;n (Taylor &amp; Bobbit, 1996).</p>     <p><b><i><font size="3">Impacto de la evaluaci&oacute;n en el aprendizaje de los estudiantes universitarios</font></i></b></p>     <p>El qu&eacute; y c&oacute;mo los docentes eval&uacute;an comunica a los estudiantes universitarios qu&eacute; h abilidades, actitudes y contenidos disciplinarios y profesionales es necesario relevar y cu&aacute;les no. A este respecto, Biggs (2007) se&ntilde;ala que lo que aprendan y como aprendan los estudiantes depender&aacute; en gran parte de c&oacute;mo ellos piensen que ser&aacute;n evaluados. Elton y Johnston (2002) incluso se&ntilde;alan que si se desea cambiar el aprendizaje de los estudiantes universitarios, hay que cambiar la forma de evaluarlos.</p>     ]]></body>
<body><![CDATA[<p>Puesto que la evidencia proveniente de investigaciones internacionales sugiere que los estudiantes piensan que la evaluaci&oacute;n siempre define el camino por seguir en su formaci&oacute;n profesional y no el perfil de egreso o curriculum declarado (Biggs, 2007; Brown &amp; Glasner, 2007; Ramsden, 2007; Entwistle, 2000), un sistema universitario cuyos procesos de evaluaci&oacute;n no reflejan los aprendizajes o competencias que deben desarrollar sus estudiantes, est&aacute; promoviendo una formaci&oacute;n profesional poco adecuada.</p>     <p>La forma en que la evaluaci&oacute;n influye en los enfoques de aprendizaje, entendidos como intenciones que orientan y condicionan la actuaci&oacute;n del estudiante durante el proceso de aprendizaje (Ramsden, 2007), ha sido estudiada internacionalmente. En t&eacute;rminos generales, las investigaciones concluyen que m&eacute;todos de evaluaci&oacute;n tradicionales, memor&iacute;sticos y descontextualizados inducen un enfoque superficial del aprendizaje; en cambio, m&eacute;todos de evaluaci&oacute;n alternativos y con mayores exigencias cognitivas inducen un enfoque profundo del aprendizaje (Gulikers, et al., 2006; Barrow, 2006; Struyven, et al., 2005; Thompson &amp; Falchikov, 1998).</p>     <p>Por ejemplo, pruebas de opci&oacute;n m&uacute;ltiple con &eacute;nfasis en respuestas de memorizaci&oacute;n impulsan a los estudiantes hacia un enfoque superficial, pues las perciben como de baja exgencia cognitiva, mientras que un ensayo de final abierto tiende a fomentar un enfoque profundo, pues perciben que les exige procesos cognitivos de m&aacute;s alto nivel (Scouller, 1998). Y aunque una vez que se ha promovido un enfoque superficial es dif&iacute;cil inducir un enfoque profundo, el cambio de las pruebas de opci&oacute;n m&uacute;ltiple por las de tipo ensayo ha cambiado la tendencia general de los estudiantes desde un enfoque a otro (Struyven, Dochy &amp; Janssens, 2005).</p>     <p>Teniendo estos elementos presentes, conceptualizaci&oacute;n de la evaluaci&oacute;n, calidad de los procesos de evaluaci&oacute;n e impacto en los estudiantes, se procedi&oacute; a realizar un an &aacute;-lisis del actual estado de la evaluaci&oacute;n del aprendizaje en la formaci&oacute;n de pregrado en la Pontificia Universidad Cat&oacute;lica de Valpara&iacute;so.</p>     <p><b><font size="3">Metodolog&iacute;a</font></b></p>     <p>El trabajo de diagn&oacute;stico se dise&ntilde;&oacute; pensando en otorgar la mayor participaci&oacute;n posible a los docentes de la universidad, por lo cual en noviembre del 2008 se envi&oacute; una convocatoria abierta a quienes quisieran asistir. Se ten&iacute;a tambi&eacute;n la intenci&oacute;n de que esta participaci&oacute;n produjera aprendizajes en el &aacute;rea de la evaluaci&oacute;n, de manera que los docentes pudieran implementar algunas innovaciones en el corto plazo, por ejemplo, introduciendo cambios en el siguiente semestre. De esta manera se planificaron tres talleres, cada uno con dos horarios de libre elecci&oacute;n.</p>     <p>Los prop&oacute;sitos generales de este diagn&oacute;stico, en funci&oacute;n de los docentes, fueron detectar fortalezas y debilidades en el &aacute;rea de la evaluaci&oacute;n del aprendizaje y establecer las bases para un futuro perfeccionamiento en dicha &aacute;rea.</p>     <p>Se cre&oacute; para estos talleres un cuestionario sobre necesidades en evaluaci&oacute;n del aprendizaje, en el que los docentes deb&iacute;an pronunciarse individualmente ante un listado respecto de, por una parte, aquellas actividades que consideraban m&aacute;s o menos importantes en sus pr&aacute;cticas evaluativas y, por otro, la frecuencia con la que desarrollaban dichas actividades. Para ello contaban con un a escala graduada del 1 al 4, en la que el 1 representaba la menor importancia o frecuencia en la pr&aacute;ctica, y el 4, la mayor importancia o frecuencia. La discrepancia entre importancia asignada y frecuencia en las pr&aacute;cticas, es decir, su cercan&iacute;a o lejan&iacute;a, arrojar&iacute;a los focos de inter&eacute;s para un futuro perfeccionamiento en el &aacute;rea.</p>     <p>Por otra parte, se contaba con los resultados del Cuestionario de Opini&oacute;n Estudiantil del a&ntilde;o 2008, instrumento que es parte del Sistema de Evaluaci&oacute;n del Desempe&ntilde;o Docente de la universidad. Dicho cuestionario est&aacute; estructurado en cinco dimensiones: compromiso (del estudiante) con la asignatura; ense&ntilde;anza para el aprendizaje; evaluaci&oacute;n para el aprendizaje; ambiente para el aprendizaje y responsabilidad formal. Las respuestas de los estudiantes van de 1 a 4, de las cuales, la opci&oacute;n 1 representa la percepci&oacute;n m&aacute;s deficiente, y la 4, la mejor.</p>     <p><b><i>El primer taller </i></b>tuvo como objetivos &quot;analizar colectivamente instrumentos de evaluaci&oacute;n de los profesores participantes desde la perspectiva de su calidad t&eacute;cnica&quot; y &quot;comprender las caracter&iacute;sticas t&eacute;cnicas m&aacute;s importantes de los procedimientos de evaluaci&oacute;n&quot;. Para esto se solicit&oacute; previamente a los docentes que trajeran una copia de alg&uacute;n procedimiento de evaluaci&oacute;n escrito, como por ejemplo una prueba, que hubieran aplicado durante el a&ntilde;o, junto al programa del curso correspondiente.</p>     ]]></body>
<body><![CDATA[<p>La segunda parte de este primer taller tuvo como objetivos &quot;discutir las necesidades de perfeccionamiento de los/las profesores/as en cuanto a evaluaci&oacute;n del aprendizaje a nivel universitario&quot; y &quot;contrastar estas necesidades con lo arrojado por la aplicaci&oacute;n del Cuestionario de Opini&oacute;n Estudiantil en la Dimensi&oacute;n <i>Evaluaci&oacute;n para el aprendizaje&quot;.</i></p>     <p><b><i>El segundo taller </i></b>tuvo como objetivos &quot;comprender la importancia de los criterios de evaluaci&oacute;n&quot; y &quot;comprender la relaci&oacute;n entre objetivos de aprendizaje y situaciones de evaluaci&oacute;n&quot;. Para ello se les pidi&oacute; realizar un trabajo manual siguiendo un n&uacute;mero de instrucciones muy espec&iacute;ficas. El objetivo de la segunda etapa fue &quot;generar criterios de evaluaci&oacute;n coherentes con los objetivos de aprendizaje de la asignatura&quot;.</p>     <p><b><i>Para el tercer taller </i></b>se retom&oacute; el objetivo &quot;generar criterios de evaluaci&oacute;n en coherencia con los objetivos de aprendizaje consignados en el programa&quot; y se agreg&oacute; el objetivo &quot;dise&ntilde;ar una situaci&oacute;n de evaluaci&oacute;n, con su respectivo procedimiento de evaluaci&oacute;n, en coherencia con los criterios generados anteriormente&quot;.</p>     <p>En cada taller se comentaron los resultados de la aplicaci&oacute;n del Cuestionario de Opini&oacute;n Estudiantil durante el 2008 en aspectos referidos a la evaluaci&oacute;n del aprendizaje, como una forma de ir contrastando la opini&oacute;n de los estudiantes y las pr&aacute;cticas de sus docentes en esta &aacute;rea.</p>     <p>Aunque muchas de las actividades propuestas fueron individuales, se solicit&oacute; a los participantes que discutieran grupalmente una gu&iacute;a de trabajo con una serie de preguntas sobre las dificultades o facilidades que iban encontrando para desarrollar lo solicitado, se les pidi&oacute; que lo escribieran y finalmente se solicit&oacute; su exposici&oacute;n al resto de los grupos. Con la autorizaci&oacute;n de los participantes, se grabaron sus intervenciones y posteriormente fueron transcritas.</p>     <p>Participaron en este diagn&oacute;stico 35 profesores, de las &aacute;reas de Agronom&iacute;a, Comercio, Filosof&iacute;a, Historia, Matem&aacute;ticas, Pedagog&iacute;a, Periodismo, Psicolog&iacute;a, Qu&iacute;mica, Religi&oacute;n, Ingenier&iacute;a en Alimentos, Ingenier&iacute;a Bioqu&iacute;mica, Ingenier&iacute;a Industrial, Ingenier&iacute;a Inform&aacute;tica, Ingenier&iacute;a El&eacute;ctrica e Ingenier&iacute;a en Transporte.</p>     <p><b><font size="3">An&aacute;lisis</font></b></p>     <p>El an&aacute;lisis individual y conjunto, proveniente del Cuestionario sobre Necesidades en Evaluaci&oacute;n del Aprendizaje, Cuestionario de Opini&oacute;n Estudiantil y trabajo con docentes en los talleres, se desarroll&oacute; siguiendo un enfoque cualitativo, dadas las caracter&iacute;sticas de la informaci&oacute;n disponible. Se organiz&oacute; dicha informaci&oacute;n tanto por contenidos como en funci&oacute;n de los objetivos iniciales del diagn&oacute;stico; luego se trat&oacute; de identificar frecuencias, omisiones y declaraciones que se constituyeran en categor&iacute;as relevantes (LeCompte, 2000). Aqu&iacute; hay que mencionar que las categor&iacute;as surgieron principalmente de las tem&aacute;ticas propuestas para los talleres, pero tambi&eacute;n de algunas recurrencias emergentes en el trabajo con los docentes participantes.</p>     <p>A continuaci&oacute;n se presenta el an&aacute;lisis conjunto proveniente de las tres fuentes mencionadas: Cuestionario sobre Necesidades en Evaluaci&oacute;n del Aprendizaje, Cuestionario de Opini&oacute;n Estudiantil y trabajo con docentes en los talleres. Se analizan dos grandes categor&iacute;as: calidad t&eacute;cnica de los procedimientos de evaluaci&oacute;n y criterios de evaluaci&oacute;n, las que a su vez se dividen en cuatro y tres subcategor&iacute;as respectivamente.</p>     <p><b><i><font size="3">Calidad t&eacute;cnica de los procedimientos de evaluaci&oacute;n</font></i></b></p>     ]]></body>
<body><![CDATA[<p><b>Coherencia entre aprendizajes por evaluar y aprendizajes por desarrollar presentes en el programa de la asignatura</b></p>     <p>Un programa de asignatura consiste en una descripci&oacute;n de la estructura del curso considerando tiempos, actividades del docente y de los estudiantes, situaciones de evaluaci&oacute;n, bibliograf&iacute;a, entre otros. En particular, los aprendizajes all&iacute; expresados, ya sea como objetivos o competencias, indican lo que se espera que los estudiantes aprendan como resultado de la ense&ntilde;anza y, por lo tanto, bien formulados orientan tanto al docente como al estudiante, pues hacen clara la meta a la que se quiere llegar.</p>     <p>En el primer taller se realiz&oacute; una actividad sencilla, en la que los docentes participantes debieron analizar los aprendizajes consignados en sus programas de asignaturas a partir de una serie de preguntas. Las conclusiones a esta actividad se pueden sintetizar como sigue: en algunos casos los programas simplemente no contemplaban los aprendizajes que se deb&iacute;an desarrollar en los estudiantes. En otros, su redacci&oacute;n hac&iacute;a dif&iacute;cil que pudieran orientar la ense&ntilde;anza, aprendizaje y evaluaci&oacute;n, ya sea porque se&ntilde; al aban lo que el docente realizar&iacute;a (por ejemplo, &quot;Introducir al estudiante al m&eacute;todo cient&iacute;fico y el dise&ntilde;o experimental&quot;), porque los verbos utilizados eran ambiguos o demasiado amplios (por ejemplo, &quot;Valorar la vida de Jes&uacute;s&quot;), o porque eran m&aacute;s bien actividades que deb&iacute;an realizar los estudiantes y no aprendizajes (por ejemplo, &quot;Escribir un informe&quot;).</p>     <p>Una vez establecida la necesidad de cambiar la redacci&oacute;n de los aprendizajes en sus programas de asignatura, los docentes iniciaron el trabajo de an&aacute;lisis de sus pruebas escritas. En la primera parte, el prop&oacute;sito era identificar los aprendizajes que se estaban evaluando con dichos instrumentos y establecer su coherencia con lo establecido en los programas, situaci&oacute;n que podr&iacute;a dar cuenta en parte de la validez de dichos instrumentos.</p>     <p>Para la prueba correspondiente al &aacute;rea de ciencias no se presentaron mayores dificultades, pues los docentes consideraron que los aprendizajes estaban presentes de manera clara y sin ambig&uuml;edades, como por ejemplo, &quot;Relacionar conceptos&quot;, &quot;Plantear hip&oacute;tesis&quot; y &quot;Plantear objetivos generales y espec&iacute;ficos para el estudio de la hip&oacute;tesis propuesta&quot;.</p>     <p>En el &aacute;rea de Ingenier&iacute;a, los docentes identificaron aprendizajes m&aacute;s bien procedimentales, sin entrar al contenido espec&iacute;fico de la prueba presentada, como, por ejemplo, &quot;Interpretaci&oacute;n de informaci&oacute;n&quot;, &quot;Traducci&oacute;n al lenguaje matem&aacute;tico&quot; y &quot;Capacidad de resolver ecuaciones&quot;.</p>     <p>Quiz&aacute;s la prueba que m&aacute;s dificultades present&oacute; para identificar los aprendizajes fue la del &aacute;mbito de Religi&oacute;n, por que la m ayor&iacute;a de los docentes no eran del &aacute;rea, por la gran cantidad de aprendizajes que aparentemente se quer&iacute;a evaluar y por la naturaleza de los aprendizajes en dicha &aacute;rea. Ejemplos de aprendizajes identificados en el nivel cognitivo fueron: &quot;Conocer el actuar de Jes&uacute;s en una situaci&oacute;n de angustia&quot;; &quot;Conocer los hechos y dichos fundamentales de la vida de Jes&uacute;s&quot;; &quot;Vincular las ciencias religiosas con otras ciencias y hechos de la vida diaria&quot; y &quot;Uso o manejo de la Biblia&quot;. Otros aprendizajes identificados m&aacute;s bien a nivel actitudinal fueron: &quot;Ver la dimensi&oacute;n humana y divina de Jes&uacute;s&quot;; &quot;Valorar la vida de Jes&uacute;s como hombre y Dios verdadero&quot; y &quot;Establecer contacto personal con Jes&uacute;s&quot;.</p>     <p>Adem&aacute;s de los aprendizajes mencionados, los docentes identificaron algunos m&aacute;s bien procedimentales, que debieran estar ya desarrollados en el estudiante, como requisito previo para presentarse a una prueba escrita de esta naturaleza. Un claro ejemplo de ello es &quot;Comprensi&oacute;n de lectura&quot;, identificado como aprendizaje para evaluar por dos grupos. Aqu&iacute; es importante destacar que se debe distinguir entre aquellos aprendizajes que se desea evaluar con cualquier procedimiento y aquellos que el estudiante debe necesariamente poner en juego para desempe&ntilde;arse en forma adecuada, como es comprender lo que lee.</p>     <p>Los profesores identificaron en todas las pruebas aprendizajes tanto memor&iacute;sticos como de orden superior, pero con una clara mayor&iacute;a de estos &uacute;ltimos. Los verbos utilizados para iniciar la descripci&oacute;n de estos aprendizajes fueron: clasificar, sintetizar, interpretar, relacionar, describir, comparar, concluir, analizar, reproducir.</p>     <p>La variedad de aprendizajes identificados por los docentes en una misma prueba mueve a una reflexi&oacute;n: &iquest;est&aacute;n refiri&eacute;ndose todos a lo mismo, por ejemplo, con el aprendizaje &quot;analizar&quot;? Con las actividades posteriores qued&oacute; establecido que hab&iacute;a una variedad de interpretaciones al mencionar aprendizajes para desarrollar o evaluar, con lo que se hac&iacute;a necesario en el futuro seleccionar o construir una clasificaci&oacute;n de aprendizajes.</p>     ]]></body>
<body><![CDATA[<p>Los docentes participantes indicaron que idealmente debiera evaluarse la capacidad de aplicar lo aprendido a &quot;la pr&aacute;ctica&quot; o a &quot;situaciones pr&aacute;cticas&quot;. Para que la tarea sea de aplicaci&oacute;n debe estar dise&ntilde;ada de tal manera que el estudiante use sus conocimientos en una situaci&oacute;n que es nueva para &eacute;l. Puesto que no hubo profundizaci&oacute;n respecto del t&eacute;rmino &quot;a la pr&aacute;ctica&quot;, suponemos que los profesores se refieren a situaciones cotidianas o relacionadas con el futuro &aacute;mbito laboral de los estudiantes. Este &uacute;ltimo aspecto se relaciona con la denominada &quot;Evaluaci&oacute;n aut&eacute;ntica&quot;, cuya principal caracter&iacute;stica es que examina el desempe&ntilde;o de los estudiantes en forma directa y por lo tanto posibilita realizar inferencias v&aacute;lidas acerca de c&oacute;mo se podr&iacute;an desenvolver los estudiantes en el mundo adulto o profesional (Wiggins, 1990).</p>     <p>Una vez identificados estos aprendizajes, los docentes participantes deb&iacute;an establecer su grado de coherencia con los aprendizajes consignados en los programas, pero tuvieron algunas dificultades debido a que, como se se&ntilde;al&oacute;, los aprendizajes en los programas eran demasiado amplios, otros muy ambiguos, y en otros casos sencillamente no estaban presentes.</p>     <p>Sin embargo, cuando los aprendizajes estaban bien definidos en los programas de asignaturas y en las pruebas, los participantes no tuvieron problemas en establecer su grado de correspondencia.</p>     <p>La coherencia entre los aprendizajes que se eval&uacute;an con los procedimientos de evaluaci&oacute;n y los aprendizajes consignados en los programas de asignaturas fue el aspecto m&aacute;s mencionado por los participantes como una caracter&iacute;stica indispensable en un procedimiento de evaluaci&oacute;n, aunque con matices. En algunos casos se mencion&oacute; que cualquier procedimiento de evaluaci&oacute;n deb&iacute;a ser construido basados en objetivos de aprendizaje. Otros docentes complementaron esta idea se&ntilde;alando que estos objetivos deb&iacute;an ser los desarrollados por los estudiantes en el contexto del curso dictado, lo cual es una consideraci&oacute;n importante, pues no todos los aprendizajes planteados al inicio del curso se logran desarrollar por diversas razones. Quiz&aacute;s ese es el sentido de las siguientes respuestas: &quot;Por lo menos parte de ella (la prueba) debe corresponder a objetivos/resultados o aprendizajes esperados&quot; y &quot;Debe haber correspondencia con los contenidos consensuados previamente con los alumnos&quot;.</p>     <p>Se&ntilde;alaron tambi&eacute;n que para que esto pueda realizarse de manera adecuada, es necesario que los objetivos de aprendizaje est&eacute;n claramente establecidos en los programas de asignatura y que sus implicancias sean comprendidas por los/as estudiantes.</p>     <p>Dado que las pruebas presentadas no declaraban los aprendizajes que se deb&iacute;an evaluar y dadas las caracter&iacute;sticas de los programas de asignaturas, no se pueden obtener muchas conclusiones respecto a este punto, pero s&iacute; se puede afirmar que los docentes participantes son conscientes de la importancia de este tipo de validez.</p>     <p>Sobre la validez instruccional, hay que destacar que la segunda pregunta del Cuestionario de Opini&oacute;n Estudiantil, que es: &quot;&iquest;Los procedimientos de evaluaci&oacute;n utilizados por el/la docente son coherentes con los contenidos tratados y las actividades desarrolladas durante el curso?&quot;, obtuvo el promedio m&aacute;s alto en la dimensi&oacute;n, que fue de 3,4, y comentarios tales como &quot;Es totalmente coherente en la manera de desarrollar los contenidos, evaluarlos y explicar c&oacute;mo fueron evaluados&quot;. Sin embargo, algunos docentes no cumplir&iacute;an con esta condici&oacute;n, en especial en lo referente al nivel de exigencia cognitiva de sus pruebas.</p>     <p><b>Respecto de aspectos formales de las pruebas</b></p>     <p>Como se se&ntilde;al&oacute;, la calidad de las indicaciones e instrucciones puede afectar la validez y confiabilidad de cualquier procedimiento de evaluaci&oacute;n. En el caso de las pruebas analizadas, se observ&oacute; claridad en la redacci&oacute;n de las preguntas, pero no as&iacute; en las instrucciones de tipo formal referidas al tiempo en que se deb&iacute;an desarrollar, formas de responder, materiales posibles de utilizar, entre otros.</p>     <p>Por ejemplo, en un caso se consider&oacute; que el espacio disponible para presentar la prueba era excesivamente reducido, pues se limitaba a media p&aacute;gina, que era ocupada por las preguntas y sin dejar campo para las respuestas de los estudiantes. Esta situaci&oacute;n, sumada a la ausencia de instrucciones, puede inducir a los estudiantes a diversas interpretaciones respecto de la estructura de sus respuestas. Por ejemplo, podr&iacute;an responder en la extensi&oacute;n que les parezca. Tal como se&ntilde;al&oacute; un profesor: &quot;Alguien puede responder en una l&iacute;nea y otro en media p&aacute;gina. &iquest;Cu&aacute;l es el nivel de extensi&oacute;n apropiado al objetivo del curso?&quot;.</p>     ]]></body>
<body><![CDATA[<p>Los docentes participantes se&ntilde;alaron que la formalidad de un procedimiento de evaluaci&oacute;n era una caracter&iacute;stica importante, ya que podr&iacute;a influir en la calidad de las respuestas de los estudiantes, y que esta formalidad debiera estar dada por una estructura que facilitara su comprensi&oacute;n y que adem&aacute;s los orientara. Para ello debiera incluir, en orden, un t&iacute;tulo, el nombre de la signatura, la identificaci&oacute;n de la unidad acad&eacute;mica, el nombre del estudiante; luego, las instrucciones respecto del tiempo disponible para contestar, materiales que se pueden usar y puntaje o ponderaci&oacute;n de las distintas tareas y un enunciado explicativo de lo que la prueba pretende medir.</p>     <p>Por otra parte, la buena redacci&oacute;n de las preguntas o tareas, letra clara, interlineado adecuado y espacios para respuestas, si corresponde; tambi&eacute;n fueron considerados aspectos importantes para tener en cuenta.</p>     <p>Se&ntilde; al aron, adem &aacute;s, que para que esto pueda cumplirse ser&iacute;a necesario tener un dise&ntilde;o previo del instrumento, tratar de responderlo y de esta manera mejorarlo antes de su aplicaci&oacute;n definitiva; por ejemplo, adecu&aacute;ndola al tiempo real de los estudiantes, opini&oacute;n con la que coincide Ramsden (2007), quien plantea que un docente no debiera aplicar una prueba cuyas preguntas no pudiera responder &eacute;l mismo. Los profesores especificaron que idealmente el instrumento debiera ser validado por un coleg a o un ayudante.</p>     <p>No obstante las observaciones que estos docentes realizaron a sus propias pruebas, ante la pregunta del Cuestionario de Opini&oacute;n Estudiantil: &quot;&iquest;Las instrucciones e indicaciones para desarrollar los procedimientos de evaluaci&oacute;n aplicados por el/la docente son claras y precisas?&quot;, los estudiantes otorgaron un promedio general de 3,3 y buenos comentarios. Los estudiantes que opinaron que las instrucciones no se otorgan o que no son claras, constituyen solo el 12% de los encuestados. Al respecto se encontraron comentarios como los siguientes: &quot;Las pruebas que se realizan son poco claras, a menudo no se entiende lo que se pregunta&quot;</p>     <p><b>Sobre la asignaci&oacute;n de puntajes o ponderaciones de las preguntas, tareas o actividades presentadas a los estudiantes</b></p>     <p>Este aspecto solo pudo ser establecido al consultar con los profesores que hab&iacute;an confeccionado las pruebas, ya que ninguna de ellas especificaba puntajes. Todos se&ntilde;alaron que cada pregunta val&iacute;a lo mismo.</p>     <p>Este hecho fue considerado poco adecuado por los participantes del taller, ya que cada pregunta en cada prueba, como se hab&iacute;a analizado anteriormente, respond&iacute;a a distintos niveles de exigencia, apuntaba a distintos objetivos del programa y, por lo tanto, esta diversidad debiera verse reflejada en los puntajes. Por esta raz&oacute;n, un profesor se&ntilde;al&oacute;: &quot;La ponderaci&oacute;n es subjetiva&quot;.</p>     <p>Si todas las preguntas tienen igual ponderaci&oacute;n, el mensaje para los estudiantes es que todo es igualmente relevante como aprendizaje. Adem&aacute;s, si hay un objetivo de aprendizaje m&aacute;s importante que otro en el programa de la asignatura, esto debiera reflejarse en la forma de ponderar. Una situaci&oacute;n como esta afecta la interpretaci&oacute;n de las calificaciones, pues estas no podr&aacute;n ser comparables. Por ejemplo, el 4,0 de un estudiante no reflejar&aacute; el mismo nivel de aprendizaje que el 4,0 de otro. Sadler (2009) se&ntilde;ala que la comparabilidad en los grados o calificaciones es muy relevante en los actuales contextos sociales, pues es un aspecto que se relaciona con la justicia y la equidad, con la posibilidad de realizar predicciones v&aacute;lidas y, a futuro, con la igualdad de oportunidades laborales.</p>     <p>En esta etapa los participantes expresaron que los procedimientos de evaluaci&oacute;n deb&iacute;an ser objetivos, en el sentido de ser equitativos o de no contener sesgos para los estudiantes, asegurando de esta manera un trato justo para todos. Adem&aacute;s, que deb&iacute;an estar contextualiza-dos, por una parte, a las caracter&iacute;sticas propias de cada carrera y, por otra, al nivel de la carrera que se encuentran cursando los estudiantes.</p>     <p><b>Otros aspectos</b></p>     ]]></body>
<body><![CDATA[<p>Aunque la pregunta estaba acotada a los procedimientos de evaluaci&oacute;n, algunos docentes aportaron otros elementos, que se relacionan con la situaci&oacute;n de evaluaci&oacute;n. Uno de ellos es la adecuada comprensi&oacute;n por parte del alumnado acerca de c&oacute;mo ser&aacute; evaluado, antes de que esto ocurra. Se incluyen aqu&iacute; aspectos tales como el conocimiento del formato de evaluaci&oacute;n, materiales que se van a emplear, modalidad de la evaluaci&oacute;n y plazos, entre otros.</p>     <p>Finalmente, se destaca el hecho de que los docentes consideran necesario que sus estudiantes conozcan las pautas de correcci&oacute;n, pues &quot;As&iacute; el alumno se retroa-limenta conociendo sus errores, y se alcanza mayor transparencia de la nota obtenida&quot;. Este elemento es importante, pues alude directamente a la evaluaci&oacute;n como instrumento para ayudar a mejorar.</p>     <p>A este respecto se puede mencionar que en el Cuestionario de Opini&oacute;n Estudiantil, ante la pregunta: &quot;&iquest;El an&aacute;lisis y los comentarios de los resultados de las evaluaciones me ayudan a ver mis errores y as&iacute; mejorar mis aprendizajes?&quot;, obtuvo un promedio de 3,0, siendo el m&aacute;s bajo en la dimensi&oacute;n de evaluaci&oacute;n, y la mayor desviaci&oacute;n est&aacute;ndar (0,57). Los mejores puntajes iban acompa&ntilde;ados por comentarios tales como &quot;Cuando nos entrega los resultados, nos hace ver los errores para as&iacute; mejorar nuestro aprendizaje&quot; y &quot;Siempre aclara cada error que tenemos en una evaluaci&oacute;n&quot;. No obstante, al observar las distribuciones de frecuencias, se encontr&oacute; que un 23% de los encuestados opinaron que estos comentarios no se realizaban o, si se realizaban, no les ayudaban a mejorar. Dado que una de las caracter&iacute;sticas de la buena retroa-limentaci&oacute;n es su pertinencia en el tiempo, quiz&aacute;s una explicaci&oacute;n a la situaci&oacute;n descrita se encuentre en las respuestas a una pregunta correspondiente a otra dimensi&oacute;n y se relaciona con el tiempo que demoran los docentes en entregar los resultados de las evaluaciones. Este comentario refleja lo se&ntilde;alado: &quot;La entrega de los resultados de las pruebas son muy tard&iacute;as, llegando a ser una hora antes de la siguiente prueba&quot;.</p>     <p>Esta situaci&oacute;n fue reconocida por los profesores participantes, pues en el Cuestionario sobre necesidades en evaluaci&oacute;n del aprendizaje consignaron que la retroalimentaci&oacute;n era un aspecto muy relevante pero poco practicado por ellos, debido al desconocimiento de estrategias adecuadas para este fin.</p>     <p><b>Criterios de evaluaci&oacute;n</b></p>     <p>Como se ha se&ntilde;alado, una de las primeras actividades de los talleres fue el an&aacute;lisis de pruebas propias para concluir respecto de cu&aacute;les deb&iacute;an ser las caracter&iacute;sticas de un buen procedimiento de evaluaci&oacute;n. En esta etapa, a&uacute;n sin que el equipo docente hubiera tratado el tema, los docentes participantes mencionaron que los criterios de evaluaci&oacute;n deb&iacute;an ser coherentes con los objetivos de la evaluaci&oacute;n, estar consignados en una pauta de evaluaci&oacute;n y adem&aacute;s ser claros para todos, es decir, profesor y estudiantes.</p>     <p>Sin embargo, a pesar de esta claridad, puesto que el conjunto de criterios de evaluaci&oacute;n debe desprenderse, principalmente, de los aprendizajes que deben desarrollar los estudiantes y estar consignados en el programa de asignatura, una de las posibles dificultades que podr&iacute;an tener estos profesores para generar y expresar sus criterios lo constituye la ausencia o ambig&uuml;edad en la redacci&oacute;n de los aprendizajes en sus programas, situaci&oacute;n que fue establecida en la primera parte del taller.</p>     <p>Una caracter&iacute;stica importante que no fue mencionada por los participantes es el conocimiento por parte de los estudiantes de los criterios previamente a ser sometidos a cualquier situaci&oacute;n de evaluaci&oacute;n. No obstante esta omisi&oacute;n, en t&eacute;rminos globales los profesores de la universidad parecieran cumplir con esta caracter&iacute;stica, ya que en la primera pregunta de la dimensi&oacute;n de evaluaci&oacute;n en el Cuestionario de Opini&oacute;n Estudiantil: &quot;&iquest;El/la docente comunica claramente los criterios de evaluaci&oacute;n y calificaci&oacute;n con los que seremos evaluados?&quot;, se obtiene un promedio de 3,2 y algunos comentarios favorables tales como &quot;Para las evaluaciones, el docente nos entrega una pauta que debemos seguir, tiempo para hacer las preguntas en relaci&oacute;n con esta y nos ayuda a mejorar; en cada clase dedica un tiempo especial para ver nuestros avances&quot;. A pesar de este buen promedio, algunos estudiantes seleccionaron las opciones 1 y 2, lo que indica que perciben que sus docentes no comunican los criterios o que lo hacen con poca claridad. Esto los llevar&iacute;a a tener dificultades para comprender los requerimientos de una situaci&oacute;n o tarea de evaluaci&oacute;n. Comentarios que dan cuenta de la situaci&oacute;n: &quot;No sabemos c&oacute;mo seremos evaluados&quot; y &quot;Los criterios que ocupa el profesor para la correcci&oacute;n no son conocidos y genera una cierta desconfianza al saber la nota&quot;.</p>     <p>A continuaci&oacute;n se presentan las categor&iacute;as formuladas para concluir sobre los criterios de evaluaci&oacute;n.</p>     <p><b>Identificaci&oacute;n de criterios de evaluaci&oacute;n</b></p>     ]]></body>
<body><![CDATA[<p>El tema general de los criterios fue abordado principalmente en los talleres 2 y 3, inici&aacute;ndose la discusi&oacute;n a partir de un trabajo pr&aacute;ctico que los participantes desarrollaron en grupos. El trabajo consisti&oacute; b&aacute;sicamente en la construcci&oacute;n de un aparato, para lo cual siguieron instrucciones de una hoja entregada, que adem&aacute;s conten&iacute;a una foto del aparato. Al finalizar deb&iacute;an se&ntilde;alar por escrito las razones por las cuales daban por terminado el trabajo. La idea central aqu&iacute; es que sus razones constituyeron finalmente sus criterios de evaluaci&oacute;n.</p>     <p>Las razones que los participantes expusieron ante esta pregunta pueden sintetizarse como sigue: <b><i>Porque se cumple con &eacute;l objetivo requerido. </i></b>Todos los grupos, sin excepci&oacute;n, identificaron como objetivo principal de la actividad la construcci&oacute;n del aparato tal como se mostraba en la foto, utilizando los materiales entregados. Las razones que expusieron fueron, por ejemplo: &quot;Se mueve de acuerdo con la figura&quot;, &quot;Es id&eacute;ntico al modelo entregado&quot;, &quot;La construcci&oacute;n realiza los movimientos indicados y cumple con la utilizaci&oacute;n de los materiales&quot;.</p>     <p>Esto ocurri&oacute; porque, aunque no se declaraba como objetivo, las instrucciones, la foto, los materiales entregados, la ausencia de instrucciones orales por parte del equipo docente y la falta de consultas por parte de los participantes, indujeron a pensar de esa manera. Por lo tanto, una vez identificado este objetivo, la tarea de cada grupo fue cumplirlo y a partir de all&iacute; generaron sus criterios de evaluaci&oacute;n. Este razonamiento lo hab&iacute;an expresado anteriormente los docentes al describir las caracter&iacute;sticas de un buen procedimiento de evaluaci&oacute;n.</p>     <p>Una vez que los participantes expusieron en grupo sus razones, el equipo docente comunic&oacute; en forma escrita sus criterios para evaluar los trabajos, que estaban relacionados con aspectos actitudinales, tales como &quot;perseverancia&quot; y &quot;trabajo colaborativo&quot;. Esta situaci&oacute;n gener&oacute; una discusi&oacute;n debido al alto grado de discrepancia que percibieron los participantes entre sus criterios y los del equipo docente.</p>     <p>Las razones de esta discrepancia radicaban justamente en la identificaci&oacute;n del prop&oacute;sito de la tarea, que para ellos fue construir el aparato. Por ejemplo, dos grupos respondieron: &quot;Nosotros nos centramos en llegar al producto final y no al proceso para llegar al resultado&quot; y &quot;Se consider&oacute; como criterio lograr los movimientos, o sea, obtener el resultado, y el equipo docente consider&oacute; el desarrollo en grupo&quot;.</p>     <p>Adem&aacute;s, se&ntilde;alaron que ninguno de los criterios explicitados al final por el equipo docente estaba se&ntilde;alado en las instrucciones escritas que se hab&iacute;an entregado. Sus comentarios fueron: &quot;Los objetivos no estaban explicitados, se esperaba que el criterio de evaluaci&oacute;n estuviese junto con las instrucciones. El criterio de evaluaci&oacute;n del equipo docente no fue expuesto claramente&quot; (en forma previa) y &quot;El enunciado no es expl&iacute;cito sobre los criterios de evaluaci&oacute;n&quot;.</p>     <p>Esta reflexi&oacute;n es muy relevante, pues en el primer taller, al se&ntilde;alar caracter&iacute;sticas de los procedimientos de evaluaci&oacute;n, los docentes no mencionaron que los estudiantes deb&iacute;an conocer y comprender los criterios en forma previa a cualquier situaci&oacute;n de evaluaci&oacute;n.</p>     <p>Otro comentario interesante provino de un grupo del &aacute;rea de ciencias: &quot;La perseverancia, como elemento por evaluar, no estaba en el planteamiento, y disciplinariamente, como somos del &aacute;rea de las ciencias, la s&iacute;ntesis o la integraci&oacute;n funcional es algo muy importante para nosotros, entonces lo identificamos como criterio&quot;. Siguiendo la misma l&iacute;nea, otro grupo, en el cual hab&iacute;a un profesor de Artes, mencion&oacute;: &quot;Adem&aacute;s consideramos la creatividad como un aspecto importante de la evaluaci&oacute;n y no solo seguir indicaciones&quot;. Lo interesante de estos comentarios radica en la naturaleza y origen de los criterios de evaluaci&oacute;n, ya que estos pueden provenir de la experiencia, del contexto, de la cultura u otros, pero en gran parte se van conformando por el &aacute;rea disciplinar que cultiva cada docente. Sadler (1983) denomina criterios constitutivos a este tipo de criterios, es decir, a aquellos cuyas bases se encuentran en un consenso de los miembros de una disciplina sobre categor&iacute;as de est&aacute;ndares, conceptos y metodolog&iacute;as.</p>     <p>Como s&iacute;ntesis respecto a la identificaci&oacute;n de criterios de evaluaci&oacute;n se puede establecer que, en ausencia de criterios explicitados previamente por el equipo docente, los participantes identificaron aquellos que se generaban de manera casi natural desde el prop&oacute;sito de la tarea y desde las instrucciones otorgadas por escrito. En menor medida identificaron criterios relacionados con su disciplina.</p>     <p>Por otra parte, todos los grupos coincidieron en que cambiar&iacute;an sus acciones si es que hubiesen conocido los criterios antes de iniciar el trabajo, aunque hubo matices en el grado de cambio y sus razones. Algunos grupos se&ntilde;alaron que cambiar&iacute;an, poniendo m&aacute;s &eacute;nfasis en algunas acciones que permitieran que el equipo docente notara que trabajaban de acuerdo con sus criterios de evaluaci&oacute;n. Por ejemplo: &quot;Mostrar&iacute;amos perseverancia y trabajo colaborativo y har&iacute;amos ostentaci&oacute;n de ello&quot;, &quot;Habr&iacute;amos explicitado aquello que se dio de manera espont&aacute;nea&quot;, &quot;Se habr&iacute;a enfatizado en aquellos aspectos por los cuales se evaluar&iacute;a el trabajo&quot; y &quot;Algo, no mucho. Hubi&eacute;semos preguntado la opini&oacute;n de cada uno (de los participantes), aunque, igual cuando hicimos el trabajo, conversamos todos&quot;.</p>     ]]></body>
<body><![CDATA[<p>Un grupo coment&oacute; que: &quot;En general habr&iacute;amos cambiado las acciones con el fin de alcanzar los objetivos propuestos. No obstante, algunos plantean que existen ventajas al no saberlos, porque permite desarrollar un trabajo m&aacute;s libre o creativo&quot;. A este respecto, otro grupo les dio la raz&oacute;n, comentando que cambiar&iacute;an &quot;Porque como alumno, el objetivo es ser bien evaluado&quot;, es decir, sus razones habr&iacute;an sido estrat&eacute;gicas.</p>     <p>Los grupos concordaron en que conocer los criterios previamente les permitir&iacute;a desarrollar una planificaci&oacute;n adecuada, orientar las acciones y, por lo tanto, aprovechar mejor los recursos disponibles (materiales, humanos, entre otros) y ser m&aacute;s eficientes. Agregaron que ello permitir&iacute;a vislumbrar mejor el o los objetivos de la tarea. Un grupo agreg&oacute; que de esta manera se evitar&iacute;an algunas frustraciones, pues los evaluados sabr&iacute;an desde un principio los criterios.</p>     <p>Un grupo en particular resalt&oacute; que, de conocer los criterios previamente, tendr&iacute;an la posibilidad de realizar una autoevaluaci&oacute;n del desempe&ntilde;o individual de los integrantes, antes de dar por finalizado el trabajo. Esta es una observaci&oacute;n muy interesante pues, si se entiende la autoevaluaci&oacute;n como un proceso mediante el cual los estudiantes van a emitir juicios fundados sobre sus propios aprendizajes, entonces es necesario que primero conozcan y compartan los criterios de evaluaci&oacute;n.</p>     <p>Para finalizar, los docentes expresaron sentirse &quot;sorprendidos&quot;, &quot;confundidos&quot;, &quot;molestos&quot; y &quot;defraudados&quot;, cuando vieron la discrepancia entre los criterios identificados por ellos y los presentados por el equipo docente. Al explayarse en esta respuesta, algunos se&ntilde;alaron haber sentido estar trabajando sin rumbo, aunque igual cumplieron con los criterios.</p>     <p>Respecto de esta etapa del taller, se puede concluir que gener&oacute; una muy buena din&aacute;mica, pues, en un momento determinado, los profesores no sab&iacute;an a qu&eacute; atenerse debido a que no comprend&iacute;an la incoherencia entre los criterios presentes en la tarea y los presentados por el equipo docente. B&aacute;sicamente el prop&oacute;sito fue poner en discusi&oacute;n la importancia de la comprensi&oacute;n de los criterios por parte de los estudiantes y que, para este fin, deben estar claramente establecidos con ciertas caracter&iacute;sticas m&iacute;nimas. Adem&aacute;s, hizo que los docentes participantes se pusieran en el lugar de sus estudiantes y comprendieran sus temores y sentimientos.</p>     <p><b>Generaci&oacute;n de criterios de evaluaci&oacute;n</b></p>     <p>Para que los docentes participantes pudieran generar criterios con las caracter&iacute;sticas requeridas, en una primera etapa se les entreg&oacute; y coment&oacute; un material con definiciones y caracter&iacute;sticas de los criterios de evaluaci&oacute;n, tales como la cobertura, generalidad, claridad y nivel de calidad. Posteriormente se les presentaron tres formas distintas de redactar criterios, en las que las caracter&iacute;sticas iban apareciendo de manera progresiva. Tambi&eacute;n se realiz&oacute; una presentaci&oacute;n con diversas formas de conceptualizar los criterios de evaluaci&oacute;n, redacciones, formas de comunicaci&oacute;n, errores m&aacute;s comunes, entre otros.</p>     <p>La conclusi&oacute;n a esta etapa del taller fue que la redacci&oacute;n debiera realizarse con palabras claras, sin ambig&uuml;edades, tanto para el docente como para el estudiante; debieran distinguirse niveles de desempe&ntilde;o en la calidad del trabajo de los estudiantes y los conceptos usados debieran ser comprendidos previamente por los estudiantes.</p>     <p>Es importante destacar que en el Cuestionario sobre Necesidades en Evaluaci&oacute;n del Aprendizaje, aplicado en la primera sesi&oacute;n con los profesores participantes, la generaci&oacute;n de criterios de evaluaci&oacute;n coherentes con los aprendizajes consignados en los programas ocup&oacute; el segundo lugar de importancia.</p>     <p><b>Dificultades para generar criterios de evaluaci&oacute;n</b></p>     ]]></body>
<body><![CDATA[<p>En el trabajo de taller, los profesores participantes debieron generar criterios de evaluaci&oacute;n y describirlos. Para ello se les hizo entrega de una pauta escrita y se les pidi&oacute; espec&iacute;ficamente que seleccionaran uno o m&aacute;s objetivos de aprendizajes presentes en sus programas de asignatura y desde ah&iacute; generaran criterios de evaluaci&oacute;n, poniendo especial atenci&oacute;n en dejar claramente establecido el nivel de calidad con que esperaban se manifestara cada aspecto o caracter&iacute;stica contenida en los criterios por parte de sus estudiantes.</p>     <p>Una vez que cada grupo hubo terminado su trabajo, se le solicit&oacute; que lo intercambiaran con otros, de manera que a partir de una pauta, pudieran evaluar entre ellos sus propios trabajos. Finalmente debieron contestar varias preguntas referidas a las dificultades encontradas en las distintas etapas y a lo aprendido en la actividad.</p>     <p>La tarea solicitada present&oacute; algunas dificultades provenientes desde distintas fuentes. La primera provino de la redacci&oacute;n de los objetivos de aprendizaje en los programas de asignatura, o sencillamente la inexistencia de objetivos. Por ejemplo, los docentes comentaron que &quot;Los objetivos del curso est&aacute;n planteados de manera muy amplia, lo que dificulta la realizaci&oacute;n de la actividad&quot;.</p>     <p>Un ejemplo de objetivo que podr&iacute;a presentar esta dificultad es &quot;Conocer la pol&iacute;tica de la Corona sobre la administraci&oacute;n de los territorios ultramarinos y el esp&iacute;ritu que la sostuvo y los cambios hacia fines del siglo XVIII&quot; (Programa de una asignatura de Licenciatura en Historia), ya que el verbo &quot;conocer&quot; es excesivamente amplio y da lugar para diversas interpretaciones.</p>     <p>Otra dificultad, para algunos, provino de la naturaleza de la tarea encomendada, pues lo que se solicit&oacute; a los docentes fue que establecieran criterios a partir de los objetivos de aprendizaje, lo que implicaba trabajar con criterios amplios y abstractos referidos a habilidades, y no con criterios espec&iacute;ficos referidos a contenidos o tareas particulares, lo que hubiera sido m&aacute;s cercano a su experiencia de generar criterios de evaluaci&oacute;n a partir de actividades de evaluaci&oacute;n.</p>     <p>Pero la mayor dificultad que reconocieron los profesores estuvo en la descripci&oacute;n del componente de calidad de cada criterio de evaluaci&oacute;n. Esto se debe principalmente a que describir la calidad implica se&ntilde;alar con claridad el nivel con que el profesor espera que los estudiantes le presenten los distintos aspectos que componen una tarea. Algunas conclusiones de los profesores fueron: &quot;La redacci&oacute;n de la componente de calidad fue dif&iacute;cil&quot;; &quot;Cuesta ser preciso en describir la calidad de la conducta&quot;; &quot;Definir el l&iacute;mite del aprendizaje esperado en los criterios de calidad&quot;; &quot;S&iacute;, fue dif&iacute;cil en t&eacute;rminos de criterios de calidad&quot;.</p>     <p>Una fuente de dificultades en este &aacute;mbito estuvo en la tendencia de algunos profesores a describir la calidad con sin&oacute;nimos, situaci&oacute;n que un grupo plante&oacute; con la siguiente afirmaci&oacute;n: &quot;La dificultad en expresar de forma expl&iacute;cita los t&eacute;rminos <i>adecuado </i>o <i>bien&quot;. </i>Un ejemplo de esto es el siguiente: se solicita como criterio a los estudiantes la &quot;Expresi&oacute;n de ideas propias&quot;, y en la descripci&oacute;n de la calidad se se&ntilde;ala: &quot;Manifiesta su propio punto de vista a partir de los conceptos revisados&quot;.</p>     <p>Un aspecto positivo de esta actividad estuvo en el trabajo de coevaluaci&oacute;n entre los mismos docentes participantes. Por ejemplo, ante este tipo de redacci&oacute;n, un grupo que evalu&oacute; el trabajo de otro le manifest&oacute;: &quot;El lenguaje es comprensible pero falta precisi&oacute;n que evite ambig&uuml;edades&quot; y &quot;Los criterios de calidad deben hacerse a&uacute;n m&aacute;s expl&iacute;citos, de manera que se pueda establecer cu&aacute;les conductas son las deseables, por ejemplo, el manejo de conflictos&quot;.</p>     <p>Otra dificultad para la redacci&oacute;n de la calidad en los criterios de evaluaci&oacute;n, aunque solo en dos casos, estuvo en que no se describi&oacute; la calidad sino el conjunto de pasos se-cuenciado que ten&iacute;a que seguir un estudiante para finalizar con &eacute;xito la etapa establecida en el criterio. Por ejemplo: a) &quot;Lee comprensivamente el problema planteado&quot;, b) &quot;Identifica elementos que le permiten dise&ntilde;ar el proceso de resoluci&oacute;n algor&iacute;tmica&quot;, c) &quot;Desarrolla el algoritmo, entregando una respuesta al elemento planteado&quot;. Junto con ello, aqu&iacute; se vislumbra otro problema y es que el profesor ha instalado un criterio, del cual luego no podr&aacute; dar cuenta por tratarse de una prueba escrita: &quot;Lee comprensivamente el problema planteado&quot;, aunque la resoluci&oacute;n del problema supone que el estudiante ha le&iacute;do comprensivamente.</p>     <p>No obstante los casos mencionados, se encontraron ejemplos en que la calidad estaba bien descrita. Por ejemplo, ante el aspecto &quot;Manejo de conceptos&quot;, un grupo describi&oacute; la calidad como: &quot;Les entrega el significado correcto a los conceptos; los aplica adecuadamente en contextos espec&iacute;ficos y da ejemplos fundamentados del uso de los conceptos en la vida cotidiana&quot;.</p>     ]]></body>
<body><![CDATA[<p>La superposici&oacute;n de criterios tambi&eacute;n fue mencionada como una dificultad. Esta superposici&oacute;n pod&iacute;a estar dada por la repetici&oacute;n de un criterio, a veces con distintos t&eacute;rminos, como tambi&eacute;n por la inclusi&oacute;n de un criterio en otro m&aacute;s amplio. Si esto ocurre, entonces, al aplicar el criterio a alguna respuesta de los estudiantes, se los estar&iacute;a premiando o castigando dos o m&aacute;s veces. Estas fueron algunas respuestas de los docentes participantes: &quot;En algunos casos hubo superposici&oacute;n de ellos&quot; y &quot;La principal fue no superponer los criterios&quot;. Un ejemplo lo constituye el siguiente par de criterios que fue puesto por separado por una profesora: &quot;Selecciona una o m&aacute;s t&eacute;cnicas metal&uacute;rgicas para analizar un problema&quot; y &quot;Descarta la t&eacute;cnica metal&uacute;rgica que no le aportar&aacute; a su objetivo&quot;. El grupo que evalu&oacute; su trabajo consider&oacute; con raz&oacute;n que el segundo criterio estaba contenido en el primero.</p>     <p>Un profesor del &aacute;rea de Artes mencion&oacute; <i>que </i>&quot;la excesiva definici&oacute;n reduce la libertad y manipula al estudiante&quot;. Esta observaci&oacute;n es muy importante, pues, por una parte, se refiere a la fragmentaci&oacute;n en peque&ntilde;os trozos de lo que un profesor espera ver como aprendizaje, pudiendo perderse el foco global, y, por otra, tal como lo mencion&oacute; un grupo, se corre el peligro de que el estudiante se restrinja a lo que aparece consignado como criterio, preocup&aacute;ndose solo por cumplir para la calificaci&oacute;n.</p>     <p>En t&eacute;rminos generales, los docentes participantes se&ntilde;alaron que una de las dificultades provino del hecho de trabajar en grupo con otros profesores que no eran necesariamente de la misma especialidad y que, en algunos casos, no se conoc&iacute;an. Este hecho dificultaba avanzar con fluidez en el trabajo grupal. No obstante, agregaron que esta misma situaci&oacute;n muchas veces la viv&iacute;an los propios estudiantes y que ellos debieran tomar en cuenta las posibles limitaciones que traen estas diferencias.</p>     <p>Finalmente comentaron que a veces el lenguaje utilizado por el equipo docente, proveniente del &aacute;rea de la pedagog&iacute;a, le era un poco lejano. Por ejemplo, un profesor se&ntilde;al&oacute; que tuvo &quot;dificultad para distinguir los conceptos usados (habilidades, criterios, competencias, objetivos)&quot;.</p>     <p><b><font size="3">Conclusiones</font></b></p>     <p>El trabajo de diagn&oacute;stico desarrollado permite establecer algunas conclusiones y trazar l&iacute;neas para el futuro.</p>     <p>La evaluaci&oacute;n del aprendizaje en las carreras profesionales de la Pontificia Universidad Cat&oacute;lica de Valpara&iacute;so tiene caracter&iacute;sticas que la enmarcan m&aacute;s bien en un enfoque tradicional, de corte t&eacute;cnico administrativo. Es decir, se asocia la evaluaci&oacute;n a medici&oacute;n y calificaci&oacute;n, y no a una reflexi&oacute;n fundamentada sobre la calidad de aquello que aprenden los estudiantes.</p>     <p>La falta de orientaciones institucionales, traducida en ausencia de reglamentos espec&iacute;ficos a esta &aacute;rea; la poca claridad o ausencia de aprendizajes para desarrollar en los programas de asignaturas; la ausencia de instrucciones formales en las pruebas escritas; las formas de asignar puntajes poco adecuadas para reflejar el aprendizaje que se eval&uacute;a y el uso de resultados, en su mayor&iacute;a solo para asignar calificaciones y no para mejorar la ense&ntilde;anza o el aprendizaje, son elementos que avalan esta conclusi&oacute;n.</p>     <p>Sin embargo, hay otros elementos que permiten concluir que existe una buena base para que se puedan cambiar las pr&aacute;cticas evaluativas.</p>     <p>En primer lugar, uno de los mayores logros de este trabajo ha sido su capacidad para promover la reflexi&oacute;n en los docentes acerca de la importancia de la evaluaci&oacute;n como medio para mejorar la ense&ntilde;anza y el aprendizaje. Los participantes tuvieron una actitud abierta al aprendizaje, a la colaboraci&oacute;n entre pares y la reflexi&oacute;n. En segundo t&eacute;rmino, fueron capaces de identificar aquellas caracter&iacute;sticas t&eacute;cnicas m&aacute;s importantes de los procedimientos de evaluaci&oacute;n, y otras correspondientes a la evaluaci&oacute;n m&aacute;s bien como un proceso. Por &uacute;ltimo, y de acuerdo con la percepci&oacute;n estudiantil, los docentes tienen un amplio dominio de la disciplina que ense&ntilde;an, base indispensable para llevar a cabo cualquier proceso de evaluaci&oacute;n.</p>     ]]></body>
<body><![CDATA[<p>No obstante ser estas conclusiones emanadas del trabajo con un grupo de profesores en particular, la experiencia ganada en la Direcci&oacute;n de Desarrollo Curricular y Formativo permite establecer que el panorama a nivel de universidad es bastante similar en cuanto a fortalezas y debilidades. Por esta raz&oacute;n los siguientes lineamientos pueden ser acogidos por la instituci&oacute;n completa respecto de la docencia en carreras profesionales.</p>     <p>Por una parte, es necesario remover este enfoque tradicional, m&aacute;s bien t&eacute;cnico administrativo, lo que implica estudio y reflexi&oacute;n sobre las propias concepciones y pr&aacute;cticas. En forma paralela debe dise&ntilde;arse e implementarse un nuevo enfoque, cuidando las condiciones de trabajo de los docentes, ya que actualmente deben realizar docencia, investigaci&oacute;n, extensi&oacute;n y, en algunos casos, atender tareas administrativas.</p>     <p>En lo espec&iacute;fico, la implementaci&oacute;n de un nuevo enfoque debiera considerar la generaci&oacute;n y socializaci&oacute;n de alguna clasificaci&oacute;n de aprendizajes a nivel de educaci&oacute;n superior, que permita que tanto docentes como estudiantes orienten su quehacer en el aula con una comprensi&oacute;n conjunta de lo que se debe desarrollar como ense&ntilde;anza y aprendizaje respectivamente. Ello permitir&iacute;a, en parte, mayor claridad para los docentes acerca de c&oacute;mo generar y comunicar a los estudiantes la calidad de lo que esperan, es decir, debiera facilitar las estrategias de redacci&oacute;n y comunicaci&oacute;n de criterios de evaluaci&oacute;n. Adem&aacute;s les ayudar&iacute;a a poner el acento en la calidad del aprendizaje y no en la cantidad.</p>     <p>En un nivel general, este trabajo requerir&iacute;a de un equipo acad&eacute;mico bien consolidado, disponibilidad de tiempo de los profesores, apoyo a cada uno de ellos en sus respectivas escuelas y facultades, y el compromiso institucional de manera que sea toda la universidad la que se involucre y no solo algunos docentes.</p>     <p>Si se puede perfeccionar en forma sistem&aacute;tica a los profesores sobre los aspectos mencionados y se establecen pol&iacute;ticas adecuadas en la universidad, por ejemplo, traducidas en normas y procedimientos generales, es posible contar con un sistema o modelo de evaluaci&oacute;n del aprendizaje que efectivamente contribuya a mejorar los procesos formativos y permita, a su vez, certificar adecuadamente el aprendizaje de los estudiantes.</p>     <p><b><font size="3">Agradecimientos</font></b></p>     <p>Se agradece muy especialmente la colaboraci&oacute;n de las siguientes profesionales de apoyo de la Unidad de Evaluaci&oacute;n Curricular: Priscila C&aacute;rdenas, Ang&eacute;lica Pizarro y Carmen Gloria Z&uacute;&ntilde;iga.</p>     <p><b><font size="3">Bibliograf&iacute;a</font></b></p>     <!-- ref --><p>Angelo, Tomas &amp; Cross, Patricia (1993). <i>Classroom Assessment Techniques. A Handbook for College Teachers. </i>1<sup>a</sup> ed. San Francisco: Jossey-Bass.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000171&pid=S0123-1294201000020000400001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Arter, Judith &amp; Mcthige, Jay (2001). <i>Scoring Rubrics in the Classroom. Using Performance Criteria for Assessing and Improving Student Performance. </i>1<sup>a</sup> ed. California: Corwin Press.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000172&pid=S0123-1294201000020000400002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Barber&aacute;, Elena (2003). Estado y tendencias de la evaluaci&oacute;n en educaci&oacute;n superior. <i>Revista de la Red Estatal de Docencia Universitaria, </i>vol. 3 (2), 5-18.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000173&pid=S0123-1294201000020000400003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Barrow, Mark (2006). Assessment and student transformation: linking character and intellect. <i>Studies in Higher Education, </i>vol. 31 (3), 357-372.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000174&pid=S0123-1294201000020000400004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Biggs, John (2007). <i>Teaching for Quality Learning at University. </i>2<sup>a</sup> ed. New York: Open University Press.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000175&pid=S0123-1294201000020000400005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Broadfoot, Patricia (2002). Assessment for lifelong learning: Challenges and choices. <i>Assessment in Education, </i>vol. 9 (2), 5-7.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000176&pid=S0123-1294201000020000400006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Brown, Sally &amp; Glasner, &Aacute;ngela (2007). <i>Evaluar en la universidad. Problemasy nuevos enfoques. </i>1a ed. Madrid: Narcea.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000177&pid=S0123-1294201000020000400007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Canales, Alejandro (2003). Docencia: Tensiones estructurales en la valoraci&oacute;n de la actividad. En Mario Rueda, Frida D&iacute;az-Barriga, M&oacute;nica D&iacute;az (Eds.). <i>Evaluar para comprender y mejorar la docencia en la educaci&oacute;n superior </i>(pp. 71-76). M&eacute;xico: Universidad Aut&oacute;noma Metropolitana - Universidad Nacional Aut&oacute;noma de M&eacute;xico - Universidad Aut&oacute;noma de Baja California.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000178&pid=S0123-1294201000020000400008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Collazos, C&eacute;sar Alberto, Mendoza, Jair &amp; Ochoa, Sergio F. (2007). Mejorar los esquemas de evaluaci&oacute;n mediante procesos de colaboraci&oacute;n. <i>Educaci&oacute;n y Educadores, </i>vol. 10 (1), 79-88 &#91;citado junio 25, 2010&#93;. Disponible en: <a href="http://educacionyeducadores.unisabana.edu.co/index.php/eye/issue/view/126/showToc" target="_blank">http://educacionyeducadores.unisabana.edu.co/index.php/eye/issue/view/126/showToc</a>.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000179&pid=S0123-1294201000020000400009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Covarrubias, Patricia &amp; Tovar, Luisa (2005). Las representaciones de los estudiantes sobre la evaluaci&oacute;n del aprendizaje. En Miguel &Aacute;ngel Campos Hern&aacute;ndez (Coord.), <i>Construcci&oacute;n del conocimiento en el proceso educativo </i>(pp. 265-292). M&eacute;xico: CESU-UNAM.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000180&pid=S0123-1294201000020000400010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Elton, Lewis &amp; Johnston, Brenda (2002). <i>Assessment in Universities: a critical review of research </i>(LTSN Generic Centre) &#91;citado marzo 17, 2009&#93;. Disponible en: <a href="http://eprints.soton.ac.uk/59244/01/59244.pdf" target="_blank">http://eprints.soton.ac.uk/59244/01/59244.pdf</a>.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000181&pid=S0123-1294201000020000400011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Entwistle, Noel (2000). Promoting deep learning through teaching and assessment: conceptual frameworks and educational contexts. Paper presented at the TLRP Conference, Leicester &#91;citado abril 30, 2008&#93;. Disponible en: <a href="http://www.etl.tla.ed.ac.uk/docs/entwistle2000.pdf" target="_blank">http://www.etl.tla.ed.ac.uk/docs/entwistle2000.pdf</a>.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000182&pid=S0123-1294201000020000400012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Geoff, Isaacs (1999). Assessment criteria, standards and marking schemes. Teaching and Educational Development Institute. The University of Queensland, Australia &#91;citado agosto 9, 2007&#93;. Disponible en: <a href="http://www.tedi.uq.edu.au/downloads/Criteria.pdf" target="_blank">http://www.tedi.uq.edu.au/downloads/Criteria.pdf</a>.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000183&pid=S0123-1294201000020000400013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>G&oacute;mez Rold&aacute;n, Ignacio (2005). Competencias profesionales: una propuesta de evaluaci&oacute;n para las facultades de ciencias administrativas. Educaci&oacute;n y Educadores, vol. 8, 45-66 &#91;citado junio 25, 2010&#93;. Disponible en: <a href="http://educacionyeducadores.unisabana.edu.co/index.php/eye/article/view/1621/2059" target="_blank">http://educacionyeducadores.unisabana.edu.co/index.php/eye/article/view/1621/2059</a>.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000184&pid=S0123-1294201000020000400014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Gulikers, Judith, et al. (2006). Relations Between Student Perceptions of Assessment Authenticity, Study Approaches and Learning Outcomes. <i>Studies in Educational Evaluation, </i>vol. 32, pp. 381-400.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000185&pid=S0123-1294201000020000400015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Herrera-Torres, Luc&iacute;a &amp; Lorenzo-Quilmes, Oswaldo (2009). Estrategias de aprendizaje en estudiantes universitarios. Un aporte a la construcci&oacute;n del espacio europeo de educaci&oacute;n superior. <i>Educaci&oacute;n &amp; Educadores, </i>vol. 12 (3), 75-98 &#91;citado junio 26, 2010&#93;. Disponible en: <a href="http://educacionyeducadores.unisabana.edu.co/index.php/eye/article/view/1532/1838" target="_blank">http://educacionyeducadores.unisabana.edu.co/index.php/eye/article/view/1532/1838</a>.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000186&pid=S0123-1294201000020000400016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Himmel, Erika, Olivares M., Ang&eacute;lica, &amp; Zabalza, Javier (1999). <i>Hacia una evaluaci&oacute;n educativa. Aprender para evaluar y evaluar para aprender. </i>Vol. I. 1a ed. Santiago: PUC-Mineduc.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000187&pid=S0123-1294201000020000400017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Himmel, Erika (2001). La evaluaci&oacute;n de los aprendizajes en la educaci&oacute;n superior. Revista <i>Calidad en la Educaci&oacute;n, </i>N&deg; 15 &#91;citado enero 27, 2009&#93;. Disponible en: <a href="http://www.cse.cl/public/Secciones/seccionpublicaciones/doc/33/cse_articulo98.pdf" target="_blank">http://www.cse.cl/public/Secciones/seccionpublicaciones/doc/33/cse_articulo98.pdf</a>. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000188&pid=S0123-1294201000020000400018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>LeCompte, Margaret (2000). Analyzing Qualitative Data. <i>Theory into Practice, </i>vol. 39 (3), 146-154. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000189&pid=S0123-1294201000020000400019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>OCDE (2009). <i>La Educaci&oacute;n Superior en Chile. </i>Par&iacute;s: OCDE-BIRD.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000190&pid=S0123-1294201000020000400020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Pontificia Universidad Cat&oacute;lica de Valpara&iacute;so (2005). Desarrollo estrat&eacute;gico. Hacia el 2010 &#91;citado mayo 5, 2009&#93;. Disponible en: <a href="http://www.planestrategico.ucv.cl/" target="_blank">http://www.planestrategico.ucv.cl/</a>.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000191&pid=S0123-1294201000020000400021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Pontificia Universidad Cat&oacute;lica de Valpara&iacute;so (2008). Visi&oacute;n institucional de la formaci&oacute;n de pregrado &#91;citado mayo 5, 2009&#93;. Disponible en: <a href="http://ucv.altavoz.net/prontus_unidacad/site/artic/20080110/asocfile/20080110123547/libro_formato_grande_28_.pdf" target="_blank">http://ucv.altavoz.net/prontus_unidacad/site/artic/20080110/asocfile/20080110123547/libro_formato_grande_28_.pdf</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000192&pid=S0123-1294201000020000400022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Ramsden, Paul (2007). <i>Learning to Teach in Higher Education. </i>2a ed. New York: Routledge Falmer.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000193&pid=S0123-1294201000020000400023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Sadler, D. Royce (1983). Evaluation and the Improvement of Academic Learning. <i>The Journal of Higher Education, </i>vol. 54 (1), 60-79.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000194&pid=S0123-1294201000020000400024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Sadler, D. Royce (1989). Formative assessment and the design of instructional systems. <i>Instructional Science, </i>vol. 18, 119-144.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000195&pid=S0123-1294201000020000400025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Sadler, D. Royce (2005). Interpretations of criteria-based assessment and grading in higher education. <i>Assessment &amp; Evaluation in Higher Education, </i>vol. 30 (2), 175-194.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000196&pid=S0123-1294201000020000400026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Sadler, D. Royce (2009). Grade integrity and the representation of academic achievement. <i>Studies in Higher Education, </i>vol. 34 (7), 807-826.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000197&pid=S0123-1294201000020000400027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Scouller, Karen (1998). The Influence of Assessment Method on Students' Learning Approaches: Multiple Choice Question Examination versus Assignment Essay <i>Higher Education, </i>vol. 35 (4), 453-472.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000198&pid=S0123-1294201000020000400028&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Shepard, Lorrie (2000). The Role of Assessment in a Learning Culture. <i>Educational Researcher, </i>vol. 29 (7), 4-14.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000199&pid=S0123-1294201000020000400029&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Stake, Robert (2006). <i>Evaluaci&oacute;n comprensivay evaluaci&oacute;n basada en est&aacute;ndares. </i>1<sup>a</sup> ed. Barcelona: Gra&oacute;.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000200&pid=S0123-1294201000020000400030&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Stiggins, Rick, et al. (2007). Classroom Assessment for Learning. <i>Doing it right-Using it welh</i><b><i>a </i></b>ed. New Jersey: Pearson Education.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000201&pid=S0123-1294201000020000400031&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Stobart, Gordon (2006). The Validity of Formative Assessment. En J. Gardner (Ed.). <i>Assessment and Learning </i>(pp. 133-146). London: Sage Publications.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000202&pid=S0123-1294201000020000400032&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Struyven, Katrien, Dochy, Filip &amp; Janssens, Steven (2005). Students' perceptions about evaluation and assessment in higher education: a review. <i>Assessment &amp; Evaluation in Higher Education, </i>vol. 30 (4), 325-341.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000203&pid=S0123-1294201000020000400033&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Taylor, Catherine &amp; Bobbit Nolen, Susan (1996). What Does the Psy cometrician's Classroom Look Like? Reframing Assessment Concept in the Context of Learning. <i>Education Policy Analysis Archives, </i>vol. 4 (17) &#91;citado julio 15, 2008&#93;. Disponible en: <a href="http://epaa.asu.edu/epaa/v4n17.html" target="_blank">http://epaa.asu.edu/epaa/v4n17.html</a>.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000204&pid=S0123-1294201000020000400034&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Thompson, Karen &amp; Falchikov, Nancy (1998). &quot;Full on until the sun comes out: The effects of assessment on students' approaches to studying&quot;. <i>Assessment and Evaluation in Higher Education, </i>vol. 23 (4), 379-390.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000205&pid=S0123-1294201000020000400035&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Veslin, Jean &amp; Veslin, Odette (1992). <i>Corriger des copies. &Eacute;valuerpour former. </i>1a ed. Paris: Hachette.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000206&pid=S0123-1294201000020000400036&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Wiggins, Grant (1990). The case for authentic assessment. <i>Practical Assessment, Research &amp; Evaluation, </i>vol. 2 (2) &#91;citado septiembre 20, 2009&#93;. Disponible en: <a href="http://pareonline.net/getvn.asp?v=2&n=2" target="_blank">http://pareonline.net/getvn.asp?v=2&amp;n=2</a>.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000207&pid=S0123-1294201000020000400037&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Wiggins, Grant (1998). <i>Educative Assessment. Designing assessment to inform and improve student performance. </i>1a ed. San Francisco: Jossey-Bass, 1998.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000208&pid=S0123-1294201000020000400038&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><p>&nbsp;</p>     <p><b>Fecha de recepci&oacute;n:</b> 2010-01-12    <br>     <b>Fecha de aceptaci&oacute;n:</b> 2010-07-16</p> </font>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Angelo]]></surname>
<given-names><![CDATA[Tomas]]></given-names>
</name>
<name>
<surname><![CDATA[Cross]]></surname>
<given-names><![CDATA[Patricia]]></given-names>
</name>
</person-group>
<source><![CDATA[Classroom Assessment Techniques. A Handbook for College Teachers]]></source>
<year>1993</year>
<edition>1ª ed</edition>
<publisher-loc><![CDATA[San Francisco ]]></publisher-loc>
<publisher-name><![CDATA[Jossey-Bass]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Arter]]></surname>
<given-names><![CDATA[Judith]]></given-names>
</name>
<name>
<surname><![CDATA[Mcthige]]></surname>
<given-names><![CDATA[Jay]]></given-names>
</name>
</person-group>
<source><![CDATA[Scoring Rubrics in the Classroom. Using Performance Criteria for Assessing and Improving Student Performance]]></source>
<year>2001</year>
<edition>1</edition>
<publisher-loc><![CDATA[California ]]></publisher-loc>
<publisher-name><![CDATA[Corwin Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Barberá]]></surname>
<given-names><![CDATA[Elena]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Estado y tendencias de la evaluación en educación superior]]></article-title>
<source><![CDATA[Revista de la Red Estatal de Docencia Universitaria]]></source>
<year>2003</year>
<volume>3</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>5-18</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Barrow]]></surname>
<given-names><![CDATA[Mark]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Assessment and student transformation: linking character and intellect]]></article-title>
<source><![CDATA[Studies in Higher Education]]></source>
<year>2006</year>
<volume>31</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>357-372</page-range></nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Biggs]]></surname>
<given-names><![CDATA[John]]></given-names>
</name>
</person-group>
<source><![CDATA[Teaching for Quality Learning at University]]></source>
<year>2007</year>
<edition>2ª</edition>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Open University Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Broadfoot]]></surname>
<given-names><![CDATA[Patricia]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Assessment for lifelong learning: Challenges and choices]]></article-title>
<source><![CDATA[Assessment in Education]]></source>
<year>2002</year>
<volume>9</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>5-7</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Brown]]></surname>
<given-names><![CDATA[Sally]]></given-names>
</name>
<name>
<surname><![CDATA[Glasner]]></surname>
<given-names><![CDATA[Ángela]]></given-names>
</name>
</person-group>
<source><![CDATA[Evaluar en la universidad. Problemasy nuevos enfoques]]></source>
<year>2007</year>
<edition>1a</edition>
<publisher-loc><![CDATA[Madrid ]]></publisher-loc>
<publisher-name><![CDATA[Narcea]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Canales]]></surname>
<given-names><![CDATA[Alejandro]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Docencia: Tensiones estructurales en la valoración de la actividad]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Rueda]]></surname>
<given-names><![CDATA[Mario]]></given-names>
</name>
<name>
<surname><![CDATA[Díaz-Barriga]]></surname>
<given-names><![CDATA[Frida]]></given-names>
</name>
<name>
<surname><![CDATA[Díaz]]></surname>
<given-names><![CDATA[Mónica]]></given-names>
</name>
</person-group>
<source><![CDATA[Evaluar para comprender y mejorar la docencia en la educación superior]]></source>
<year>2003</year>
<page-range>71-76</page-range><publisher-loc><![CDATA[México ]]></publisher-loc>
<publisher-name><![CDATA[Universidad Autónoma MetropolitanaUniversidad Nacional Autónoma de MéxicoUniversidad Autónoma de Baja California]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Collazos]]></surname>
<given-names><![CDATA[César Alberto]]></given-names>
</name>
<name>
<surname><![CDATA[Mendoza]]></surname>
<given-names><![CDATA[Jair]]></given-names>
</name>
<name>
<surname><![CDATA[Ochoa]]></surname>
<given-names><![CDATA[Sergio F]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Mejorar los esquemas de evaluación mediante procesos de colaboración]]></article-title>
<source><![CDATA[Educación y Educadores]]></source>
<year>2007</year>
<volume>10</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>79-88</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Covarrubias]]></surname>
<given-names><![CDATA[Patricia]]></given-names>
</name>
<name>
<surname><![CDATA[Tovar]]></surname>
<given-names><![CDATA[Luisa]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Las representaciones de los estudiantes sobre la evaluación del aprendizaje]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Campos Hernández]]></surname>
<given-names><![CDATA[Miguel Ángel]]></given-names>
</name>
</person-group>
<source><![CDATA[Construcción del conocimiento en el proceso educativo]]></source>
<year>2005</year>
<page-range>265-292</page-range><publisher-name><![CDATA[CESU-UNAM]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Elton]]></surname>
<given-names><![CDATA[Lewis]]></given-names>
</name>
<name>
<surname><![CDATA[Johnston]]></surname>
<given-names><![CDATA[Brenda]]></given-names>
</name>
</person-group>
<source><![CDATA[Assessment in Universities: a critical review of research]]></source>
<year>2002</year>
<publisher-name><![CDATA[LTSN Generic Centre]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Entwistle]]></surname>
<given-names><![CDATA[Noel]]></given-names>
</name>
</person-group>
<source><![CDATA[Promoting deep learning through teaching and assessment: conceptual frameworks and educational contexts]]></source>
<year>2000</year>
<conf-name><![CDATA[ TLRP Conference]]></conf-name>
<conf-loc>Leicester </conf-loc>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Geoff]]></surname>
<given-names><![CDATA[Isaacs]]></given-names>
</name>
</person-group>
<source><![CDATA[Assessment criteria, standards and marking schemes]]></source>
<year>1999</year>
<publisher-name><![CDATA[Teaching and Educational Development InstituteThe University of Queensland]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gómez Roldán]]></surname>
<given-names><![CDATA[Ignacio]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Competencias profesionales: una propuesta de evaluación para las facultades de ciencias administrativas]]></article-title>
<source><![CDATA[Educación y Educadores]]></source>
<year>2005</year>
<volume>8</volume>
<page-range>45-66</page-range></nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gulikers]]></surname>
<given-names><![CDATA[Judith]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Relations Between Student Perceptions of Assessment Authenticity, Study Approaches and Learning Outcomes]]></article-title>
<source><![CDATA[Studies in Educational Evaluation]]></source>
<year>2006</year>
<volume>32</volume>
<page-range>381-400</page-range></nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Herrera-Torres]]></surname>
<given-names><![CDATA[Lucía]]></given-names>
</name>
<name>
<surname><![CDATA[Lorenzo-Quilmes]]></surname>
<given-names><![CDATA[Oswaldo]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Estrategias de aprendizaje en estudiantes universitarios. Un aporte a la construcción del espacio europeo de educación superior]]></article-title>
<source><![CDATA[Educación & Educadores]]></source>
<year>2009</year>
<volume>12</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>75-98</page-range></nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Himmel]]></surname>
<given-names><![CDATA[Erika]]></given-names>
</name>
<name>
<surname><![CDATA[Olivares M.]]></surname>
<given-names><![CDATA[Angélica]]></given-names>
</name>
<name>
<surname><![CDATA[Zabalza]]></surname>
<given-names><![CDATA[Javier]]></given-names>
</name>
</person-group>
<source><![CDATA[Hacia una evaluación educativa. Aprender para evaluar y evaluar para aprender]]></source>
<year>1999</year>
<volume>I</volume>
<edition>1a</edition>
<publisher-loc><![CDATA[Santiago ]]></publisher-loc>
<publisher-name><![CDATA[PUC-Mineduc]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Himmel]]></surname>
<given-names><![CDATA[Erika]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La evaluación de los aprendizajes en la educación superior]]></article-title>
<source><![CDATA[Revista Calidad en la Educación]]></source>
<year>2001</year>
<numero>15</numero>
<issue>15</issue>
</nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LeCompte]]></surname>
<given-names><![CDATA[Margaret]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Analyzing Qualitative Data]]></article-title>
<source><![CDATA[Theory into Practice]]></source>
<year>2000</year>
<volume>39</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>146-154</page-range></nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="book">
<collab>OCDE</collab>
<source><![CDATA[La Educación Superior en Chile]]></source>
<year>2009</year>
<publisher-loc><![CDATA[París ]]></publisher-loc>
<publisher-name><![CDATA[OCDE-BIRD]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="">
<collab>Pontificia Universidad Católica de Valparaíso</collab>
<source><![CDATA[Desarrollo estratégico. Hacia el 2010]]></source>
<year>2005</year>
</nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="">
<collab>Pontificia Universidad Católica de Valparaíso</collab>
<source><![CDATA[Visión institucional de la formación de pregrado]]></source>
<year>2008</year>
</nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ramsden]]></surname>
<given-names><![CDATA[Paul]]></given-names>
</name>
</person-group>
<source><![CDATA[Learning to Teach in Higher Education]]></source>
<year>2007</year>
<edition>2a</edition>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Routledge Falmer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sadler]]></surname>
<given-names><![CDATA[D. Royce]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Evaluation and the Improvement of Academic Learning]]></article-title>
<source><![CDATA[The Journal of Higher Education]]></source>
<year>1983</year>
<volume>54</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>60-79</page-range></nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sadler]]></surname>
<given-names><![CDATA[D. Royce]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Formative assessment and the design of instructional systems]]></article-title>
<source><![CDATA[Instructional Science]]></source>
<year>1989</year>
<volume>18</volume>
<page-range>119-144</page-range></nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sadler]]></surname>
<given-names><![CDATA[D. Royce]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Interpretations of criteria-based assessment and grading in higher education]]></article-title>
<source><![CDATA[Assessment & Evaluation in Higher Education]]></source>
<year>2005</year>
<volume>30</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>175-194</page-range></nlm-citation>
</ref>
<ref id="B27">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sadler]]></surname>
<given-names><![CDATA[D. Royce]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Grade integrity and the representation of academic achievement]]></article-title>
<source><![CDATA[Studies in Higher Education]]></source>
<year>2009</year>
<volume>34</volume>
<numero>7</numero>
<issue>7</issue>
<page-range>807-826</page-range></nlm-citation>
</ref>
<ref id="B28">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Scouller]]></surname>
<given-names><![CDATA[Karen]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The Influence of Assessment Method on Students' Learning Approaches: Multiple Choice Question Examination versus Assignment Essay]]></article-title>
<source><![CDATA[Higher Education]]></source>
<year>1998</year>
<volume>35</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>453-472</page-range></nlm-citation>
</ref>
<ref id="B29">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shepard]]></surname>
<given-names><![CDATA[Lorrie]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The Role of Assessment in a Learning Culture]]></article-title>
<source><![CDATA[Educational Researcher]]></source>
<year>2000</year>
<volume>29</volume>
<numero>7</numero>
<issue>7</issue>
<page-range>4-14</page-range></nlm-citation>
</ref>
<ref id="B30">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Stake]]></surname>
<given-names><![CDATA[Robert]]></given-names>
</name>
</person-group>
<source><![CDATA[Evaluación comprensivay evaluación basada en estándares]]></source>
<year>2006</year>
<edition>1ª</edition>
<publisher-loc><![CDATA[Barcelona ]]></publisher-loc>
<publisher-name><![CDATA[Graó]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B31">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Stiggins]]></surname>
<given-names><![CDATA[Rick]]></given-names>
</name>
</person-group>
<source><![CDATA[Classroom Assessment for Learning: Doing it right-Using it welha ed]]></source>
<year>2007</year>
<publisher-loc><![CDATA[New Jersey ]]></publisher-loc>
<publisher-name><![CDATA[Pearson Education]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B32">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Stobart]]></surname>
<given-names><![CDATA[Gordon]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The Validity of Formative Assessment]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Gardner]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Assessment and Learning]]></source>
<year>2006</year>
<page-range>133-146</page-range><publisher-loc><![CDATA[London ]]></publisher-loc>
<publisher-name><![CDATA[Sage Publications]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B33">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Struyven]]></surname>
<given-names><![CDATA[Katrien]]></given-names>
</name>
<name>
<surname><![CDATA[Dochy]]></surname>
<given-names><![CDATA[Filip]]></given-names>
</name>
<name>
<surname><![CDATA[Janssens]]></surname>
<given-names><![CDATA[Steven]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Students' perceptions about evaluation and assessment in higher education: a review]]></article-title>
<source><![CDATA[Assessment & Evaluation in Higher Education]]></source>
<year>2005</year>
<volume>30</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>325-341</page-range></nlm-citation>
</ref>
<ref id="B34">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Taylor]]></surname>
<given-names><![CDATA[Catherine]]></given-names>
</name>
<name>
<surname><![CDATA[Bobbit Nolen]]></surname>
<given-names><![CDATA[Susan]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[What Does the Psy cometrician's Classroom Look Like? Reframing Assessment Concept in the Context of Learning]]></article-title>
<source><![CDATA[Education Policy Analysis Archives]]></source>
<year>1996</year>
<volume>4</volume>
<numero>17</numero>
<issue>17</issue>
</nlm-citation>
</ref>
<ref id="B35">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Thompson]]></surname>
<given-names><![CDATA[Karen]]></given-names>
</name>
<name>
<surname><![CDATA[Falchikov]]></surname>
<given-names><![CDATA[Nancy]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Full on until the sun comes out: The effects of assessment on students' approaches to studying]]></article-title>
<source><![CDATA[Assessment and Evaluation in Higher Education]]></source>
<year>1998</year>
<volume>23</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>379-390</page-range></nlm-citation>
</ref>
<ref id="B36">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Veslin]]></surname>
<given-names><![CDATA[Jean]]></given-names>
</name>
<name>
<surname><![CDATA[Veslin]]></surname>
<given-names><![CDATA[Odette]]></given-names>
</name>
</person-group>
<source><![CDATA[Corriger des copies. Évaluerpour former]]></source>
<year>1992</year>
<edition>1a</edition>
<publisher-loc><![CDATA[Paris ]]></publisher-loc>
<publisher-name><![CDATA[Hachette]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B37">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wiggins]]></surname>
<given-names><![CDATA[Grant]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The case for authentic assessment]]></article-title>
<source><![CDATA[Practical Assessment, Research & Evaluation]]></source>
<year>1990</year>
<volume>2</volume>
<numero>2</numero>
<issue>2</issue>
</nlm-citation>
</ref>
<ref id="B38">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wiggins]]></surname>
<given-names><![CDATA[Grant]]></given-names>
</name>
</person-group>
<source><![CDATA[Educative Assessment. Designing assessment to inform and improve student performance]]></source>
<year>1998</year>
<edition>1a</edition>
<publisher-loc><![CDATA[San Francisco ]]></publisher-loc>
<publisher-name><![CDATA[Jossey-Bass]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
