<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1657-9267</journal-id>
<journal-title><![CDATA[Universitas Psychologica]]></journal-title>
<abbrev-journal-title><![CDATA[Univ. Psychol.]]></abbrev-journal-title>
<issn>1657-9267</issn>
<publisher>
<publisher-name><![CDATA[Pontificia Universidad Javeriana]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1657-92672015000100021</article-id>
<article-id pub-id-type="doi">10.11144/Javeriana.upsy13-5.pbad</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Pruebas de bondad de ajuste en distribuciones simétricas, ¿qué estadístico utilizar?]]></article-title>
<article-title xml:lang="en"><![CDATA[Goodness of Fit Tests for Symmetric Distributions, which Statistical Should I Use?]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Pedrosa]]></surname>
<given-names><![CDATA[Ignacio]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Juarros-Basterretxea]]></surname>
<given-names><![CDATA[Joel]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Robles-Fernández]]></surname>
<given-names><![CDATA[Adán]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Basteiro]]></surname>
<given-names><![CDATA[Julia]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[García-Cueto]]></surname>
<given-names><![CDATA[Eduardo]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad de Oviedo  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>España</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>03</month>
<year>2015</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>03</month>
<year>2015</year>
</pub-date>
<volume>14</volume>
<numero>1</numero>
<fpage>245</fpage>
<lpage>254</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S1657-92672015000100021&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S1657-92672015000100021&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S1657-92672015000100021&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[El uso de pruebas no paramétricas resulta recomendable cuando los datos a analizar no cumplen los supuestos de normalidad y homocedasticidad. Sin embargo, la suposición de la normalidad de los datos o el empleo de pruebas de bondad de ajuste que no son adecuadas para el tamaño muestral empleado son aspectos habituales. Este hecho implica, en muchas ocasiones, el uso de pruebas estadísticas no ajustadas al tipo de distribución real y, consecuentemente, el establecimiento de conclusiones erróneas. Por ello, en el presente estudio se ha analizado el poder de detección de cinco pruebas de bondad de ajuste (Kolmogorov-Smirnov, Kolmogorov-Smirnov-Lilliefors, Shapiro-Wilk, Anderson-Darling y Jarque-Bera) en distribuciones simétricas con seis tamaños muestrales entre 30 y 1000 participantes generados mediante una simulación Monte Carlo. Los resultados muestran una tendencia conservadora generalizada a medida que se incrementa el tamaño muestral. En cuanto a los tamaños muestrales, las pruebas con un mejor poder de detección de la no normalidad son Kolmogorov-Smirnov-Lilliefors y Anderson-Darling para muestra pequeñas, la prueba de Kolmogorov-Smirnov si se emplean tamaños muestrales medios (200 participantes) y la prueba de Shapiro-Wilk cuando se analizan muestras superiores a 500 participantes. Además, la prueba clásica de Kolmogorov-Smirnov se considera absolutamente ineficaz independientemente del tamaño muestral.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[The use of nonparametric tests is recommended when the data do not meet the assumptions of normality and homoscedasticity. However, the assumptions of normality of the data or the use of goodness of fit tests that are not appropriate for the assessed sample are common aspects. In many cases, this implies the use of statistical tests unadjusted for the real data distribution and, consequently, the establishment of inaccurate conclusions. Therefore, in this paper the detection power of five tests of goodness of fit (Kolmogorov-Smirnov-Lilliefors, Kolmogorov-Smirnov, Shapiro-Wilk, Anderson-Darling and Jarque -Bera) in symmetric distributions is analysed in six sample sizes between 30 and 1000 participants generated by Monte Carlo simulation. Results show a marked conservative tendency as the sample size becomes larger. Regarding sample sizes to detect non-normality: analysing small samples the best results are provided by Kolmogorov-Smirnov-Lilliefors and Anderson-Darling tests, if the sample is medium-sized (200 participants) the Kolmogorov-Smirnov, and when samples are over 500 participants the Shapiro-Wilk test is recommended. In addition, the classic test of Kolmogorov-Smirnov is considered absolutely ineffective regardless the sample size.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[bondad de ajuste]]></kwd>
<kwd lng="es"><![CDATA[distribución normal simétrica]]></kwd>
<kwd lng="es"><![CDATA[tamaño muestral]]></kwd>
<kwd lng="es"><![CDATA[simulación Monte Carlo]]></kwd>
<kwd lng="es"><![CDATA[Kolmogorov-Smirnov]]></kwd>
<kwd lng="en"><![CDATA[goodness of fit]]></kwd>
<kwd lng="en"><![CDATA[symmetric normal distribution]]></kwd>
<kwd lng="en"><![CDATA[sample size]]></kwd>
<kwd lng="en"><![CDATA[Monte Carlo simulation]]></kwd>
<kwd lng="en"><![CDATA[Kolmogorov-Smirnov test]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  <font face="Verdana" size="2">     <p align="center"><font size="4"><b>Pruebas de bondad de ajuste en distribuciones sim&eacute;tricas, &iquest;qu&eacute; estad&iacute;stico utilizar?<sup>*</sup></b></font></p>     <p align="center"><font size="3"><b>Goodness of Fit Tests for Symmetric Distributions, which Statistical Should I Use?</b></font></p>     <p align="center"><b>Ignacio Pedrosa<sup>**</sup>    <br> Joel Juarros-Basterretxea<sup>***</sup>    <br> Ad&aacute;n Robles-Fern&aacute;ndez<sup>****</sup>    <br> Julia Basteiro<sup>*****</sup>    <br> Eduardo Garc&iacute;a-Cueto<sup>******</sup>    <br> </b>Universidad de Oviedo, Espa&ntilde;a</p>     <p><sup>*</sup>Art&iacute;culo de investigaci&oacute;n    ]]></body>
<body><![CDATA[<br> <sup>**</sup>Facultad de Psicolog&iacute;a. Correo electr&oacute;nico:  <a target="_blank" href="mailto:npedrosa@cop.es">npedrosa@cop.es</a>    <br> <sup>***</sup>Facultad de Psicolog&iacute;a. Correo electr&oacute;nico: <a target="_blank" href="mailto:juarrosbasterretxea.j@gmail.com">juarrosbasterretxea.j@gmail.com</a>    <br> <sup>****</sup>Facultad de Psicolog&iacute;a. Correo electr&oacute;nico: <a target="_blank" href="mailto:roblesfernandez.a@gmail.com">roblesfernandez.a@gmail.com</a>    <br> <sup>*****</sup>Facultad de Psicolog&iacute;a. Correo electr&oacute;nico:  <a target="_blank" href="mailto:jlbasteiro@gmail.com">jlbasteiro@gmail.com</a>    <br> <sup>******</sup>Facultad de Psicolog&iacute;a. Correo electr&oacute;nico:  <a target="_blank" href="mailto:cueto@uniovi.es">cueto@uniovi.es</a></p>     <p>Recibido: marzo 24 de 2014 &#124; Revisado: octubre 18 de 2014 &#124; Aceptado: octubre 18 de 2014</p> <hr>     <p align="center"><b>Para citar este art&iacute;culo</b></p>     <p>Pedrosa, I., Juarros-Basterretxea, J., Robles-Fern&aacute;ndez, A., Basteiro, J., &amp; Garc&iacute;a-Cueto, E. (2015). Pruebas de bondad de ajuste en distribuciones sim&eacute;tricas, &iquest;qu&eacute; estad&iacute;stico utilizar? <i>Universitas Psychologica, </i>14(1), 245-254. <a target="_blank" href="http://dx.doi.org/10.11144/Javeriana.upsy13-5.pbad">http://dx.doi.org/10.11144/Javeriana.upsy13-5.pbad</a></p> <hr>     <p><font size="3"><b>Resumen</b></font></p>     <p>El uso de pruebas no param&eacute;tricas resulta recomendable cuando los datos a analizar no cumplen los supuestos de normalidad y homocedasticidad. Sin embargo, la suposici&oacute;n de la normalidad de los datos o el empleo de pruebas de bondad de ajuste que no son adecuadas para el tama&ntilde;o muestral empleado son aspectos habituales. Este hecho implica, en muchas ocasiones, el uso de pruebas estad&iacute;sticas no ajustadas al tipo de distribuci&oacute;n real y, consecuentemente, el establecimiento de conclusiones err&oacute;neas. Por ello, en el presente estudio se ha analizado el poder de detecci&oacute;n de cinco pruebas de bondad de ajuste (Kolmogorov-Smirnov, Kolmogorov-Smirnov-Lilliefors, Shapiro-Wilk, Anderson-Darling y Jarque-Bera) en distribuciones sim&eacute;tricas con seis tama&ntilde;os muestrales entre 30 y 1000 participantes generados mediante una simulaci&oacute;n Monte Carlo. Los resultados muestran una tendencia conservadora generalizada a medida que se incrementa el tama&ntilde;o muestral. En cuanto a los tama&ntilde;os muestrales, las pruebas con un mejor poder de detecci&oacute;n de la no normalidad son Kolmogorov-Smirnov-Lilliefors y Anderson-Darling para muestra peque&ntilde;as, la prueba de Kolmogorov-Smirnov si se emplean tama&ntilde;os muestrales medios (200 participantes) y la prueba de Shapiro-Wilk cuando se analizan muestras superiores a 500 participantes. Adem&aacute;s, la prueba cl&aacute;sica de Kolmogorov-Smirnov se considera absolutamente ineficaz independientemente del tama&ntilde;o muestral.</p>     ]]></body>
<body><![CDATA[<p><b>Palabras clave: </b>bondad de ajuste; distribuci&oacute;n normal sim&eacute;trica; tama&ntilde;o muestral; simulaci&oacute;n Monte Carlo; Kolmogorov-Smirnov</p> <hr>     <p><font size="3"><b>Abstract</b></font></p>     <p>The use of nonparametric tests is recommended when the data do not meet the assumptions of normality and homoscedasticity. However, the assumptions of normality of the data or the use of goodness of fit tests that are not appropriate for the assessed sample are common aspects. In many cases, this implies the use of statistical tests unadjusted for the real data distribution and, consequently, the establishment of inaccurate conclusions. Therefore, in this paper the detection power of five tests of goodness of fit (Kolmogorov-Smirnov-Lilliefors, Kolmogorov-Smirnov, Shapiro-Wilk, Anderson-Darling and Jarque -Bera) in symmetric distributions is analysed in six sample sizes between 30 and 1000 participants generated by Monte Carlo simulation. Results show a marked conservative tendency as the sample size becomes larger. Regarding sample sizes to detect non-normality: analysing small samples the best results are provided by Kolmogorov-Smirnov-Lilliefors and Anderson-Darling tests, if the sample is medium-sized (200 participants) the Kolmogorov-Smirnov, and when samples are over 500 participants the Shapiro-Wilk test is recommended. In addition, the classic test of Kolmogorov-Smirnov is considered absolutely ineffective regardless the sample size.</p>     <p><b>Keywords:</b> goodness of fit; symmetric normal distribution; sample size; Monte Carlo simulation; Kolmogorov-Smirnov test</p> <hr>     <p>Dentro del &aacute;mbito de investigaci&oacute;n aplicado de las ciencias de la salud y de la psicolog&iacute;a en particular, la inmensa mayor&iacute;a de las investigaciones llevadas a cabo en el campo aplicado suelen utilizar pruebas estad&iacute;sticas param&eacute;tricas. Todas ellas (coeficiente de correlaci&oacute;n de Pearson, ANOVA, ANCOVA, prueba de t, estad&iacute;stico Z, an&aacute;lisis factorial, etc.) presuponen la normalidad &mdash;univariada o multivariada&mdash; de las distribuciones de las puntuaciones en la poblaci&oacute;n. La violaci&oacute;n del supuesto de normalidad hace que las interpretaciones de los resultados no sean las que, <i>a priori, </i>se podr&iacute;an deducir del uso de las pruebas en s&iacute; mismas.</p>     <p>Aun siendo cierto que diferentes estudios se&ntilde;alan que muchas de estas pruebas param&eacute;tricas han demostrado ser robustas cuando se violan tanto el supuesto de normalidad como el de homocesdasti-cidad (Finch, 2005; Lemeshko &amp; Lemeshko, 2008), desde hace m&aacute;s de 50 a&ntilde;os los diferentes expertos en metodolog&iacute;a recomiendan el uso de pruebas no param&eacute;tricas cuando los datos sobre los que se trabaja no cumplen dichos supuestos (Zimmerman, 1998).</p>     <p>Sin embargo, la realidad es que cuando se lleva a cabo la investigaci&oacute;n aplicada, la mayor parte de investigadores emplean pruebas param&eacute;tricas, suponiendo habitualmente la normalidad de los datos y sin ning&uacute;n tipo de comprobaci&oacute;n sobre este supuesto (Erceg-Hurn &amp; Mirosevich, 2008; Rom&aacute;o, Delgado, &amp; Costa, 2010). De hecho a la hora de trabajar con datos emp&iacute;ricos, resulta habitual que estos violen el supuesto de normalidad (Choi, 2005; Strasak, Zaman, Marinell, Pfeiffer, &amp; Ulmer, 2007). As&iacute;, ya Micceri (1989) demostr&oacute; c&oacute;mo a pesar de asumir este supuesto, tras examinar 440 conjuntos de datos, ninguno de ellos se ajustaba realmente a una distribuci&oacute;n normal.</p>     <p>Esta es una cuesti&oacute;n que deber&iacute;a estar presente a la hora de iniciar cualquier estudio, ya que las pruebas estad&iacute;sticas citadas anteriormente son de uso frecuente en todo tipo de campos sustantivos de la psicolog&iacute;a a la hora de llevar a cabo la adaptaci&oacute;n de instrumentos de medida (e. g. Pedrosa, Garc&iacute;a-Cueto, Su&aacute;rez-&Aacute;lvarez, &amp; P&eacute;rez S&aacute;nchez, 2012), el estudio del efecto de unas condiciones experimentales sobre una conducta espec&iacute;fica (e. g. Tavares Tadaiesky &amp; Zagury Tourinho, 2012), el an&aacute;lisis de la relaci&oacute;n entre diversas variables (e. g. Su&aacute;rez-&Aacute;lvarez, Campillo-&Aacute;lvarez, Fonseca-Pedrero, Garc&iacute;a-Cueto, &amp; Mu&ntilde;iz, 2013), etc.</p>     <p>En este sentido, como se ha dicho, esta comprobaci&oacute;n se entiende como un paso previo al tratamiento de los datos que en la mayor&iacute;a de ocasiones, no llega a realizarse, ya sea bien al presuponer una robustez a las pruebas que se utilizan, que no siempre poseen, o bien por desconocimiento o desidia del propio investigador. Por el contrario, en aquellas situaciones en donde se comprueba la normalidad de la distribuci&oacute;n, es com&uacute;n el empleo de pruebas de bondad de ajuste de uso generalizado que se encuentran accesibles en los paquetes estad&iacute;sticos de tratamiento de datos m&aacute;s populares.</p>     <p>En alusi&oacute;n a dicho <i>software, </i>cabe destacar el paquete estad&iacute;stico SPSS como uno de los m&aacute;s utilizados dentro del &aacute;rea de las ciencias de la salud de manera global y de la psicolog&iacute;a en particular. Aunque mediante este programa, el estudio de la normalidad puede realizarse aplicando tres pruebas estad&iacute;sticas: Kolmogorov-Smirnov (K-S), la prueba de K-S tras aplicar la correcci&oacute;n de Lilliefors (K-S-L) y Shapiro-Wilk (S-W), resulta tambi&eacute;n frecuente que la primera de ellas sea la m&aacute;s utilizada sin que el investigador conozca, en numerosas ocasiones, las otras pruebas alternativas que el <i>software </i>ofrece y que, como se muestran m&aacute;s adelante, presentan un poder de detecci&oacute;n m&aacute;s elevado que la prueba de K-S.</p>     ]]></body>
<body><![CDATA[<p>As&iacute; pues, la comprobaci&oacute;n del supuesto de normalidad presenta una importancia destacada, ya que como indican Steinskog, Tj0stheim y Kvam-st0 (2007), muchos procedimientos estad&iacute;sticos requieren, o funcionan mejor, cuando el supuesto de normalidad se cumple, lo que influye directamente sobre las inferencias y estimaciones de los resultados obtenidos.</p>     <p>De este modo por ejemplo, el trabajo de Schucany y Ng (2006) muestra c&oacute;mo la selecci&oacute;n de las pruebas estad&iacute;sticas adecuadas y ajustadas al tipo de distribuci&oacute;n real con que se trabaja, provoca una reducci&oacute;n del error tipo I. Por tanto, la comprobaci&oacute;n del supuesto de normalidad y la posterior elecci&oacute;n de las pruebas estad&iacute;sticas que se deben emplear implicar&iacute;an a nivel pr&aacute;ctico, consecuencias destacables si se piensa por ejemplo, en la aplicaci&oacute;n de un tratamiento m&eacute;dico o psicol&oacute;gico.</p>     <p>Asumiendo entonces la relevancia del estudio de la normalidad en la investigaci&oacute;n te&oacute;rica y emp&iacute;rica, los trabajos en torno a las pruebas de bondad de ajuste han sido numerosos, desarroll&aacute;ndose m&aacute;s de 40 estad&iacute;sticos diferentes (Henderson, 2006; Yazici &amp; Yolacan, 2007).</p>     <p>En esta l&iacute;nea, se han llevado a cabo multitud de investigaciones en las que se analiza la eficacia de las diferentes pruebas de normalidad en base a una amplia gama de caracter&iacute;sticas como por ejemplo, el tipo de distribuci&oacute;n, el tama&ntilde;o muestral o la variaci&oacute;n de los par&aacute;metros muestrales, entre otras (e. g., Frey, 2009; Garc&iacute;a-Cueto, Gallo &amp; Miranda, 1998; Meintanis &amp; Hl&aacute;vka, 2010; Shin, Jung, Jeong, &amp; Heo, 2012; Zghoul, 2010). Estos trabajos han demostrado c&oacute;mo el poder para detectar desviaciones de la normalidad de las diferentes pruebas puede ser significativamente diferente dependiendo de la naturaleza de la no normalidad sobre la que se trabaje (Rom&aacute;o, <i>et al., </i>2010).</p>     <p>Dentro de esta variedad de pruebas existentes, la prueba de K-S es una de las m&aacute;s cl&aacute;sicas en el estudio de la normalidad y en esencia, se basa en el concepto de la funci&oacute;n de distribuci&oacute;n emp&iacute;rica y sus propiedades como aproximaci&oacute;n de la funci&oacute;n de distribuci&oacute;n te&oacute;rica cuando se trabaja sobre variables continuas y se conocen todos los par&aacute;metros muestrales. As&iacute;, esta prueba compara la funci&oacute;n de distribuci&oacute;n te&oacute;rica con la emp&iacute;rica y calcula un valor de discrepancia m&aacute;xima entre ambas distribuciones, proporcionando un valor <i>p, </i>asociado a la probabilidad de obtener una distribuci&oacute;n que discrepe tanto como la observada si verdaderamente se hubiera obtenido una muestra aleatoria, de tama&ntilde;o n, de una distribuci&oacute;n normal (Chakravarti, Laha, &amp; Roy, 1967).</p>     <p>Sin embargo, esta prueba cuenta con ciertas limitaciones que restringen su aplicaci&oacute;n, entre las que destacan el hecho de que si los par&aacute;metros de posici&oacute;n, escala y forma de la distribuci&oacute;n se calculan a partir de los datos, la regi&oacute;n cr&iacute;tica de la prueba no es v&aacute;lida, por lo que estos deben determinarse mediante simulaci&oacute;n. Adem&aacute;s la prueba muestra una mayor sensibilidad en el centro de la distribuci&oacute;n que en las colas (Thadewald &amp; Buning, 2007). Por otra parte, a estas dos limitaciones hay que a&ntilde;adir su tendencia conservadora, provocando que la hip&oacute;tesis nula se acepte en un n&uacute;mero excesivamente elevado de ocasiones (Shahabuddin, Ibrahim, &amp; Jemain, 2009; Steinskog, <i>et al., </i>2007).</p>     <p>Con la intenci&oacute;n de mejorar la prueba de K-S, Lilliefors (1967) propuso una modificaci&oacute;n de la misma (K-S-L) sustentada sobre los mismos principios estad&iacute;sticos, pero espec&iacute;fica para aquellos casos en donde la media y la varianza son desconocidas. De este modo, se evita el efecto que provoca, como ocurre en el caso de K-S, la estimaci&oacute;n de los par&aacute;metros de la muestra (Steinskog, <i>et al., </i>2007) y se recomienda por tanto, como el estad&iacute;stico m&aacute;s apropiado para dichos casos (Oztuna, Elhan, &amp; Tuccar, 2006).</p>     <p>En &uacute;ltimo lugar, la prueba de Shapiro-Wilk (Shapiro &amp; Wilk, 1965) es una de las m&aacute;s consolidadas y con mayor potencia estad&iacute;stica entre las existentes actualmente (Arcones &amp; Wang, 2006). Su fundamento estad&iacute;stico est&aacute; basado en una gr&aacute;fica de probabilidad en la que se considera la regresi&oacute;n de las observaciones sobre los valores esperados de la distribuci&oacute;n hipotetizada, en donde su estad&iacute;stico <i>W </i>representa el cociente de dos estimaciones de la varianza de una distribuci&oacute;n normal.</p>     <p>Esta prueba ha demostrado de manera general, resultados adecuados en  comparaci&oacute;n a las pruebas cl&aacute;sicas (Arcones &amp; Wang, 2006), pero especialmente cuando se trabaja con distribuciones de colas cortas (Thadewald &amp; Buning, 2007) y con un tama&ntilde;o muestral inferior a 30, ya que muestra una alta variabilidad cuando se modifican tanto la simetr&iacute;a como el tama&ntilde;o muestral de la distribuci&oacute;n, especialmente entre 20 y 50 participantes (Yazici &amp; Yolacan, 2007).</p>     <p>Por otro lado, diferentes investigaciones han se&ntilde;alado la adecuada potencia estad&iacute;stica de otras dos pruebas de bondad de ajuste que, si bien no est&aacute;n implementadas en muchos de los programas estad&iacute;sticos m&aacute;s populares, s&iacute; resulta f&aacute;cil obtener el <i>software </i>para su aplicaci&oacute;n a trav&eacute;s de la web, como son las pruebas de Jarque-Bera (J-B) y AndersonDarling (A-D).</p>     ]]></body>
<body><![CDATA[<p>La prueba de J-B se formula bajo la hip&oacute;tesis nula de normalidad de los residuos, siguiendo una distribuci&oacute;n %<sup>2</sup> con dos grados de libertad, al derivar esta de la suma de cuadrados de dos normales estandarizadas asint&oacute;ticamente independientes (Jarque &amp; Bera, 1987). Esta prueba ha demostrado una alta consistencia general, pero especialmente cuando se trabaja con muestras grandes y distribuciones sim&eacute;tricas y de colas largas (Thadewald &amp; Buning, 2007; Yazici &amp; Yolacan, 2007).</p>     <p>Ligada a esta prueba, se ha desarrollado una correcci&oacute;n de la misma (Urz&uacute;a, 1996), sin embargo, se ha demostrado que esta no mejora de manera significativa la potencia estad&iacute;stica de la prueba cl&aacute;sica de Jarque-Bera (Thadewald &amp; Buning, 2007).</p>     <p>Finalmente, la prueba de Anderson-Darling supone una modificaci&oacute;n del test de Cramervon Mises, que se basa en la diferencia de cuadrados entre las distribuciones pero, en su caso, otorga una mayor relevancia a los datos existentes en las colas de la distribuci&oacute;n (Farrel &amp; Rogers-Stewart, 2006). As&iacute;, diferentes autores han se&ntilde;alado esta prueba como la m&aacute;s potente estad&iacute;sticamente (Arshad, Rasool &amp; Ahmad, 2003; Shahabuddin, <i>et al., </i>2009) cuando se alude a pruebas basadas en las funciones de distribuci&oacute;n emp&iacute;ricas (EDF; Dufour, Farhat, Gardiol, &amp; Khalaf, 1998), destacando respecto a las dem&aacute;s, como ocurr&iacute;a con J-B, cuando se trabaja con distribuciones sim&eacute;tricas y cuando la muestra tiende a aumentar (Yazici &amp; Yolacan, 2007).</p>     <p>A pesar de que, como se ha comentado, existen diversas caracter&iacute;sticas que afectan al poder de detecci&oacute;n de estas pruebas, en el presente estudio &uacute;nicamente se ha valorado la variaci&oacute;n del tama&ntilde;o muestral por ser precisamente la variable a la que el investigador otorga mayor relevancia en los estudios aplicados en psicolog&iacute;a en los que, generalmente, las variables siguen distribuciones normales y donde, por regla general, el investigador no llega a analizar el resto de variables que definen a la propia distribuci&oacute;n.</p>     <p>As&iacute; pues, el objetivo del presente trabajo es comprobar la precisi&oacute;n de las pruebas estad&iacute;sticas para la comprobaci&oacute;n de la normalidad de los datos m&aacute;s utilizados en el campo de la psicolog&iacute;a cuando, bajo unos par&aacute;metros de distribuci&oacute;n est&aacute;ndar, se modifica el tama&ntilde;o muestral de las distribuciones. Con ello se pretende determinar qu&eacute; pruebas estad&iacute;sticas resultan m&aacute;s adecuadas para cada caso particular. En este sentido, se analiza en qu&eacute; medida las diferentes pruebas cumplen el error tipo I, de modo que si se trabajase sobre distribuciones normales a un nivel de confianza del 95%, deber&iacute;a rechazarse la hip&oacute;tesis nula exactamente en un 5% de los casos, pudiendo as&iacute; establecer qu&eacute; pruebas son m&aacute;s conservadoras y liberales en funci&oacute;n del tama&ntilde;o muestral.</p>     <p>El hecho de seleccionar &uacute;nicamente este nivel de confianza se debe a que, en primer lugar, es el nivel m&aacute;s habitual a la hora de realizar investigaci&oacute;n aplicada y por otro lado, a que elevar el nivel de confianza al 99% no se entiende como recomendable debido al riesgo de incrementar notablemente el error tipo II y aceptar todas las distribuciones como normales.</p>     <p>Adem&aacute;s, se pretender comprobar la consistencia en la detecci&oacute;n de la prueba K-S-L y S-W en funci&oacute;n del programa estad&iacute;stico empleado.</p>     <p>Para ello, se han empleado las cinco pruebas estad&iacute;sticas previamente definidas en base a los criterios ya citados. As&iacute;, se considera relevante analizar la precisi&oacute;n de las pruebas de K-S, K-S-L y Shapiro-Wilk por formar parte del paquete estad&iacute;stico con mayor difusi&oacute;n dentro del &aacute;mbito psicol&oacute;gico y por otro lado, las pruebas de Anderson-Darling y Jarque-Bera porque, siendo f&aacute;ciles de obtener y aplicar estad&iacute;sticamente, ambas han demostrado resultados muy positivos cuando se trabaja con distribuciones gaussianas (Thadewald &amp; Buning, 2007; Yazici &amp; Yolacan, 2007) como es el caso del presente trabajo.</p>     <p><font size="3"><b>Material y m&eacute;todo</b></font></p>     <p><b><i>Material</i></b></p>     ]]></body>
<body><![CDATA[<p>Con el objetivo de analizar el comportamiento de las diferentes pruebas de bondad de ajuste seleccionadas en el presente estudio en funci&oacute;n de los diferentes tama&ntilde;os muestrales, se dise&ntilde;&oacute; un experimento de simulaci&oacute;n mediante el m&eacute;todo Monte Carlo.</p>     <p>Se generaron un total de 1<sub>,</sub>880,000 datos, divididos en 6000 muestras (1000 r&eacute;plicas por cada tama&ntilde;o muestral), los cuales variaron desde 30 sujetos -con el objetivo de comprobar el funcionamiento de las diferentes pruebas en grupos peque&ntilde;os&mdash; hasta un tama&ntilde;o muestral de 1000 participantes, pasando por 50, 100, 200 y 500.</p>     <p>El hecho de establecer en 1000 sujetos el tama&ntilde;o muestral m&aacute;ximo se debe a que se ha demostrado que la distribuci&oacute;n de la probabilidad asociada al estad&iacute;stico de contraste es estable cuando se trabaja con una muestra superior a este n&uacute;mero de participantes (Steinskog, <i>et al., </i>2007).</p>     <p>Todas las muestras simuladas siguieron una distribuci&oacute;n normal estandarizada (&mu;=0 y &sigma;=1), variando exclusivamente en su tama&ntilde;o.</p>     <p><b><i>M&eacute;todo</i></b></p>     <p>La generaci&oacute;n de los datos se llev&oacute; a cabo bajo las condiciones de normalidad y los estad&iacute;sticos descriptivos anteriormente expuestos. Para ello, se emple&oacute; el m&eacute;todo de simulaci&oacute;n Monte Carlo mediante el software Multivar (Aguinis, 1994).</p>     <p>Una vez simulados los datos, se aplicaron las cinco pruebas de normalidad anteriormente especificadas en cada uno de los seis tama&ntilde;os muestrales generados con la finalidad de comprobar el porcentaje de veces que cada una de ellas rechazaba la hip&oacute;tesis nula de normalidad de las distribuciones. Al analizar los datos a un nivel de confianza determinado, se ha tenido en cuenta el error m&aacute;ximo para el c&aacute;lculo del intervalo confidencial.</p>     <p><font size="3"><b>An&aacute;lisis de datos</b></font></p>     <p>Las diferentes pruebas estad&iacute;sticas fueron ejecutadas mediante el paquete estad&iacute;stico SPSS, el cual ofrece la posibilidad de aplicar las pruebas de Shapiro-Wilk, Kolmogorov-Smirnov y Kolmogorov-Smirnov una vez aplicada la correcci&oacute;n de Lilliefors.</p>     <p>Por otro lado, las pruebas de Anderson-Darling y Jarque-Bera se utilizaron mediante la macro XLStat habilitada para el programa Microsoft Excel.</p>     ]]></body>
<body><![CDATA[<p>De manera a&ntilde;adida, tambi&eacute;n mediante esta macro, se aplicaron las pruebas K-S-L y S-W con el objetivo de replicar los resultados con los obtenidos mediante el SPSS, cuya sintaxis inform&aacute;tica es ciega para el usuario y los programas fuente inaccesibles.</p>     <p><font size="3"><b>Resultados</b></font></p>     <p>Tras generar las 6000 muestras mediante la simulaci&oacute;n y aplicar las pruebas estad&iacute;sticas previamente explicitadas, se calcul&oacute; el porcentaje de veces que cada prueba rechazaba la hip&oacute;tesis nula en cada tama&ntilde;o muestral. Puesto que en el estudio se ha asumido un nivel de confianza de 95%, el poder de detecci&oacute;n de las pruebas ser&aacute; m&aacute;s adecuado cuando el error tipo I se aproxime al 5%.</p>     <p>En la <a href="#t1">Tabla 1</a> se muestran, en primer lugar y en letra cursiva, el porcentaje de rechazos de la hip&oacute;tesis nula en las pruebas estad&iacute;sticas de Shapiro-Wilk, Anderson-Darling, Kolmogorov-Smirnov-Liliefors y Jarque-Bera mediante el <i>software </i>XLStat. A continuaci&oacute;n, se pueden observar los resultados obtenidos mediante el programa estad&iacute;stico SPSS empleando las pruebas de Kolmogorov-Smirnov-Liliefors, Kolmogorov-Smirnov y Shapiro-Wilk.</p>     <center><a name="t1"><img src="img/revistas/rups/v14n1/v14n1a21t1.jpg"></a></center>     <p>Adem&aacute;s, se han se&ntilde;alado en negrita aquellos casos en los que, para cada tama&ntilde;o muestral analizado, se ha alcanzado el mejor poder de detecci&oacute;n de todas las pruebas utilizadas.</p>     <p>Como previamente se ha expuesto, al analizar los datos a un nivel de confianza determinado, se ha calculado el intervalo confidencial en torno a la proporci&oacute;n obtenida y se ha comprobado de este modo, si el porcentaje de rechazos del error tipo I por las diferentes pruebas de bondad de ajuste es el adecuado teniendo en cuenta el error m&aacute;ximo de estimaci&oacute;n. En este caso, el <i>E </i>= 0.014 por lo que, debido a la m&iacute;nima modificaci&oacute;n que realmente produce sobre las proporciones de rechazo al nivel de las cent&eacute;simas, se decidi&oacute; prescindir del intervalo confidencial.</p>     <p>Si se observan los resultados de la prueba de K-S, se comprueba que el uso de este estad&iacute;stico conlleva la aceptaci&oacute;n de la hip&oacute;tesis nula en todos los tama&ntilde;os muestrales analizados. Inicialmente se detect&oacute; un funcionamiento an&oacute;malo de esta prueba, ya que la hip&oacute;tesis de normalidad se aceptaba en todos los casos excepto en el tama&ntilde;o muestral de 500 participantes, en donde se rechazaba en 1.9% de ocasiones. Debido a la importante diferencia respecto al resto de muestras analizadas y con el objetivo de comprobar si estos resultados se deb&iacute;an al efecto del artefacto con que se simularon las muestras, se decidi&oacute; generar nuevamente la totalidad de muestras con un software diferente &mdash;empleando el propio XLStat&mdash; para posteriormente probar de nuevo el ajuste de la distribuci&oacute;n a la normal. Los resultados, como se puede comprobar en la Tabla 1, muestran que la prueba K-S no permite rechazar la hip&oacute;tesis nula en ning&uacute;n caso, desapareciendo as&iacute; la citada anomal&iacute;a.</p>     <p><font size="3"><b>Discusi&oacute;n y conclusiones</b></font></p>     <p>Analizando cada una de las pruebas estad&iacute;sticas empleadas se pueden obtener  diferentes conclusiones que en algunos casos difieren respecto a los trabajos hasta ahora publicados.</p>     ]]></body>
<body><![CDATA[<p>En primer lugar se confirma una de las principales limitaciones de la prueba de K-S como es su tendencia excesivamente conservadora, al igual que se ha demostrado en trabajos precedentes, provocando que la hip&oacute;tesis nula se acepte en la totalidad de las ocasiones (Shahabuddin, <i>et al., </i>2009; Steinskog, <i>et al., </i>2007).</p>     <p>Esta cuesti&oacute;n, como se apuntaba en la parte introductoria, supone un problema relevante ya que dentro del &aacute;mbito psicol&oacute;gico, esta es una de las pruebas m&aacute;s utilizadas tanto por ser una de las m&aacute;s cl&aacute;sicas como, fundamentalmente, por estar implementada en el programa estad&iacute;stico SPSS. Esta cuesti&oacute;n conlleva, como ya se ha comentado, implicaciones directas en cuanto a las pruebas estad&iacute;sticas empleadas para el tratamiento de los datos y las conclusiones de estas derivadas. Por ello, se puede concluir que a pesar de su amplio uso y su f&aacute;cil accesibilidad, constituye la prueba estad&iacute;stica menos adecuada para comprobar la normalidad de las distribuciones en todos los casos.</p>     <p>La prueba de K-S-L surgi&oacute; en su momento como una mejora respecto al estad&iacute;stico K-S (Steinskog, <i>et al., </i>2007). A pesar de seguir mostrando una tendencia conservadora, como ocurre en el caso de K-S, esta prueba s&iacute; permite rechazar la hip&oacute;tesis nula en un porcentaje determinado de casos en funci&oacute;n del tama&ntilde;o muestral. De manera general, se observa como esta tendencia conservadora se incrementa a medida que aumenta el n&uacute;mero de participantes, agudiz&aacute;ndose esta en el caso de emplear el programa XLStat, excepto en muestras de tama&ntilde;o superior a 500 participantes.</p>     <p>Si se alude a la prueba de S-W, los resultados corroboran el hecho de que su poder de detecci&oacute;n es superior respecto a las pruebas cl&aacute;sicas citadas en los p&aacute;rrafos previos, aproxim&aacute;ndose en mayor medida al 5% de casos rechazados esperado de manera general (Arcones &amp; Wang, 2006).</p>     <p>Sin embargo, esta prueba muestra su mejor poder de detecci&oacute;n en muestras de 50 participantes y no en muestras peque&ntilde;as como se&ntilde;alan algunos trabajos previos (Yazici &amp; Yolacan, 2007) siendo de hecho, la m&aacute;s liberal a la hora de analizar tama&ntilde;os muestrales reducidos (menores de 50) que, aunque no muestra los mejores resultados, s&iacute; cuenta con un poder de detecci&oacute;n razonable. Por otra parte, contrariamente a lo esperado, es la prueba que presenta un mejor funcionamiento cuando la muestra tiende a incrementar su tama&ntilde;o, destacando como el mejor estad&iacute;stico cuando se analizan muestras a partir de 500 participantes.</p>     <p>En cuanto al estad&iacute;stico de J-B, este solo muestra un alto poder de detecci&oacute;n en tama&ntilde;os muestrales en torno a 200 participantes, siendo excesivamente conservador en todos los casos restantes, incluso m&aacute;s que la prueba K-S-L. Adem&aacute;s, los resultados no se ajustan a lo esperado en cuanto a que resultan contrarios a lo expuestos en trabajos precedentes, los cuales destacan como principal caracter&iacute;sticas su alta consistencia general, especialmente en muestras sim&eacute;tricas como es el presente caso (Tha-dewald &amp; Buning, 2007; Yazici &amp; Yolacan, 2007), sin destacar como la mejor prueba en ning&uacute;n caso.</p>     <p>En &uacute;ltimo lugar, respecto a la prueba A-D, los resultados muestran c&oacute;mo esta es la mejor prueba cuando se analizan distribuciones sim&eacute;tricas y de tama&ntilde;o peque&ntilde;o (n=30). Sumado a esto, los datos concuerdan con trabajos que han se&ntilde;alado esta prueba como la m&aacute;s potente a nivel estad&iacute;stico (Arshad, <i>et al., </i>2003; Shahabuddin, <i>et al., </i>2009) ya que de manera general, tiende a presentar un mejor poder de detecci&oacute;n en todos los casos, exceptuando &uacute;nicamente aquellos en los que la muestra es excesivamente grande, en donde contin&uacute;a la tendencia general de incrementar su car&aacute;cter conservador.</p>     <p>Teniendo en cuenta ambos programas estad&iacute;sticos, las pruebas que ofrece el software SPSS presentan, pr&aacute;cticamente en su totalidad, una tendencia m&aacute;s conservadora respecto a los resultados ofrecidos por la aplicaci&oacute;n XLStat, tendiendo a aceptar as&iacute; la hip&oacute;tesis nula en un mayor n&uacute;mero de ocasiones.</p>     <p>En primer lugar, teniendo en cuenta todos estos resultados de manera global, cabe destacar que todas las pruebas incrementan su tendencia conservadora a medida que aumenta el tama&ntilde;o de la muestra, reduci&eacute;ndose as&iacute; el n&uacute;mero de casos en que se rechaza la hip&oacute;tesis nula.</p>     <p>De manera espec&iacute;fica, se ha comprobado que las pruebas de J-B y K-S no muestran una capacidad de detecci&oacute;n adecuada independientemente del tama&ntilde;o muestral. En el caso de esta &uacute;ltima, los resultados son especialmente preocupantes, puesto que se trata de una de las pruebas m&aacute;s empleadas a nivel general y el hecho de aceptar pr&aacute;cticamente en todos los casos, la hip&oacute;tesis nula, acarrea directamente el uso inadecuado de pruebas estad&iacute;sticas param&eacute;tricas teniendo que tener especial cuidado con las conclusiones derivadas del estudio.</p>     ]]></body>
<body><![CDATA[<p>En funci&oacute;n del tama&ntilde;o muestral analizado, las pruebas de K-S-L y A-D son las que muestran una mejor capacidad de detecci&oacute;n en muestras peque&ntilde;as, aproxim&aacute;ndose, en mayor medida al 5% esperado. En cuanto a tama&ntilde;os muestrales medios (200 participantes) se considera la prueba de K-S-L como las m&aacute;s adecuada. Por &uacute;ltimo, cuando se analizan muestras de gran tama&ntilde;o (superiores a 500 participantes), se considera la prueba de S-W como la mejor para poner a prueba la hip&oacute;tesis nula y comprobar el ajuste de los datos a la distribuci&oacute;n normal.</p>     <p>Adem&aacute;s, globalmente, la prueba de S-W ha demostrado ser una de las m&aacute;s consistentes a la variaci&oacute;n muestral, al contar con un poder de detecci&oacute;n razonable y muy cercano al 5% esperado cuando se modifica el tama&ntilde;o muestral.</p>     <p>Por otro lado, respecto al software empleado, a pesar de ser un programa de uso sencillo y generalizado, el SPSS ha demostrado una tendencia especialmente conservadora, en este caso respecto al XLStat, lo que conlleva, como ya se ha desarrollado, una aceptaci&oacute;n de la hip&oacute;tesis nula en un mayor n&uacute;mero de casos provocando en muchos casos un uso indebido de pruebas estad&iacute;sticas param&eacute;tricas. De hecho, si se analizan todos los tama&ntilde;os muestrales dentro del programa SPSS, este solo presenta en dos ocasiones las pruebas estad&iacute;sticas con un mejor poder de detecci&oacute;n, en los casos de las pruebas S-W y K-S-L cuando se cuenta con 50 y 200 participantes, respectivamente.</p>     <p>Esta cuesti&oacute;n pone de relevancia el hecho de que los resultados deber&iacute;an ser completamente independientes del programa estad&iacute;stico empleado, puesto que se parte de un estad&iacute;stico claramente definido y se emplean sobre &eacute;l los mismos datos en ambos casos. Por tanto, esta discrepancia en los resultados obtenidos hace pensar que la aplicaci&oacute;n del estad&iacute;stico difiere en funci&oacute;n del <i>software, </i>siendo imposible comprobar su c&aacute;lculo por la falta de transparencia citada previamente en cuanto a la sintaxis empleada.</p>     <p>Como conclusi&oacute;n, se considera esencial la elecci&oacute;n tanto del programa estad&iacute;stico que se desea utilizar para el an&aacute;lisis estad&iacute;stico como principalmente, de la prueba estad&iacute;stica que se debe utilizar en funci&oacute;n del tama&ntilde;o muestral con que se lleve a cabo la investigaci&oacute;n. En el caso espec&iacute;fico de la prueba de bondad de ajuste, se entiende como un problema el hecho de que uno de los paquetes estad&iacute;sticos m&aacute;s generalizados aporte una prueba estad&iacute;stica que no presenta una consistencia m&iacute;nimamente razonable.</p>     <p>De cara a futuros trabajos en esta l&iacute;nea de investigaci&oacute;n, se entiende como importante el hecho de calcular, adem&aacute;s de la capacidad de detecci&oacute;n, la potencia estad&iacute;stica de cada una de las pruebas de bondad de ajuste, as&iacute; como su comportamiento en funci&oacute;n del tipo de distribuci&oacute;n.</p> <hr>     <p><font size="3"><b>Referencias</b></font></p>     <!-- ref --><p>Aguinis, H. (1994). A quickbasic program for generating correlated multivariate random normal scores. <i>Educational and Psychological Measurement, </i>54(3), 687-689.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000090&pid=S1657-9267201500010002100001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>Arcones, M. A., &amp; Wang, Y. (2006). Some new tests for normality based on  U-processes. <i>Statistics and Probability Letters, 76, </i>69-82. <a target="_blank" href="http://dx.doi.org/10.1016/j.spl.2005.07.003">http://dx.doi.org/10.1016/j.spl.2005.07.003</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000092&pid=S1657-9267201500010002100002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Arshad, M., Rasool, M.T., &amp; Ahmad, M.I. (2003). Anderson Darling and modified Anderson Darling tests for Generalized Pareto Distribution. <i>Pakistan Journal of Applied Sciences, </i>3(2), 85-88.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000093&pid=S1657-9267201500010002100003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>Chakravarti, I.M., Laha, R.G., &amp; Roy, J. (1967). Kolmogorov-Smirnov (K-S) test. En <i>Handbook of Methods of Applied Statistics, Volume I </i>(pp. 392394). New York: Wiley.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000095&pid=S1657-9267201500010002100004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>Dufour, J.M., Farhat, A., Gardiol, L., &amp; Khalaf, L. (1998). Simulation-based finite sample normality tests in linear regressions. <i>The Econometrics Journal, </i>1(1), 154-173.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000097&pid=S1657-9267201500010002100005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>Erceg-Hurn, D. M., &amp; Mirosevich, V. M. (2008). Modern robust statistical methods: an easy way to maximize the accuracy and power of your research. <i>The American psychologist, </i>63(7), 591-601.  <a target="_blank" href="http://dx.doi.org/10.1037/0003066X.63.7.591">http://dx.doi.org/10.1037/0003066X.63.7.591</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000099&pid=S1657-9267201500010002100006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Farrell, P.J., &amp; Rogers-Stewart, K. (2006). Comprehensive study of tests for normality and symmetry: extending the Spiegelhalter test. <i>Journal of Statistical Computation and Simulation, </i>76(9), 803-816. <a target="_blank" href="http://dx.doi.org/10.1080/10629360500109023">http://dx.doi.org/10.1080/10629360500109023</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000100&pid=S1657-9267201500010002100007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Finch, H. (2005). Comparison of the performance of nonparametric and parametric MANOVA test statistics when assumptions are violated. <i>Methodology, </i>1(1), 27-38.  <a target="_blank" href="http://dx.doi.org/10.1027/16141881.1.1.27">http://dx.doi.org/10.1027/16141881.1.1.27</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000101&pid=S1657-9267201500010002100008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Frey, J. (2009). Unbiased goodness-of-fit tests. <i>Journal of Statistical Planning and Inference, 139, </i>3690-3697. <a target="_blank" href="http://dx.doi.org/10.1016/j.jspi.2009.04.017">http://dx.doi.org/10.1016/j.jspi.2009.04.017</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000102&pid=S1657-9267201500010002100009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Garc&iacute;a-Cueto, E., Gallo P., &amp; Miranda, R. (1998). Bondad de ajuste en el an&aacute;lisis factorial confirmatorio. <i>Psicothema, 10, </i>717-724.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000103&pid=S1657-9267201500010002100010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>Henderson, A. R. (2006). Testing experimental data for univariate normality, <i>Clinica Chimica Acta, </i>366(1,2), 112-129.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000105&pid=S1657-9267201500010002100011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>Jarque, C.M., &amp; Bera, A. K. (1987). A test for normality of observations and regression residuals. <i>International Statistical Review, 55, </i>163-172. <a target="_blank" href="http://dx.doi.org/10.2307/1403192">http://dx.doi.org/10.2307/1403192</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000107&pid=S1657-9267201500010002100012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Lemeshko, B., &amp; Lemeshko, S. (2008). Power and robustness of criteria used to verify the homogeneity of means. <i>Measurement Techniques, 51 </i>(9), 950-959. <a target="_blank" href="http://dx.doi.org/10.1007/s11018-008-9157-3">http://dx.doi.org/10.1007/s11018-008-9157-3</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000108&pid=S1657-9267201500010002100013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Lilliefors, H. (1967). On the Kolmogorov-Smirnov test for normality with mean and variance unknown. <i>Journal of the American Statistical Association, </i>62(318), 399-402. <a target="_blank" href="http://dx.doi.org/10.2307/2283970">http://dx.doi.org/10.2307/2283970</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000109&pid=S1657-9267201500010002100014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Meintanis, S.G., &amp; Hl&aacute;vka, Z. (2010). Goodness-of-Fit Tests for Bivariate and Multivariate Skew-Normal Distributions. <i>Scandinavian Journal of Statistics, 37, </i>701-714.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000110&pid=S1657-9267201500010002100015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>Micceri, T. (1989). The unicorn, the normal curve, and other improbable creatures. <i>Psychological Bulletin, 105, </i>156-166.  <a target="_blank" href="http://dx.doi.org/10.1037/0033-2909.105.1.156">http://dx.doi.org/10.1037//0033-2909.105.1.156</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000112&pid=S1657-9267201500010002100016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Oztuna, D., Elhan, A.H., &amp; Tuccar, E. (2006). Investigation of four different normality tests in terms of type I. Error rate and power under different distributions. <i>Turkish Journal of Medical Sciences, 36</i>(3), 171-176.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000113&pid=S1657-9267201500010002100017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>Pedrosa, I., Garc&iacute;a-Cueto, E., Su&aacute;rez-Alvarez, J., &amp; P&eacute;rez S&aacute;nchez, B. (2012). Adaptaci&oacute;n espa&ntilde;ola de una Escala de Apoyo Social percibido para deportistas. <i>Psicothema, 24</i>(3), 470-476.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000115&pid=S1657-9267201500010002100018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>Rom&aacute;o, X., Delgado, R., &amp; Costa, A. (2010). An empirical power comparison of univariate goodness-of-fit tests for normality. <i>Journal of Statistical Computation and Simulation, </i>80(5), 545-591.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000117&pid=S1657-9267201500010002100019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>Schucany, W.R., &amp; Ng, H.K.T. (2006). Preliminary goodness-of-fit tests for normality do not validate the one-sample Student t. <i>Communications in Statistics, Theory and Methods, 35, </i>2275-2286.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000119&pid=S1657-9267201500010002100020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>Shahabuddin, F.A.A., Ibrahim, K., &amp; Jemain, A.A. (2009). On the Comparison of Several Goodness of Fit tests under Simple Random Sampling and Ranked Set Sampling. <i>World Academy of Science, Engineering and Technology, 54, </i>77-80.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000121&pid=S1657-9267201500010002100021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     ]]></body>
<body><![CDATA[<!-- ref --><p>Shapiro, S.S., &amp; Wilk, M.B. (1965). An analysis of variance test for normality (complete sampies). <i>Biometrika </i>52(3,4), 591-611.  <a target="_blank" href="http://dx.doi.org/10.2307/2333709">http://dx.doi.org/10.2307/2333709</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000123&pid=S1657-9267201500010002100022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Shin, H., Jung, Y., Jeong, C., &amp; Heo, J.H. (2012). Assessment of modified Anderson-Darling test statistics for the generalized extreme value and generalized logistic distributions. <i>Stochastic Environmental Research and Risk Assessment, 26, </i>105-114.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000124&pid=S1657-9267201500010002100023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>Steinskog, D.J., Tj0stheim, D.B., &amp; Kvamst0, N.G. (2007). A Cautionary Note on the Use of the Kolmogorov-Smirnov Test for Normality. <i>Monthly Weather Review, 135(3), </i>1151-1157.  <a target="_blank" href="http://dx.doi.org/10.1175/MWR3326.1">http://dx.doi.org/10.1175/MWR3326.1</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000126&pid=S1657-9267201500010002100024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Strasak, A. M., Zaman, Q., Marinell, G., Pfeiffer, K. P., &amp; Ulmer, H. (2007). The use of statistics in medical research: A comparison of The New England Journal of Medicine and Nature Medicine. <i>American Statistician, 61, </i>47-55.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000127&pid=S1657-9267201500010002100025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>Su&aacute;rez-Alvarez, J., Campillo-Alvarez, A., Fonseca-Pedrero, E., Garc&iacute;a-Cueto, E., &amp; Mu&ntilde;iz, J. (2013). Professional training in the workplace: The role of achievement motivation and locus of control. <i>Spanish Journal of Psychology. </i>En imprenta.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000129&pid=S1657-9267201500010002100026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->.</p>     <!-- ref --><p>Tavares Tadaiesky, L., &amp; Zagury Tourinho, E. (2012). Effects of support consequences and cultural consequences on the selection of interlocking behavioral contingencies. <i>Revista Latinoamericana de Psicolog&iacute;a, </i>44(1), 121-131.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000131&pid=S1657-9267201500010002100027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     ]]></body>
<body><![CDATA[<!-- ref --><p>Thadewald, T., &amp; Buning, H. (2007). Jarque-Bera Test and its Competitors for Testing Normality - A Power Comparison. <i>Journal of Applied Statistics, </i>34(1), 87-105.  <a target="_blank" href="http://dx.doi.org/10.1080/02664760600994539">http://dx.doi.org/10.1080/02664760600994539</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000133&pid=S1657-9267201500010002100028&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Urz&uacute;a, C. (1996). On the correct use of omnibus tests for normality. <i>Economics Letters, 53, </i>247-251.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000134&pid=S1657-9267201500010002100029&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>Yazici, B., &amp; Yolacan, S. (2007). A comparison of various tests of normality. <i>Journal of Statistical Computation and Simulation, </i>77(2), 175-183.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000136&pid=S1657-9267201500010002100030&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>     <!-- ref --><p>Zimmerman, D. (1998). Invalidation of parametric and nonparametric statistical tests by concurrent violation of two assumptions. <i>Journal of Experimental Education, </i>67(1), 55-68.  <a target="_blank" href="http://dx.doi.org/10.1080/00220979809598344">http://dx.doi.org/10.1080/00220979809598344</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000138&pid=S1657-9267201500010002100031&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Zghoul, A. A. (2010). A goodness of fit test for normality based on the empirical moment generating function. <i>Communications in Statistics-Simulation and Computation, </i>39(6), 1292-1304.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000139&pid=S1657-9267201500010002100032&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p> </font>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Aguinis]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A quickbasic program for generating correlated multivariate random normal scores]]></article-title>
<source><![CDATA[Educational and Psychological Measurement]]></source>
<year>1994</year>
<volume>54</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>687-689</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Arcones]]></surname>
<given-names><![CDATA[M. A]]></given-names>
</name>
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Some new tests for normality based on U-processes]]></article-title>
<source><![CDATA[Statistics and Probability Letters]]></source>
<year>2006</year>
<volume>76</volume>
<page-range>69-82</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Arshad]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Rasool]]></surname>
<given-names><![CDATA[M.T]]></given-names>
</name>
<name>
<surname><![CDATA[Ahmad]]></surname>
<given-names><![CDATA[M.I]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Anderson Darling and modified Anderson Darling tests for Generalized Pareto Distribution]]></article-title>
<source><![CDATA[Pakistan Journal of Applied Sciences]]></source>
<year>2003</year>
<volume>3</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>85-88</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chakravarti]]></surname>
<given-names><![CDATA[I.M]]></given-names>
</name>
<name>
<surname><![CDATA[Laha]]></surname>
<given-names><![CDATA[R.G]]></given-names>
</name>
<name>
<surname><![CDATA[Roy]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Kolmogorov-Smirnov (K-S) test]]></article-title>
<source><![CDATA[En Handbook of Methods of Applied Statistics]]></source>
<year>1967</year>
<volume>I</volume>
<page-range>392394</page-range><publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Wiley]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Dufour]]></surname>
<given-names><![CDATA[J.M]]></given-names>
</name>
<name>
<surname><![CDATA[Farhat]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Gardiol]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Khalaf]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Simulation-based finite sample normality tests in linear regressions]]></article-title>
<source><![CDATA[The Econometrics Journal]]></source>
<year>1998</year>
<volume>1</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>154-173</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Erceg-Hurn]]></surname>
<given-names><![CDATA[D. M]]></given-names>
</name>
<name>
<surname><![CDATA[Mirosevich]]></surname>
<given-names><![CDATA[V. M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Modern robust statistical methods: an easy way to maximize the accuracy and power of your research]]></article-title>
<source><![CDATA[The American psychologist]]></source>
<year>2008</year>
<volume>63</volume>
<numero>7</numero>
<issue>7</issue>
<page-range>591-601</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Farrell]]></surname>
<given-names><![CDATA[P.J]]></given-names>
</name>
<name>
<surname><![CDATA[Rogers-Stewart]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Comprehensive study of tests for normality and symmetry: extending the Spiegelhalter test]]></article-title>
<source><![CDATA[Journal of Statistical Computation and Simulation]]></source>
<year>2006</year>
<volume>76</volume>
<numero>9</numero>
<issue>9</issue>
<page-range>803-816</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Finch]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Comparison of the performance of nonparametric and parametric MANOVA test statistics when assumptions are violated]]></article-title>
<source><![CDATA[Methodology]]></source>
<year>2005</year>
<volume>1</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>27-38</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Frey]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Unbiased goodness-of-fit tests]]></article-title>
<source><![CDATA[Journal of Statistical Planning and Inference]]></source>
<year>2009</year>
<numero>139</numero>
<issue>139</issue>
<page-range>3690-3697</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[García-Cueto]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Gallo]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Miranda]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Bondad de ajuste en el análisis factorial confirmatorio]]></article-title>
<source><![CDATA[Psicothema]]></source>
<year>1998</year>
<numero>^s10</numero>
<issue>^s10</issue>
<supplement>10</supplement>
<page-range>717-724</page-range></nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Henderson]]></surname>
<given-names><![CDATA[A. R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Testing experimental data for univariate normality]]></article-title>
<source><![CDATA[Clinica Chimica Acta]]></source>
<year>2006</year>
<volume>366</volume>
<numero>1,2</numero>
<issue>1,2</issue>
<page-range>112-129</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Jarque]]></surname>
<given-names><![CDATA[C.M]]></given-names>
</name>
<name>
<surname><![CDATA[Bera]]></surname>
<given-names><![CDATA[A. K]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A test for normality of observations and regression residuals]]></article-title>
<source><![CDATA[International Statistical Review]]></source>
<year>1987</year>
<numero>55</numero>
<issue>55</issue>
<page-range>163-172</page-range></nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lemeshko]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Lemeshko]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Power and robustness of criteria used to verify the homogeneity of means]]></article-title>
<source><![CDATA[Measurement Techniques]]></source>
<year>2008</year>
<volume>51</volume>
<numero>9</numero>
<issue>9</issue>
<page-range>950-959</page-range></nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lilliefors]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On the Kolmogorov-Smirnov test for normality with mean and variance unknown]]></article-title>
<source><![CDATA[Journal of the American Statistical Association]]></source>
<year>1967</year>
<volume>62</volume>
<numero>318</numero>
<issue>318</issue>
<page-range>399-402</page-range></nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Meintanis]]></surname>
<given-names><![CDATA[S.G]]></given-names>
</name>
<name>
<surname><![CDATA[Hlávka]]></surname>
<given-names><![CDATA[Z]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Goodness-of-Fit Tests for Bivariate and Multivariate Skew-Normal Distributions]]></article-title>
<source><![CDATA[Scandinavian Journal of Statistics]]></source>
<year>2010</year>
<numero>37</numero>
<issue>37</issue>
<page-range>701-714</page-range></nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Micceri]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The unicorn, the normal curve, and other improbable creatures]]></article-title>
<source><![CDATA[Psychological Bulletin]]></source>
<year>1989</year>
<numero>105</numero>
<issue>105</issue>
<page-range>156-166</page-range></nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Oztuna]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Elhan]]></surname>
<given-names><![CDATA[A.H]]></given-names>
</name>
<name>
<surname><![CDATA[Tuccar]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Investigation of four different normality tests in terms of type I. Error rate and power under different distributions]]></article-title>
<source><![CDATA[Turkish Journal of Medical Sciences]]></source>
<year>2006</year>
<volume>36</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>171-176</page-range></nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Pedrosa]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[García-Cueto]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Suárez-Alvarez]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Pérez Sánchez]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Adaptación española de una Escala de Apoyo Social percibido para deportistas]]></article-title>
<source><![CDATA[Psicothema]]></source>
<year>2012</year>
<volume>24</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>470-476</page-range></nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Romáo]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
<name>
<surname><![CDATA[Delgado]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Costa]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An empirical power comparison of univariate goodness-of-fit tests for normality]]></article-title>
<source><![CDATA[Journal of Statistical Computation and Simulation]]></source>
<year>2010</year>
<volume>80</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>545-591</page-range></nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Schucany]]></surname>
<given-names><![CDATA[W.R]]></given-names>
</name>
<name>
<surname><![CDATA[Ng]]></surname>
<given-names><![CDATA[H.K.T]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Preliminary goodness-of-fit tests for normality do not validate the one-sample Student t]]></article-title>
<source><![CDATA[Communications in Statistics, Theory and Methods]]></source>
<year>2006</year>
<volume>35</volume>
<page-range>2275-2286</page-range></nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shahabuddin]]></surname>
<given-names><![CDATA[F.A.A]]></given-names>
</name>
<name>
<surname><![CDATA[Ibrahim]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Jemain]]></surname>
<given-names><![CDATA[A.A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On the Comparison of Several Goodness of Fit tests under Simple Random Sampling and Ranked Set Sampling]]></article-title>
<source><![CDATA[World Academy of Science, Engineering and Technology]]></source>
<year>2009</year>
<volume>54</volume>
<page-range>77-80</page-range></nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shapiro]]></surname>
<given-names><![CDATA[S.S]]></given-names>
</name>
<name>
<surname><![CDATA[Wilk]]></surname>
<given-names><![CDATA[M.B]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An analysis of variance test for normality (complete sampies)]]></article-title>
<source><![CDATA[Biometrika]]></source>
<year>1965</year>
<volume>52</volume>
<numero>3,4</numero>
<issue>3,4</issue>
<page-range>591-611</page-range></nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shin]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Jung]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Jeong]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Heo]]></surname>
<given-names><![CDATA[J.H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Assessment of modified Anderson-Darling test statistics for the generalized extreme value and generalized logistic distributions]]></article-title>
<source><![CDATA[Stochastic Environmental Research and Risk Assessment]]></source>
<year>2012</year>
<volume>26</volume>
<page-range>105-114</page-range></nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Steinskog]]></surname>
<given-names><![CDATA[D.J]]></given-names>
</name>
<name>
<surname><![CDATA[Tj0stheim]]></surname>
<given-names><![CDATA[D.B]]></given-names>
</name>
<name>
<surname><![CDATA[Kvamst0]]></surname>
<given-names><![CDATA[N.G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A Cautionary Note on the Use of the Kolmogorov-Smirnov Test for Normality]]></article-title>
<source><![CDATA[Monthly Weather Review]]></source>
<year>2007</year>
<volume>135</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>1151-1157</page-range></nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Strasak]]></surname>
<given-names><![CDATA[A. M]]></given-names>
</name>
<name>
<surname><![CDATA[Zaman]]></surname>
<given-names><![CDATA[Q]]></given-names>
</name>
<name>
<surname><![CDATA[Marinell]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The use of statistics in medical research: A comparison of The New England Journal of Medicine and Nature Medicine]]></article-title>
<source><![CDATA[American Statistician]]></source>
<year>2007</year>
<volume>61</volume>
<page-range>47-55</page-range></nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Suárez-Alvarez]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Campillo-Alvarez]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Fonseca-Pedrero]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[García-Cueto]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Muñiz]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Professional training in the workplace: The role of achievement motivation and locus of control]]></article-title>
<source><![CDATA[Spanish Journal of Psychology]]></source>
<year>2013</year>
</nlm-citation>
</ref>
<ref id="B27">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tavares Tadaiesky]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Zagury Tourinho]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Effects of support consequences and cultural consequences on the selection of interlocking behavioral contingencies]]></article-title>
<source><![CDATA[Revista Latinoamericana de Psicología]]></source>
<year>2012</year>
<volume>44</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>121-131</page-range></nlm-citation>
</ref>
<ref id="B28">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Thadewald]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Buning]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Jarque-Bera Test and its Competitors for Testing Normality - A Power Comparison]]></article-title>
<source><![CDATA[Journal of Applied Statistics]]></source>
<year>2007</year>
<volume>34</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>87-105</page-range></nlm-citation>
</ref>
<ref id="B29">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Urzúa]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On the correct use of omnibus tests for normality]]></article-title>
<source><![CDATA[Economics Letters]]></source>
<year>1996</year>
<numero>53</numero>
<issue>53</issue>
<page-range>247-251</page-range></nlm-citation>
</ref>
<ref id="B30">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Yazici]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Yolacan]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A comparison of various tests of normality]]></article-title>
<source><![CDATA[Journal of Statistical Computation and Simulation]]></source>
<year>2007</year>
<volume>77</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>175-183</page-range></nlm-citation>
</ref>
<ref id="B31">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zimmerman]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Invalidation of parametric and nonparametric statistical tests by concurrent violation of two assumptions]]></article-title>
<source><![CDATA[Journal of Experimental Education]]></source>
<year>1998</year>
<volume>67</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>55-68</page-range></nlm-citation>
</ref>
<ref id="B32">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zghoul]]></surname>
<given-names><![CDATA[A. A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A goodness of fit test for normality based on the empirical moment generating function]]></article-title>
<source><![CDATA[Communications in Statistics-Simulation and Computation]]></source>
<year>2010</year>
<volume>39</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>1292-1304</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
