Scielo RSS <![CDATA[Revista Colombiana de Estadística]]> http://www.scielo.org.co/rss.php?pid=0120-175120170002&lang=es vol. 40 num. 2 lang. es <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[Estudio comparativo de coeficientes de estimación Gini basados en la linealización y métodos de U-statsitics]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512017000200001&lng=es&nrm=iso&tlng=es In this paper, we consider two well-known methods for analysis of the Gini index, which are U-statistics and linearization for some income distributions. In addition, we evaluate two different methods for some properties of their proposed estimators. Also, we compare two methods with resampling techniques in approximating some properties of the Gini index. A simulation study shows that the linearization method performs well compared to the Gini estimator based on U-statistics. A brief study on real data supports our findings.<hr/>En este artículo consideramos dos métodos ampliamente conocidos para en análisis del índice Gini, los cuales son U-statistics y linealización. Adicionalmente, evaluamos los dos métodos diferentes con base en las propiedades de los estimadores propuestos sobre distribuciones de la renta. También comparamos los métodos con técnicas de remuestreo aproximando algunas propiedades del índice Gini. Un estudio de simulación muestra que el método de linealización se comporta "bien" comparado con el método basado en U-statistics. Un corto estudio de datos reales confirma nuestro resultado. <![CDATA[Estimación de entropía de muestras de rango ordenado con aplicación a pruebas de ajuste]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512017000200002&lng=es&nrm=iso&tlng=es This article deals with entropy estimation using ranked set sampling (RSS). Some estimators are developed based on the empirical distribution function and its nonparametric maximum likelihood competitor. The suggested entropy estimators have smaller root mean squared errors than the other entropy estimators in the literature. The proposed estimators are then used to construct goodness of fit tests for inverse Gaussian distribution.<hr/>Este artículo trata sobre la estimación de entropía usando muestras de rango ordenado (RSS). Algunos estimadores se desarrollan con base en distribuciones empíricas y si estimación no paramétrica de máxima verosimilitud. Los estimadores de entropía sugeridos tienen menor raíz del error de cuadrados medios que otros reportados en literatura. Los estimadores propuestos son usados para construir pruebas de bondad de ajuste para distribuciones inversas Gaussianas. <![CDATA[Monitoreo de datos Poisson agregados para procesos con tamaños de muestra que varían en el tiempo]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512017000200003&lng=es&nrm=iso&tlng=es This article deals with the effect of data aggregation, when Poisson processes with varying sample sizes, are monitored. These aggregation procedures are necessary or convenient in many applications, and can simplify monitoring processes. In health surveillance applications it is a common practice to aggregate the observations during a certain time period and monitor the processes at the end of it. Also, in this type of applications it is very frequent that the sample size vary over time, which makes that instead of monitor the mean of the processes, as would be in the case of Poisson observations with constant sample size, the occurrence rate of an adverse event is monitored. Two control charts for monitoring the count Poisson data with time-varying sample sizes are proposed by Shen et al. (2013) and Dong et al. (2008). We use the average run length (ARL) to study the performance of these control charts when different levels of aggregation, two scenarios of generating of sample size and different out-of-control states are considered. Simulation studies show the effect of data aggregation in some situations, as well as those in which their use may be appropriate without significantly compromising the prompt detection of out-of-control signals. We also show the effect of data aggregation with an example of application in health surveillance.<hr/>Este artículo trata sobre el efecto de la agregación de datos cuando se monitorean procesos Poisson con tamaño de muestra variable. Estos procedimientos de agregación resultan necesarios o convenientes en muchas aplicaciones y pueden simplificar los procesos de monitoreo. En aplicaciones de vigilancia de la salud, es una práctica común agregar las observaciones durante un cierto período y monitorear el proceso al final de éste. También, en este tipo de aplicaciones es muy frecuente que el tamaño de muestra varíe sobre el tiempo, lo cual hace que en lugar de monitorear la media del proceso, como sería en el caso de observaciones Poisson con tamaño de muestra constante, se monitorio la tasa de ocurrencias de un evento adverso. Dos cartas de control para monitorear el conteo de datos Poisson con tamaños de muestra que varían en el tiempo han sido propuestas por Shen et al. (2013) and Dong et al. (2008). Usamos la longitud de corrida promedio (ARL) para estudiar el desempeño de estas cartas de control cuando se consideran diferentes niveles de agregación, dos escenarios de generación de tamaños de muestra, y diferentes estados fuera de control. Estudios de simulación muestran el efecto de la agregación de datos en algunas situaciones, así como otras en las que su uso puede ser apropiado sin comprometer significativamente la pronta detección de situaciones fuera de control. También mostramos el efecto de la agregación mediante un ejemplo de aplicación en vigilancia de la salud. <![CDATA[Una revisión de la estimación de los parámetros claves y el tiempo de ventaja en la búsqueda de cáncer]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512017000200004&lng=es&nrm=iso&tlng=es Early detection combined with effective treatment are the only ways to fight against cancer, and cancer screening is the primary technique for early detection. Although mass cancer screening has been carried out for decades, there are many unsolved problems, and the statistical theory of cancer screening is still under developed. Screening sensitivity, time duration in the preclinical state, and time duration in the disease free state are the three key parameters, which are critical in cancer screening, since all other estimates are functions of the three key parameters. Lead time is the diagnosis time advanced by screening, and it serves as a measurement of effectiveness of screening programs. In this article, we provide a review for major probability models and statistical methodologies that have been developed on the estimation of the three key parameters and the lead time distributions. These methods can be applied to screening of other chronic diseases after slight modifications.<hr/>Detección temprana combinada con la efectividad de los tratamientos son las únicas formas de combatir en contra del cáncer, y el examen de búsqueda temprana es la técnica principal para detección temprana. A pesar de que la búsqueda temprana de la masa cancerígena se ha realizado pro décadas, hay muchos problemas sin resolver, y la teoría estadística de la búsqueda del cáncer está todavía en desarrollo. Los tres parámetros claves: sensibilidad de la búsqueda, la duración en tiempo en el estado pre-clínico, y la duración en tiempo de la enfermedad en estado libre, son críticos en la búsqueda de cáncer; esto es porque todos los otros estimadores son funciones de estos tres parámetros claves. El tiempo de ventaja es el tiempo de diagnóstico avanzado por la búsqueda, y sirve como una medida de la efectividad de los programas de búsqueda. En este artículo, presentamos una revisión de los modelos de probabilidad principales y las metodologías estadísticas que han sido desarrolladas en la estimación de los tres parámetros claves y las distribuciones del tiempo de ventaja. Estos métodos pueden ser aplicados a la búsqueda de otras enfermedades crónicas con modificaciones menores. <![CDATA[Pruebas de bondad de ajuste para distribución Rayleigh basadas en Divergencia Phi]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512017000200005&lng=es&nrm=iso&tlng=es In this paper, we develop some goodness of fit tests for Rayleigh distribution based on Phi-divergence. Using Monte Carlo simulation, we compare the power of the proposed tests with some traditional goodness of fit tests including Kolmogorov-Smirnov, Anderson-Darling and Cramer von-Mises tests. The results indicate that the proposed tests perform well as compared with their competing tests in the literature. Finally, the new procedures are illustrated via two real data sets.<hr/>En este artículo desarrollamos pruebas de bondadn de ajuste para distribución Rayleigh basados en divergencia Phi. Usando simulaciones de Monte Carlo, comparamos el poder de las pruebas propuestas con algunas pruebas tradicionales incluyendo Kolmogorov-Smirnov, Anderson-Darling y Cramer von-Mises. Los resultados indican que la prueba propuesta funciona mejor que las otras pruebas reportadas en literatura. Finalmente, los procedimientos nuevos son ilustrados sobre dos conjuntos de datos reales. <![CDATA[Dependencia local en copulas bivariadas con marginales Beta]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512017000200006&lng=es&nrm=iso&tlng=es The local dependence function (LDF) describes changes in the correlation structure of continuous bivariate random variables along their range. Bivariate density functions with Beta marginals can be used to model jointly a wide variety of data with bounded outcomes in the (0,1) range, e.g. proportions. In this paper we obtain expressions for the LDF of bivariate densities constructed using three different copula models (Frank, Gumbel and Joe) with Beta marginal distributions, present examples for each, and discuss an application of these models to analyse data collected in a study of marks obtained on a statistics exam by postgraduate students.<hr/>La función de dependencia local (FDL) describe cambios en la estructura de la correlación entre dos variables aleatorias continuas sobre su recorrido conjunto. Funciones bivariadas de densidad de probabilidad con densidades marginales Beta pueden utilizarse apar modelar conjuntamente una amplia variedad de variables respuesta acotadas en el intervalo (0, 1), por ejemplo proporciones. En este artículo obtenemos expresiones para la FDL de densidades bivariadas utilizando tres modelos de cópulas (Frank, Gumbel y Joe) con densidades marginales Beta, presentamos ejemplos para cada una de estas funciones, y discutimos una aplicación de estos modelos al análisis de datos recolectados en un estudio de calificaciones para un examen de estadística aplicado a estudiantes de postgrado.