Scielo RSS <![CDATA[Revista Colombiana de Estadística]]> http://www.scielo.org.co/rss.php?pid=0120-175120100001&lang=en vol. 33 num. 1 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.org.co/img/en/fbpelogp.gif http://www.scielo.org.co <![CDATA[A Probability Model for the Child Mortality in a Family]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512010000100001&lng=en&nrm=iso&tlng=en This paper proposed, under assumptions of inflated type fixed displaced geometric model, the distribution pattern of families according to number of child deaths within the first five years of life. The proposed model involves several parameters related to child mortality in a family, which is estimated with Method of Moments and Maximum Likelihood Estimation techniques. The proposed models fitted the observed data showing a better approximation at the survey area and draw some vital conclusions.<hr/>Este documento presenta, bajo el supuesto de un modelo geométrico de desplazamiento fijo, patrones de distribución de las familias, de acuerdo con el número de defunciones de sus hijos menores de cinco años. El modelo emplea diferentes parámetros relacionados con la mortalidad en la infancia en una familia, estimada con el método de momentos y de máxima verosimilitud. Los modelos propuestos ajustan los datos observados, mostrando mejor aproximación a la encuesta de área y describe algunas conclusiones vitales. <![CDATA[Probability Distributions Involving on Generalized Hypergeometric Functions]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512010000100002&lng=en&nrm=iso&tlng=en Se define una nueva función de probabilidad que involucra algunas funciones hipergeométricas generalizadas; se encontraron algunas propiedades y casos especiales como la gamma y la exponencial. Se establecieron algunas funciones básicas asociadas a la nueva distribución de probabilidad, como la media, momentos, función característica, y se obtienen representaciones gráficas para esta nueva función de probabilidad.<hr/>We define a new function of probability that involves some generalized hypergeometric functions, we found some properties and special cases such as gamma and exponential. We establish some basic functions associated with the new probability distribution like mean, the moments, characteristic function and several graphic representations are obtained for this new function of probability. <![CDATA[Nonparametric Time Series Analysis of the Conditional Mean and Volatility Functions for the COP/USD Exchange Rate Returns]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512010000100003&lng=en&nrm=iso&tlng=en The modeling and estimation of the conditional volatility associated with a stochastic process usually have been based on parametric ARCH-type and stochastic volatility models. These time series models are very powerful in representing the dynamic stochastic properties of the data generating process only if the parametric functions are correctly specified. The nonparametric approach acquires importance as a complementary and flexible method to explore these properties without imposing particular functional forms on the conditional moments of process. This paper presents an application of nonparametric time series methods to estimate the conditional volatility function of the COP/USD exchange rate returns. Additionally, we estimate the conditional mean function under this approach.<hr/>La modelación y estimación de la volatilidad condicional asociada a un proceso estocástico ha estado basada en los modelos paramétricos tipo ARCH y de volatilidad estocástica. Estos modelos son muy poderosos para representar las propiedades dinámicas estocásticas del proceso generador de datos solo si las funciones paramétricas están correctamente especificadas. En este sentido, el enfoque no paramétrico adquiere importancia como un método complementario y flexible para explorar dichas propiedades al no imponer formas funcionales particulares en los momentos condicionales del proceso. Este documento presenta una aplicación de los métodos no paramétricos de series de tiempo para estimar la función de volatilidad condicional de los retornos de la tasa de cambio COP/USD. Además, se estima la función de media condicional bajo este enfoque. <![CDATA[Appraisal of Several Methods to Model Time to Multiple Events per Subject: Modelling Time to Hospitalizations and Death]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512010000100004&lng=en&nrm=iso&tlng=en During the disease-recovery process of many diseases, such as in Heart Failure (HF), often more than one type of event plays a role. Some clinical trials use the combined endpoint of death and a secondary event; for instance, HF-related hospitalizations. This is often analyzed with time-to-first-event survival analysis which ignores possible subsequent events, such as several HF-related hospitalizations. Accounting for multiple events provides more detailed information on the disease-control process, and allows a more precise understanding of the prognosis of patients. In this paper we explore and illustrate several modelling strategies to study time to repeated events of disease-related hospitalizations and death per subject. Marginal models are revised in order to account for intra-subject correlation and competing risks. Finally, we recommend a Multi-state model which allows a flexible modelling strategy that incorporates important features in the analysis of HF-related hospitalizations and death, and at the same time extends relevant characteristics of the Andersen & Gill (1982), Wei et al. (1989) and Prentice et al. (1981) models.<hr/>Algunos ensayos clínicos para estudiar el efecto de nuevos tratamientos en pacientes con insuficiencia cardiaca (IC) se basan en la evaluación de hospitalizaciones relacionadas con IC y muerte. Frecuentemente el análisis se enfoca en el tiempo a la primera ocurrencia de alguno de estos dos desenlaces. Este tipo de análisis ignora importantes eventos como nuevas hospitalizaciones relacionadas con IC, que permiten una mejor descripción y compresión del proceso de recuperación de estos pacientes. En este trabajo se describen y exploran varias estrategias para el análisis de tiempo a repetidas hospitalizaciones relacionadas con IC y tiempo a la muerte. Se estudian modelos marginales para incorporar la correlación intra-sujeto y riesgos competitivos propios de este tipo de ensayos clínicos. Finalmente, se recomienda un modelo multi-estado como una estrategia sencilla y flexible que incorpora elementos importantes en el análisis de hospitalizaciones relacionadas con IC y muerte, y a la vez extiende características relevantes de los modelos de Andersen & Gill (1982), Wei et al. (1989) and Prentice et al. (1981). <![CDATA[Confidence and Credibility Intervals for the Difference of Two Proportions]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512010000100005&lng=en&nrm=iso&tlng=en This paper presents a frequentist comparison of the performance of confidence and credibility intervals for the difference of two proportions from two independent samples. The comparison is carried out considering three frequentist criteria. It was found that the intervals with the best performance, in terms of coverage probability, are Bayesians; in terms of expected length and variance of the length, the Newcombe interval shows the best performance. As a final remark, it was found that traditional intervals such as the Wald and adjusted Wald have a poor performance.<hr/>Este artículo presenta una comparación del comportamiento de intervalos de confianza frecuentistas y de credibilidad bayesianos para la diferencia de dos proporciones provenientes de muestras aleatorias independientes. La comparación se lleva cabo considerando tres criterios frecuentistas con los cuales se concluyó que el mejor comportamiento, en términos de la probabilidad de cobertura, lo tienen los intervalos bayesianos, y en términos de la longitud esperada y varianza de la longitud el mejor comportamiento está dado por el intervalo frecuentista de Newcombe. Como resultado de esta investigación se encontró que los intervalos frecuentistas más populares como Wald y Wald ajustado tienen un comportamiento deficiente. <![CDATA[Time-Varying Coefficient Model Component Estimation Through Generalized Estimation Equations]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512010000100006&lng=en&nrm=iso&tlng=en Se propone una metodología para estimar las componentes de un modelo de coeficientes dinámicos mediante las ecuaciones de estimación generalizadas (Liang & Zeger 1986), con el propósito de incluir directamente en la estimación la posible correlación de las medidas repetidas de cada individuo. La expansión de los coeficientes dinámicos del modelo se lleva a cabo a través de regresión spline (Huang et al. 2002). También se propone utilizar el criterio de información de Akaike en las ecuaciones de estimación generalizadas (QIC) (Pan 2001) como selector de modelos. Mediante simulación se compara la metodología propuesta con la metodología presentada por Wu & Zhang (2006), donde se estiman las componentes del modelo mediante mínimos cuadrados ponderados y se utiliza el criterio de información de Akaike (AIC) como selector de modelos, obteniéndose que en los escenarios simulados la metodología propuesta presenta mejores resultados con relación al error cuadrático medio promedio. Para ilustrar la estrategia de estimación propuesta, se considera el conjunto de datos ACTG 315 (Liang et al. 2003) asociado con un estudio de sida, en el que se modela dinámicamente la relación entre la carga viral y el conteo de células CD4+.<hr/>A methodology to estimate time-varying coefficient models components through generalized estimation equations (Liang & Zeger 1986) is proposed, in order to include directly in the estimation the possible correlation between repeated measurements of each subject. Expansion of the time-varying coefficients is done by means of regression spline methods (Huang et al. 2002). Furthermore, is proposed the use of the Akaikes information criterion in generalized estimating equations (QIC) proposed by Pan (2001) like model selector. Through simulation are compared the proposed methodology and the methodology presented by Wu & Zhang (2006), where models components are estimated through weighted least squares and Akaikes information criterion (AIC) is used like model selector. It resulted that the proposed methodology gives a better behavior in relation with the average mean square error. In order to illustrate the methodology, is taken into account the data base ACTG 315 (Liang et al. 2003) related to a AIDS study, where it is investigated the relationship between the viral charge and the CD4+ cell count. <![CDATA[Goodness-of-Fit Employing the Moment Generating Function]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512010000100007&lng=en&nrm=iso&tlng=en Proponemos una estadística para evaluar la bondad de ajuste, donde se emplearon las funciones generatrices de momentos muestral y poblacional; a partir de la información considerada se encontró que la estadística Gn tuvo un comportamiento diferente de acuerdo con el modelo usado para el ajuste. Su desempeño fue superior o igual a la estadística de Pearson, pero fue superada por la estadística de K-S; además, para la estadística evaluada no fue influyente el tamaño de la muestra.<hr/>We propose a statistic to evaluate the goodness-of-fit where we used the empirical moment generating function and the moment generating function, from the considered information it found that the Gn statistic was different behavior according to the used model for the fitting. Its behavior was great or similar to the Pearson statistics, but it was exceeded for the K-S statistic, also for the evaluated statistic was not influential to the sample size. <![CDATA[Synthesizing the Ability in Multidimensional Item Response Theory Models]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512010000100008&lng=en&nrm=iso&tlng=en A central problem associated with Multidimensional Item Response Theory (MIRT) Models is the impossibility of ordering the examinees. In this paper, we obtain two unidimensional synthetic indices that are optimal linear combinations of the ability vector. These synthetic indices are similar to the reference composite commonly used in MIRT models, but they are easier to calculate and interpret. The synthetic indices are compared with the unidimensional ability obtained when a multidimensional data is fitted with an unidimensional IRT (UIRT) model.<hr/>Un problema central asociado con los Modelos Multidimensionales de Teoría de Respuesta al Item (TRIM) es la imposibilidad de ordenar a los examinados. En este artículo, se obtienen dos índices sintéticos unidimensionales que son combinaciones lineales óptimas del vector de habilidades. Estos índices sintéticos son semejantes a la composición de referencia comúnmente usada en los modelos TRIM, pero son más fáciles de calcular. Los índices sintéticos se comparan con el parámetro de habilidad obtenido cuando un conjunto de datos multidimensionales es ajustado con un modelo TRI unidimensional. <![CDATA[A Similarity Test between Two Dichotomic Ordered Sequences]]> http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-17512010000100009&lng=en&nrm=iso&tlng=en Se propone una prueba para la hipótesis de similitud de dos secuencias dicotómicas ordenadas. Un estudio de potencia basado en simulación indica que la prueba propuesta mantiene su tamaño bajo la hipótesis nula y que su potencia crece adecuadamente con el tamaño de muestra. Además la prueba tiene la misma potencia que la prueba del signo y supera en potencia a las pruebas basadas en las estadísticas de antirrachas y de Wilcoxon.<hr/>We propose a test for the hypothesis of similarity between dichotomic ordered sequences. A simulation study was carried out to estimate the power of the proposed test. It is shown that the test maintain its size under the null hypothesis and that its power increase with the considered alternative hypothesis. In addition the proposed test is as powerful as the sign test and overtakes the antiruns test and the Wilcoxon test.