<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0121-0807</journal-id>
<journal-title><![CDATA[Revista de la Universidad Industrial de Santander. Salud]]></journal-title>
<abbrev-journal-title><![CDATA[Rev. Univ. Ind. Santander. Salud]]></abbrev-journal-title>
<issn>0121-0807</issn>
<publisher>
<publisher-name><![CDATA[Universidad Industrial de Santander]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0121-08072016000100003</article-id>
<article-id pub-id-type="doi">10.18273/revsal.v48n1-2016001</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Regresiones aplicadas al estudio de eventos discretos en epidemiología]]></article-title>
<article-title xml:lang="en"><![CDATA[Regressions applied to the study of discrete events in epidemiology]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Diaz-Quijano]]></surname>
<given-names><![CDATA[Fredi Alexander]]></given-names>
</name>
<xref ref-type="aff" rid="AFF"/>
</contrib>
</contrib-group>
<aff id="AF1">
<institution><![CDATA[,Universidade de São Paulo Faculdade de Saúde Pública Departamento de Epidemiologia]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>Brasil</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>04</month>
<year>2016</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>04</month>
<year>2016</year>
</pub-date>
<volume>48</volume>
<numero>1</numero>
<fpage>9</fpage>
<lpage>15</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S0121-08072016000100003&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S0121-08072016000100003&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S0121-08072016000100003&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[En este manuscrito se revisan algunos aspectos básicos de la utilización de regresiones en los estudios epidemiológicos, haciendo énfasis en aquellas aplicadas al estudio de eventos discretos. De esta manera se hace una introducción a los modelos lineales generalizados, cuya estructura es una extensión de una ecuación lineal para analizar desenlaces discretos. De este modo podemos estimar medidas de asociación como la razón de tasas usando la regresión de Poisson, o bien, el riesgo relativo (o la razón de prevalencias) usando la regresión log-binomial. En cada caso es esencial conocer la naturaleza de la variable dependiente, su distribución y reconocer las limitaciones de cada una de las herramientas de análisis.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Some basic aspects about using regressions in epidemiological studies are reviewed. Particularly, this manuscript focused on those applied to the study of discrete events. Generalized lineal models, such as Poisson and log-binomial, have a structure that is an extension of a lineal equation to analyze discrete outcomes. Thus, we can estimate association measures as the incidence rate ratio, using the Poisson regression, or the relative risk (or prevalence ratio), using log-binomial regression. In each case it is essential to know the nature of the dependent variable, as well as, its distribution and recognize the limitations of each analysis tool.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Modelos lineales generalizados]]></kwd>
<kwd lng="es"><![CDATA[Regresión de Poisson]]></kwd>
<kwd lng="es"><![CDATA[Regresión Binomial]]></kwd>
<kwd lng="es"><![CDATA[Razón de tasas]]></kwd>
<kwd lng="es"><![CDATA[Riesgo Relativo]]></kwd>
<kwd lng="es"><![CDATA[Razón de Prevalencias]]></kwd>
<kwd lng="en"><![CDATA[Generalized Lineal Models]]></kwd>
<kwd lng="en"><![CDATA[Poisson Regression]]></kwd>
<kwd lng="en"><![CDATA[Binomial Regression]]></kwd>
<kwd lng="en"><![CDATA[Incidence Rate Ratio]]></kwd>
<kwd lng="en"><![CDATA[Relative Risk]]></kwd>
<kwd lng="en"><![CDATA[Prevalence Ratio]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[   <font size="2" face="Verdana">      <p align="left"><b>DOI:</b> <a href="http://dx.doi.org/10.18273/revsal.v48n1-2016001" target="_blank">http://dx.doi.org/10.18273/revsal.v48n1-2016001</a></p>      <p align="center"><font size="4"><b>Regresiones aplicadas al estudio de    <BR> eventos discretos en epidemiolog&iacute;a</b></font></p>      <p align="center">Fredi Alexander Diaz-Quijano<sup>1</sup></p> 	     <p align="left">1. Departamento de Epidemiologia, Faculdade de Sa&uacute;de P&uacute;blica, Universidade de S&atilde;o Paulo. Brasil.    <br> <b>Correspondencia:</b> Fredi Alexander Diaz Quijano. Direcci&oacute;n: Departamento de Epidemiologia, Faculdade de Sa&uacute;de P&uacute;blica da    <br> Universidade de S&atilde;o Paulo, Av. Dr. Arnaldo, 715, Cerqueira C&eacute;sar, CEP 01246-904, S&atilde;o Paulo, SP, Brasil. Correo electr&oacute;nico:    <br> <a href="mailto:frediazq@msn.com">frediazq@msn.com</a>. Tel&eacute;fono: +55 11 3061-7738    <br> <b>Recibido:</b> Noviembre 4 de 2015 <b>Aprobado:</b> Diciembre 19 de 2015</p>  <hr>      ]]></body>
<body><![CDATA[<p align="justify"><b>Forma de citar:</b> Diaz-Quijano FA.Regresiones aplicadas al estudio de eventos discretos en epidemiolog&iacute;a. Rev Univ Ind Santander Salud. 2016; 48(1): 9-15.</p>  <hr>      <p align="center"><font size="3"><b>RESUMEN</b></font></p> 	     <p align="justify">En este manuscrito se revisan algunos aspectos b&aacute;sicos de la utilizaci&oacute;n de regresiones en los estudios epidemiol&oacute;gicos, haciendo &eacute;nfasis en aquellas aplicadas al estudio de eventos discretos. De esta manera se hace una introducci&oacute;n a los modelos lineales generalizados, cuya estructura es una extensi&oacute;n de una ecuaci&oacute;n lineal para analizar desenlaces discretos. De este modo podemos estimar medidas de asociaci&oacute;n como la raz&oacute;n de tasas usando la regresi&oacute;n de Poisson, o bien, el riesgo relativo (o la raz&oacute;n de prevalencias) usando la regresi&oacute;n log-binomial. En cada caso es esencial conocer la naturaleza de la variable dependiente, su distribuci&oacute;n y reconocer las limitaciones de cada una de las herramientas de an&aacute;lisis.</p> 	     <p align="justify"><b>Palabras clave:</b> Modelos lineales generalizados, Regresi&oacute;n de Poisson; Regresi&oacute;n Binomial, Raz&oacute;n de tasas, Riesgo Relativo, Raz&oacute;n de Prevalencias.</p>      <p align="center"><font size="3"><b>Regressions applied to the study of    <br> discrete events in epidemiology</b></font></p> 		     <p align="center"><font size="3"><b>ABSTRACT</b></font></p> 	     <p align="justify">Some basic aspects about using regressions in epidemiological studies are reviewed. Particularly, this manuscript focused on those applied to the study of discrete events. Generalized lineal models, such as Poisson and log-binomial, have a structure that is an extension of a lineal equation to analyze discrete outcomes. Thus, we can estimate association measures as the incidence rate ratio, using the Poisson regression, or the relative risk (or prevalence ratio), using log-binomial regression. In each case it is essential to know the nature of the dependent variable, as well as, its distribution and recognize the limitations of each analysis tool.</p> 	     <p align="justify"><b>Keywords:</b> Generalized Lineal Models; Poisson Regression; Binomial Regression; Incidence Rate Ratio; Relative Risk; Prevalence Ratio.</p>  <hr>      <p align="center"><font size="3"><b>INTRODUCCI&Oacute;N</b></font></p>      ]]></body>
<body><![CDATA[<p align="justify">Los estudios epidemiol&oacute;gicos se basan en la comparaci&oacute;n de grupos que tienen diferentes distribuciones de uno o m&aacute;s factores de riesgo para una enfermedad o resultado de inter&eacute;s. Por lo tanto, para estimar correctamente el efecto de la exposici&oacute;n sobre la ocurrencia de un desenlace, se requieren m&eacute;todos para controlar el efecto de otros factores de riesgo que act&uacute;an como variables de confusi&oacute;n para la asociaci&oacute;n de inter&eacute;s<sup>1,2</sup>. Para controlar los factores de confusi&oacute;n podemos emplear estrategias como el dise&ntilde;o del estudio, la exclusi&oacute;n de grupos con categor&iacute;as de riesgo diferenciales, el pareamiento (matching) y, en el caso de los estudios experimentales, la aleatorizaci&oacute;n. Sin embargo, en la mayor&iacute;a de los estudios observacionales el control de la confusi&oacute;n requiere un abordaje durante la fase de an&aacute;lisis de los datos<sup>2,3</sup>.</p>      <p align="justify">Entre las herramientas anal&iacute;ticas para controlar la confusi&oacute;n tenemos a la estandarizaci&oacute;n, la cual se usa con frecuencia para controlar el efecto de variables como la edad y el sexo en la comparaci&oacute;n de tasas. Otra herramienta de an&aacute;lisis es la estratificaci&oacute;n, con la cual se puede controlar el efecto de confusi&oacute;n de variables categ&oacute;ricas. Sin embargo, estas estrategias tienen limitaciones importantes como la dificultad para realizar ajustes por variables continuas y la p&eacute;rdida de eficiencia para ajustar simult&aacute;neamente por un n&uacute;mero elevado de variables<sup>3</sup>. El uso de las regresiones ha permitido lidiar con estas dificultades facilitando la estimaci&oacute;n de medidas de asociaci&oacute;n, ajustadas por m&uacute;ltiples variables de diversa naturaleza. El objetivo de este art&iacute;culo es hacer una revisi&oacute;n de algunos aspectos b&aacute;sicos de la utilizaci&oacute;n de regresiones en los estudios epidemiol&oacute;gicos, haciendo &eacute;nfasis en aquellas empleadas en el an&aacute;lisis de eventos discretos.</p>      <p align="left"><b>Conceptos preliminares</b></p>      <p align="justify">Con el t&eacute;rmino <i>evento</i> nos referiremos a aquellos desenlaces o resultados de inter&eacute;s que pueden ser identificados en participantes en los estudios epidemiol&oacute;gicos. Estos pueden corresponder a enfermedades o episodios que pueden ser identificados como casos nuevos, durante el seguimiento de una cohorte; o bien, como casos prevalentes, en los estudios transversales. En el an&aacute;lisis estad&iacute;stico, los eventos o resultados corresponden a las variables dependientes. Con el t&eacute;rmino <i>evento discreto</i> se har&aacute; referencia a una variable dependiente que corresponde a una dicot&oacute;mica (por ejemplo, enfermos vs no enfermos) o, si es cuantitativa, corresponder&iacute;a a una variable que s&oacute;lo puede adoptar valores enteros (por ejemplo, n&uacute;mero de hospitalizaciones). Las variables discretas se diferencian de las continuas, pues en estas &uacute;ltimas siempre se puede hallar un valor intermedio entre dos valores posibles (por ejemplo, peso, presi&oacute;n arterial, glucosa en sangre, etc&eacute;tera).</p>      <p align="center"><font size="3"><b>REGRESIONES</b></font></p>      <p align="justify">La regresi&oacute;n es una herramienta que permite describir una relaci&oacute;n entre variables de tal manera que, si hay una asociaci&oacute;n entre ellas, se pueda predecir (con alg&uacute;n margen de error) el valor de la variable dependiente dado que se conoce el valor de al menos una variable independiente<sup>4-6</sup>. Una regresi&oacute;n lineal simple es una t&eacute;cnica estad&iacute;stica que eval&uacute;a si la relaci&oacute;n entre dos variables es lineal<sup>5,6</sup>. En el caso de regresi&oacute;n lineal al menos la variable dependiente es cuantitativa. Por lo tanto, la relaci&oacute;n lineal entre la variable dependiente &quot;<i>Y</i>&quot; y una independiente &quot;<i>X</i><sub>1</sub>&quot; podr&iacute;a resumirse con la f&oacute;rmula:</p>      <p align="center"><img src="img/revistas/suis/v48n1/v48n1a03e1.jpg"></p>      <p align="justify">donde <i>&beta;</i><sub>0</sub> ser&iacute;a la intercepci&oacute;n o el valor esperado de la variable cuando la variable dependiente es igual a cero. Por otra parte, <i>&beta;</i><sub>1</sub> ser&iacute;a el coeficiente de la regresi&oacute;n para la variable independiente <i>X</i><sub>1</sub> y se interpreta como el aumento esperado de la variable dependiente &quot;Y&quot;, con cada aumento de la variable independiente &quot;<i>X</i><sub>1</sub>&quot;. El t&eacute;rmino &quot;<i>e</i>&quot; de la f&oacute;rmula se refiere al error en la predicci&oacute;n, el cual se asume como aleatorio. Sin este t&eacute;rmino de error no podr&iacute;amos definir el valor exacto de <i>Y</i> en la f&oacute;rmula y s&oacute;lo podr&iacute;amos hablar del valor esperado o predicho. Este &uacute;ltimo podr&iacute;a ser representado por &#374; llevando impl&iacute;cito la aceptaci&oacute;n de la existencia del error. Entonces tendr&iacute;amos la f&oacute;rmula:</p>      <p align="center"><a name="e02"></a><img src="img/revistas/suis/v48n1/v48n1a03e2.jpg"></p>      <p align="justify">La <a href="#f01">FIGURA 1</a>, presenta un ejemplo de distribuci&oacute;n de individuos en relaci&oacute;n a dos variables: &quot;<i>X</i>&quot; y &quot;<i>Y</i>&quot;. En este caso, una regresi&oacute;n puede resumir la relaci&oacute;n de estas variables con la ecuaci&oacute;n:</p>      ]]></body>
<body><![CDATA[<p align="center"><img src="img/revistas/suis/v48n1/v48n1a03e3.jpg"></p>      <p align="center"><a name="f01"></a><img src="img/revistas/suis/v48n1/v48n1a03f1.jpg"></p>      <p align="left"><b>Regresi&oacute;n lineal m&uacute;ltiple</b></p>      <p align="justify">El modelo de regresi&oacute;n m&uacute;ltiple es una extensi&oacute;n para diversas variables del modelo de regresi&oacute;n simple. Esto se aplica cuando existe m&aacute;s de una variable independiente<sup>3,7</sup>. En este caso, podemos construir la ecuaci&oacute;n:</p>      <p align="center"><img src="img/revistas/suis/v48n1/v48n1a03e4.jpg"></p>      <p align="justify">Para cada variable independiente <i>X</i><sub>i</sub> el modelo considera un coeficiente de regresi&oacute;n <i>&beta;</i><sub>i</sub>. Este coeficiente es interpretado como el cambio esperado en la variable dependiente, por un cambio de una unidad en la variable independiente correspondiente (<i>X</i><sub>i</sub> : <i>X</i><sub>1</sub>, <i>X</i><sub>2</sub>, <i>X</i><sub>3</sub> o <i>X</i><sub>k</sub>), siempre y cuando se mantengan constantes las dem&aacute;s variables independientes. En s&iacute;ntesis, la regresi&oacute;n lineal analiza una variable dependiente de naturaleza continua y &eacute;sta es modelada directamente como el resultado de una f&oacute;rmula lineal. En este caso, la medida de asociaci&oacute;n obtenida y de inter&eacute;s en epidemiolog&iacute;a es el cambio (o delta) en el valor predicho de dicha variable dependiente.</p>      <p align="left"><b>Modelos lineales generalizados</b></p>      <p align="justify">Los modelos lineales generalizados (MLG, o GLM por sus siglas en ingl&eacute;s) son una extensi&oacute;n de la estructura de la regresi&oacute;n lineal ordinaria con la que se pretende analizar variables dependientes cuya distribuci&oacute;n del error es diferente de la normal. Los MLG fueron formulados por John Nelder y Wedderburn Robert como una forma de unificar varias t&eacute;cnicas estad&iacute;sticas incluyendo las regresiones log&iacute;stica y de Poisson<sup>8</sup>. Un MLG permite relacionar un conjunto de variables independientes a trav&eacute;s de una ecuaci&oacute;n similar al modelo lineal pero utilizando una funci&oacute;n de enlace (<i>link function</i>) para predecir la variable dependiente. Como consecuencia, la magnitud de la varianza estimada es una funci&oacute;n de su valor predicho<sup>9,10</sup>. Los MLG se pueden expresar como una ecuaci&oacute;n similar a la de una regresi&oacute;n lineal pero el resultado es una versi&oacute;n transformada de la variable dependiente, usualmente el logaritmo natural (Ln) de la misma. En este caso, la medida estad&iacute;stica de la asociaci&oacute;n es el cambio (delta) predicho en el Ln de la variable dependiente (<a href="#t01">TABLA 1</a>).</p>      <p align="center"><a name="t01"></a><img src="img/revistas/suis/v48n1/v48n1a03t1.jpg"></p>      <p align="justify">Sin embargo, para su utilizaci&oacute;n en epidemiolog&iacute;a, este resultado suele convertirse obteniendo el antilogaritmo correspondiente. Para obtener los estimados estos modelos suelen utilizar el m&eacute;todo de m&aacute;xima verosimilitud, el cual es el procedimiento est&aacute;ndar en la mayor&iacute;a de los programas estad&iacute;sticos<sup>9-11</sup>. De forma general, podemos decir que este m&eacute;todo busca, mediante iteraciones sucesivas, los coeficientes que construyen el modelo cuyos valores predichos sean lo m&aacute;s cercano posible a los valores observados en la muestra analizada. Entre los MLG, la regresi&oacute;n log&iacute;stica ha tenido un destaque especial y ha sido ampliamente descrita en textos did&aacute;cticos<sup>12,13</sup>. Por lo anterior, en lo sucesivo de este manuscrito haremos &eacute;nfasis en la regresi&oacute;n de Poisson y la binomial (o log-binomial).</p>      ]]></body>
<body><![CDATA[<p align="center"><font size="3"><b>REGRESI&Oacute;N DE POISSON</b></font></p>      <p align="justify">La distribuci&oacute;n de Poisson describe la frecuencia esperada de un conjunto de probabilidades para una variable discreta<sup>13</sup>. En cada punto de esta distribuci&oacute;n, se representa la probabilidad de que un determinado n&uacute;mero de eventos ocurra durante un periodo de tiempo en un espacio o poblaci&oacute;n especificada (<a href="#f02">FIGURA 2</a>). Esta distribuci&oacute;n se aplica principalmente en el estudio de eventos con probabilidades muy peque&ntilde;as o &quot;eventos raros&quot;.</p>      <p align="center"><a name="f02"></a><img src="img/revistas/suis/v48n1/v48n1a03f2.jpg"></p>      <p align="justify">De esta forma, una variable tipo Poisson consiste en el n&uacute;mero de veces que un acontecimiento ocurre en un tiempo, espacio y poblaci&oacute;n definida. En consecuencia, estas variables se presentan como tasas de un evento de inter&eacute;s. Por ejemplo, el n&uacute;mero de muertes por c&aacute;ncer g&aacute;strico en personas entre 50 a 70 a&ntilde;os en una poblaci&oacute;n espec&iacute;fica, podr&aacute; expresarse como una tasa por mill&oacute;n de habitantes en ese grupo etario, durante el periodo de observaci&oacute;n. En este caso, la unidad de observaci&oacute;n estar&iacute;a delimitada en t&eacute;rminos de tiempo, grupo poblacional y lugar. Como caracter&iacute;sticas importantes de este tipo de variables, se destacan las siguientes:</p>  <ol type="a">     <li>No adopta valores negativos, pues el conteo de eventos siempre tendr&aacute; resultados superiores o iguales a cero. De lo anterior se deriva que la suma de resultados nunca disminuye.</li>     <li>Las tasas suelen ser bajas y se asumen como constantes dentro de cada unidad de observaci&oacute;n.</li>     <li>Independencia de eventos, es decir, que la adici&oacute;n de un evento en una unidad de observaci&oacute;n no depende del n&uacute;mero pasado o presente de eventos.</li>     <li>En una observaci&oacute;n dada, el promedio de la variable Poisson es igual a su varianza.</li>     </ol>      <p align="justify">La <a href="#f02">FIGURA 2</a> presenta una simulaci&oacute;n de la distribuci&oacute;n de las probabilidades del n&uacute;mero de eventos de una variable tipo Poisson, seg&uacute;n cinco posibles valores del promedio (media) de la misma. En &eacute;sta se aprecian caracter&iacute;sticas de este tipo de variables, tales como la ausencia de valores negativos y el incremento de la variabilidad conforme aumenta el par&aacute;metro de la media (&lambda;) del n&uacute;mero de eventos. Debido a las caracter&iacute;sticas de este tipo de variables, es inadecuado analizar una variable de conteo de eventos utilizando una regresi&oacute;n lineal. Entre las razones est&aacute; el hecho de que la regresi&oacute;n lineal podr&iacute;a predecir valores negativos, los cuales carecer&iacute;an de sentido para una variable basada en un conteo de eventos. Adem&aacute;s, la regresi&oacute;n lineal asume que la varianza es constante para todos los valores de la variable dependiente, esto traer&iacute;a p&eacute;rdida de precisi&oacute;n y de eficiencia en las estimaciones. Por lo anterior, contamos con herramientas estad&iacute;sticas para este tipo de variables. Espec&iacute;ficamente, la regresi&oacute;n de Poisson est&aacute; dise&ntilde;ada para definir una ecuaci&oacute;n lineal cuyo resultado directo es el Ln del conteo de eventos. En consecuencia, un modelo resultante puede definirse por la siguiente f&oacute;rmula:</p>      ]]></body>
<body><![CDATA[<p align="center"><img src="img/revistas/suis/v48n1/v48n1a03e5.jpg"></p>      <p align="justify">donde <i>Ln(T)</i> es el logaritmo natural de la tasa o del n&uacute;mero de eventos por unidad de observaci&oacute;n y los otros t&eacute;rminos son an&aacute;logos a los del modelo lineal. Considerando variables independientes adicionales (<i>X<sub>1</sub>, X<sub>2</sub>, X<sub>3</sub>, &hellip;, X<sub>k</sub></i>), tendr&iacute;amos la siguiente f&oacute;rmula para representar un modelo de Poisson m&uacute;ltiple:</p>      <p align="center"><img src="img/revistas/suis/v48n1/v48n1a03e6.jpg"></p>      <p align="justify">La regresi&oacute;n de Poisson asume que los eventos son independientes en el sentido de que la ocurrencia de uno de ellos no hace m&aacute;s o menos probable la ocurrencia de otro<sup>14,15</sup>. Sin embargo, la probabilidad por unidad de observaci&oacute;n puede estar relacionada con las caracter&iacute;sticas de la misma, es decir con las variables independientes que la definen.</p>      <p align="left"><b>Aplicaciones de la regresi&oacute;n de Poisson</b></p>      <p align="justify">Con un modelo de Poisson, podemos predecir una tasa a partir de la presencia o ausencia de exposiciones. En la forma m&aacute;s simple, consideremos un modelo de Poisson con una variable independiente (<i>X</i><sub>1</sub>) con la siguiente ecuaci&oacute;n:</p>      <p align="center"><img src="img/revistas/suis/v48n1/v48n1a03e7.jpg"></p>      <p align="justify">Donde <i>X</i><sub>1</sub> adopta el valor de cero &quot;0&quot; en el grupo no expuesto y el valor de 1 en el grupo expuesto. Con esta f&oacute;rmula podemos estimar la tasa predicha para cada uno de los grupos de exposici&oacute;n:</p>  <ul>     <li>Tasa en no expuestos a <i>X</i><sub>1</sub>    <br> (<i>T<sub>0</sub></i>) &rarr; <i>Ln</i> (<i>T<sub>0</sub></i>) = <i>&beta;</i><sub>0</sub> + <i>&beta;</i><sub>1</sub>*0 = <i>&beta;</i><sub>0</sub> &rarr; <i>T<sub>0</sub></i> = <i>e</i><sup><i>&beta;o</i></sup></li>     ]]></body>
<body><![CDATA[<li>Tasa en expuestos a <i>X</i><sub>1</sub>    <br> (<i>T<sub>1</sub></i>) &rarr; <i>Ln</i> (<i>T<sub>1</sub></i>) = <i>&beta;</i><sub>0</sub> + <i>&beta;</i><sub>1</sub>*1 = <i>&beta;</i><sub>0</sub> + <i>&beta;</i><sub>1</sub> &rarr; <i>T<sub>1</sub></i> = <i>e</i><sup>(<i>&beta;</i>o+<i>&beta;</i>1)</sup></li>     </ul>      <p align="justify">La predicci&oacute;n de tasas se extiende para los modelos m&uacute;ltiples, en los que se puede calcular la tasa esperada seg&uacute;n diferentes niveles de exposici&oacute;n para m&uacute;ltiples variables independientes.</p>      <p align="justify">Pero la aplicaci&oacute;n m&aacute;s com&uacute;n de los modelos de regresi&oacute;n de Poisson es la estimaci&oacute;n de tasas relativas o razones de tasas (<i>RT</i>), bien sea crudas o ajustadas por diversas variables independientes. En este caso, la <i>RT</i> puede estimarse como una raz&oacute;n de funciones teniendo en el numerador la ecuaci&oacute;n para la categor&iacute;a considerada de exposici&oacute;n y en el denominador la ecuaci&oacute;n correspondiente al grupo de referencia (o no expuesto). As&iacute; por ejemplo, la <i>RT</i> para una variable <i>X</i><sub>1</sub>(<i>RT<sub>X1</sub></i>) en un modelo m&uacute;ltiple, se estimar&iacute;a de la siguiente forma:</p>      <p align="center"><img src="img/revistas/suis/v48n1/v48n1a03e8.jpg"></p>      <p align="justify">Simplificando la anterior expresi&oacute;n tenemos que:    <br> <i>RT<sub>X1</sub></i> = <i>e</i><sup><i>&beta;</i>1</sup></p>      <p align="justify">De forma gen&eacute;rica, podemos decir que la <i>RT</i> para una variable independiente <i>X<sub>i</sub></i> es el antilogaritmo de su coeficiente correspondiente <i>&beta;<sub>i</sub></i>. De esta forma, se calcular&iacute;a la medida de asociaci&oacute;n que ser&iacute;a el factor por el cual se multiplicar&iacute;a la tasa al cambiar de categor&iacute;a, desde un estado de no expuesto a uno de expuesto. En el caso de las variables independientes cuantitativas, la <i>RT</i> indicar&iacute;a el factor por el que se multiplica la tasa con cada aumento en una unidad en la escala de exposici&oacute;n.</p>      <p align="left"><b>Magnitud de la poblaci&oacute;n expuesta</b></p>      ]]></body>
<body><![CDATA[<p align="justify">La regresi&oacute;n de Poisson permite modelar el conteo de eventos en relaci&oacute;n a una determinada unidad de observaci&oacute;n, es decir, permite analizar dicho conteo dividido por alguna medida de la unidad de exposici&oacute;n (exposure)<sup>10,14,15</sup>. Por ejemplo, los bi&oacute;logos podr&iacute;an estar interesados en analizar el n&uacute;mero de especies de &aacute;rboles por unidad &aacute;rea de bosque, en este caso la unidad de observaci&oacute;n podr&iacute;a ser espacial (kil&oacute;metro cuadrado). En epidemiolog&iacute;a, con frecuencia utilizamos como denominador a la poblaci&oacute;n expuesta durante un periodo de tiempo. De esta manera, podemos calcular las tasas de un evento como (muertes por c&aacute;ncer u hospitalizaciones por dengue) utilizando el denominador poblacional de <i>personas-a&ntilde;o</i>.</p>      <p align="justify">Con frecuencia este denominador puede variar entre las unidades de observaci&oacute;n, bien sea por diferencias en el n&uacute;mero de personas expuestas o en el tiempo de observaci&oacute;n. En la regresi&oacute;n de Poisson, estas diferencias en el denominador de las tasas pueden modelarse pasando la medida de exposici&oacute;n al lado derecho de la ecuaci&oacute;n. De esta manera, si consideramos que la tasa (T) es una raz&oacute;n entre el conteo de eventos (n) y la magnitud de la exposici&oacute;n (Exp), entonces tenemos que:</p>      <p align="center"><img src="img/revistas/suis/v48n1/v48n1a03e9.jpg"></p>      <p align="justify">Por lo anterior, la regresi&oacute;n de Poisson, puede modelar el logaritmo del n&uacute;mero de eventos por unidad de exposici&oacute;n definiendo la siguiente ecuaci&oacute;n:</p>      <p align="center"><img src="img/revistas/suis/v48n1/v48n1a03e10.jpg"></p>      <p align="left"><b>Sobredispersi&oacute;n y cero-inflaci&oacute;n</b></p>      <p align="justify">Una caracter&iacute;stica de la distribuci&oacute;n de Poisson es que la tasa promedio y su varianza son iguales. Sin embargo, en ciertas circunstancias la varianza es mayor, fen&oacute;meno conocido como sobredispersi&oacute;n (overdispersion)<sup>10,14,15</sup>. Lo anterior sugiere que el modelo no es apropiado y suele llevar a que la regresi&oacute;n de Poisson subestime el error est&aacute;ndar, dando lugar a valores de p sesgados (demasiado peque&ntilde;os) e intervalos de confianza muy estrechos.</p>      <p align="justify">Una raz&oacute;n com&uacute;n es la omisi&oacute;n de variables explicativas o de observaciones relevantes. Por lo anterior, lo primero que debe hacerse es revisar los datos y las variables consideradas en el an&aacute;lisis. Sin embargo, el problema de sobredispersi&oacute;n puede persistir y, en algunas circunstancias, puede resolverse usando otros modelos como el regresi&oacute;n binomial negativa<sup>10,15</sup>. Esta &uacute;ltima regresi&oacute;n introduce un t&eacute;rmino (alfa: &alpha;) para modelar la sobredispersi&oacute;n, con lo que se podr&iacute;a alcanzar un modelo m&aacute;s ajustado a los valores observados.</p>      <p align="justify">Otro problema com&uacute;n con la regresi&oacute;n de Poisson es el exceso de ceros. Este problema se vuelve relevante cuando el exceso de ceros es causado porque en realidad hay dos procesos subyacentes: 1) un fen&oacute;meno que determina la presencia de un cero frente a un valor positivo; y 2) una vez que se alcanza un valor positivo, hay otro fen&oacute;meno que determina el conteo de eventos que se producen. Un ejemplo cl&aacute;sico ser&iacute;a la distribuci&oacute;n de cigarrillos fumados en una hora por miembros de un grupo en el que algunos individuos no son fumadores. En estos casos, la regresi&oacute;n binomial negativa tambi&eacute;n podr&iacute;a corregir este problema, aunque tambi&eacute;n existen alternativas como la regresi&oacute;n cero-inflada, que permite modelar los fen&oacute;menos mencionados<sup>15,16</sup>.</p>      <p align="center"><font size="3"><b>REGRESI&Oacute;N BINOMIAL</b></font></p>      ]]></body>
<body><![CDATA[<p align="justify">La distribuci&oacute;n binomial se observa en las variables dicot&oacute;micas, donde el resultado s&oacute;lo puede adoptar uno de dos valores posibles (por ejemplo, enfermar vs permanecer sano, o bien, morir vs sobrevivir). En estos casos, la regresi&oacute;n binomial (o log-binomial) modela el logaritmo de una proporci&oacute;n (p), que bien podr&iacute;a ser la incidencia o la prevalencia de una enfermedad<sup>17-19</sup>. El modelo tendr&iacute;a una estructura an&aacute;loga a la de otros MLG:</p>      <p align="center"><img src="img/revistas/suis/v48n1/v48n1a03e11.jpg"></p>      <p align="justify">A partir de este modelo, podemos obtener las medidas de asociaci&oacute;n entre cada variable independiente y el desenlace de inter&eacute;s de la misma forma como obtiene con el modelo de Poisson, es decir, como el antilogaritmo del coeficiente correspondiente. De esta manera, para la variable independiente <i>X</i><sub>1</sub>, la medida de asociaci&oacute;n ser&iacute;a: <i>e</i><sup><i>&beta;</i>1</sup>. En este caso la medida de asociaci&oacute;n ser&iacute;a el riesgo relativo (RR), si los datos fueron recolectados en estudios de cohorte, es decir si la proporci&oacute;n es una incidencia. Por otra parte, si el estudio corresponde a un corte transversal y la proporci&oacute;n es una prevalencia, la medida de asociaci&oacute;n ser&iacute;a una raz&oacute;n de prevalencia (RP).</p>      <p align="left"><b>Log-binomial vs log&iacute;stica</b></p>      <p align="justify">Tanto la regresi&oacute;n log-binomial como la log&iacute;stica modelan un desenlace dicot&oacute;mico utilizando una transformaci&oacute;n de la variable dependiente basada en logaritmos. Sin embargo, la regresi&oacute;n log&iacute;stica consiste en la definici&oacute;n de un modelo que prediga el logaritmo del odds de la variable dependiente, enlace (link) tambi&eacute;n conocido como <i>logit</i>. De esta forma, un modelo de regresi&oacute;n log&iacute;stica podr&iacute;a representarse con la siguiente f&oacute;rmula:</p>      <p align="center"><img src="img/revistas/suis/v48n1/v48n1a03e12.jpg"></p>      <p align="justify">Si bien ambas regresiones son consideradas en la familia de la distribuci&oacute;n binomial, la regresi&oacute;n log&iacute;stica modela odds y, por tanto, la medida de asociaci&oacute;n es el Odds Ratio (o raz&oacute;n de chances) y no el RR o el RP. Este lleva a que existan diferencias importantes en la dimensi&oacute;n del efecto y en la selecci&oacute;n de variables a ser incluidas en el modelo m&uacute;ltiple<sup>17,18</sup>.</p>      <p align="justify">Otra diferenciaci&oacute;n que es muy importante es que al contrario del logit, que puede adoptar cualquier valor de los n&uacute;meros reales, el espectro de transformaci&oacute;n del logaritmo de una proporci&oacute;n (usada en la log-binomial) no puede adoptar valores positivos pues esto implicar&iacute;a predecir probabilidades superiores a uno (1), resultado que carecer&iacute;a de l&oacute;gica.</p>      <p align="justify">En algunas ocasiones, la regresi&oacute;n log-binomial no consigue un modelo en el que todas las probabilidades predichas se mantengan dentro del intervalo de cero a uno (0 a 1)<sup>19-21</sup>. Esto puede ocurrir porque el modelo es inapropiado o por variaci&oacute;n aleatoria en grupos con probabilidades cercanas a la unidad. Cuando esto ocurre, los programas acaban realizando iteraciones sucesivas de forma indefinida sin alcanzar una convergencia en un modelo razonable.</p>      <p align="justify">Para lidiar con estos problemas de convergencia, se han planteado diversas alternativas para la estimaci&oacute;n de RR o RP en modelos m&uacute;ltiples<sup>19-22</sup>. Entre ellas, una de las m&aacute;s populares es utilizar la misma regresi&oacute;n de Poisson incluyendo la variable dependiente dicot&oacute;mica como si fuera un conteo (aunque s&oacute;lo adopte dos valores) sin especificar una medida de la magnitud de la exposici&oacute;n. Cuando se realiza este truco, se recomienda utilizar una estimaci&oacute;n robusta de la varianza para obtener intervalos de confianza similares a los que se obtendr&iacute;an con la regresi&oacute;n log-binomial<sup>19,22</sup>. Alternativas como esta &uacute;ltima arrojan medidas de asociaci&oacute;n matem&aacute;ticamente equivalentes a los RR obtenidos con la regresi&oacute;n logbinomial. Sin embargo, el investigador debe estar consciente de que est&aacute; utilizando una herramienta creada para un fin diferente y debe interpretar con precauci&oacute;n los estad&iacute;sticos post-estimaci&oacute;n (por ejemplo, la bondad de ajuste y el pseudo-R cuadrado) para evitar extrapolaciones que entren en conflicto con la naturaleza de las variables.</p>      ]]></body>
<body><![CDATA[<p align="center"><font size="3"><b>CONCLUSIONES</b></font></p>      <p align="justify">A trav&eacute;s de MLG utilizamos una estructura an&aacute;loga a la regresi&oacute;n lineal para analizar desenlaces discretos, tales como resultados dicot&oacute;micos o conteos de eventos. De esta manera, podemos estimar medidas de asociaci&oacute;n como la RT usando la regresi&oacute;n de Poisson, o bien, el RR o la RP usando la regresi&oacute;n log-binomial. En cada caso es esencial conocer la naturaleza de la variable dependiente, su distribuci&oacute;n y reconocer las limitaciones de cada una de las herramientas de an&aacute;lisis.</p>  <hr>      <p align="center"><font size="3"><b>REFERENCIAS</b></font></p>      <!-- ref --><p align="justify">1. Gordis L. Epidemiology. 5th edition. Philadelphia, Elsevier Saunders, 2014: p. 177-303.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948908&pid=S0121-0807201600010000300001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">2. Rothman KJ, Greemland S, Lash TL. Modern Epidemiology. 3th edition. Philadelphia: Lippincott Williams &amp; Wilkins 2008: p. 253-534.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948910&pid=S0121-0807201600010000300002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">3. Woodward M. Epidemiology. Study Design and Data Analysis. 2nd edition. New York: Chapman &amp; Hall/CRC, 2005: p. 163-671.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948912&pid=S0121-0807201600010000300003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">4. Godfrey K. Simple lineal regression in medical research. N Engl J Med. 1985; 313(26): 1629-1636.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948914&pid=S0121-0807201600010000300004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">5. Zou KH, Tuncali K, Silverman SG. Correlation and simple lineal regression. Radiology. 2003; 227(3): 617-622.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948916&pid=S0121-0807201600010000300005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">6. Eberly LE. Correlation and simple lineal regression. Methods Mol Biol. 2007; 404: 143-164. DOI: 10.1007/978-1-59745-530-5_8.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948918&pid=S0121-0807201600010000300006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">7. Hamilton LC. Regression with graphics. Belmont, CA: Wadsworth, 1992.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948920&pid=S0121-0807201600010000300007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">8. Nelder J, Wedderburn R. Generalized Lineal Models. J Roy Stat Society. Series A (General) (Blackwell Publishing) 1972; 135(3): 370-384.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948922&pid=S0121-0807201600010000300008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">9. Kleinbaum DG, Kupper LL, Nizam, Muller KE. Applied regression analysis and other multivariate models. 4th edition. Belmont: Thompson Brooks/ Cole, 2008.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948924&pid=S0121-0807201600010000300009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">10. Stata Corp. STATA Base Reference Manual, Volume 1, A-H, Release 11. Texas: Stata Press, 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948926&pid=S0121-0807201600010000300010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">11. Miranda A, Rabe-Hesketh S. Maximum likelihood estimation of endogenous switching and sample selection models for binary, ordinal, and count variables. Stata 2006; 6(3): 285-308.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948928&pid=S0121-0807201600010000300011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">12. Kleinbaum DG, Klein M. Logistic regression: A self-tearning text, Third Edition. New York: Springer, 2010.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948930&pid=S0121-0807201600010000300012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">13. Hosmer DW, Lemeshow S, Sturdivant RX. Applied logistic regression. New Jersey: John Wiley &amp; Sons, 2013.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948932&pid=S0121-0807201600010000300013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">14. Hutchinson MK, Holtman MC. Analysis of count data using poisson regression. Res Nurs Health. 2005; 28(5): 408-418.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948934&pid=S0121-0807201600010000300014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">15. Coxe S, West SG, Aiken LS. The analysis of count data: a gentle introduction to poisson regression and its alternatives. J Pers Assess. 2009; 91(2): 121-136. DOI: 10.1080/00223890802634175.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948936&pid=S0121-0807201600010000300015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">16. Lambert D. Zero-inflated Poisson regression, with an application to defects in manufacturing. Technometrics. 1992; 34(1): 1-14.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948938&pid=S0121-0807201600010000300016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">17. McNutt LA, Wu C, Xue X, Hafner JP. Estimating the Relative Risk in Cohort Studies and Clinical Trials of Common Outcomes. Am J Epidemiol. 2003; 157(10): 940-943.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948940&pid=S0121-0807201600010000300017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">18. Pearce N. Effect measure in prevalence studies. Environ Health Perspect. 2004; 112(10): 1047- 1050. DOI: 10.1289/ehp.6927.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948942&pid=S0121-0807201600010000300018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">19. Barros AJ, Hirakata VN. Alternatives for logistic regression in cross-sectional studies: an empirical comparison of models that directly estimate the prevalence ratio. BMC Med Res Methodol. 2003: 3-21.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948944&pid=S0121-0807201600010000300019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">20. Localio AR, Margolis DJ, Berlin JA. Relative risks and confidence intervals were easily computed indirectly from multivariable logistic regression. J Clin Epidemiol. 2007; 60(9): 874-882.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948946&pid=S0121-0807201600010000300020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">21. Diaz-Quijano FA. A simple method for estimating relative risk using logistic regression. BMC Med Res Methodol. 2012; 12:14. DOI: 10.1186/1471- 2288-12-14.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948948&pid=S0121-0807201600010000300021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p align="justify">22. Dwivedia AK, Mallawaarachchi I, Lee S, Tarwater P. Methods for estimating relative risk in studies of common binary outcomes. J Appl Statistics. 2014; 41(3): 484-500. DOI: 10.1080/02664763.2013.840772.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=3948950&pid=S0121-0807201600010000300022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>  </font>      ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gordis]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<source><![CDATA[Epidemiology]]></source>
<year>2014</year>
<edition>5th</edition>
<page-range>177-303</page-range><publisher-loc><![CDATA[Philadelphia ]]></publisher-loc>
<publisher-name><![CDATA[Elsevier Saunders]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rothman]]></surname>
<given-names><![CDATA[KJ]]></given-names>
</name>
<name>
<surname><![CDATA[Greemland]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Lash]]></surname>
<given-names><![CDATA[TL]]></given-names>
</name>
</person-group>
<source><![CDATA[Modern Epidemiology]]></source>
<year>2008</year>
<edition>3th</edition>
<page-range>253-534</page-range><publisher-loc><![CDATA[Philadelphia ]]></publisher-loc>
<publisher-name><![CDATA[Lippincott Williams & Wilkins]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Woodward]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Epidemiology: Study Design and Data Analysis]]></source>
<year>2005</year>
<edition>2nd</edition>
<page-range>163-671</page-range><publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Chapman & Hall/CRC]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Godfrey]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Simple lineal regression in medical research]]></article-title>
<source><![CDATA[N Engl J Med.]]></source>
<year>1985</year>
<volume>313</volume>
<numero>26</numero>
<issue>26</issue>
<page-range>1629-1636</page-range></nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zou]]></surname>
<given-names><![CDATA[KH]]></given-names>
</name>
<name>
<surname><![CDATA[Tuncali]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Silverman]]></surname>
<given-names><![CDATA[SG]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Correlation and simple lineal regression]]></article-title>
<source><![CDATA[Radiology]]></source>
<year>2003</year>
<volume>227</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>617-622</page-range></nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Eberly]]></surname>
<given-names><![CDATA[LE]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Correlation and simple lineal regression]]></article-title>
<source><![CDATA[Methods Mol Biol.]]></source>
<year>2007</year>
<volume>404</volume>
<page-range>143-164</page-range></nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hamilton]]></surname>
<given-names><![CDATA[LC]]></given-names>
</name>
</person-group>
<source><![CDATA[Regression with graphics]]></source>
<year>1992</year>
<publisher-loc><![CDATA[Belmont^eCA CA]]></publisher-loc>
<publisher-name><![CDATA[Wadsworth]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Nelder]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Wedderburn]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Generalized Lineal Models]]></article-title>
<source><![CDATA[J Roy Stat Society]]></source>
<year>1972</year>
<volume>135</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>370-384</page-range></nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kleinbaum]]></surname>
<given-names><![CDATA[DG]]></given-names>
</name>
<name>
<surname><![CDATA[Kupper]]></surname>
<given-names><![CDATA[LL]]></given-names>
</name>
<name>
<surname><![CDATA[Muller]]></surname>
<given-names><![CDATA[KE]]></given-names>
</name>
</person-group>
<collab>Nizam</collab>
<source><![CDATA[Applied regression analysis and other multivariate models]]></source>
<year>2008</year>
<edition>4th</edition>
<publisher-loc><![CDATA[Belmont ]]></publisher-loc>
<publisher-name><![CDATA[Thompson Brooks/ Cole]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="book">
<collab>Stata Corp</collab>
<source><![CDATA[STATA Base Reference Manual]]></source>
<year>2009</year>
<volume>1</volume>
<publisher-loc><![CDATA[Texas ]]></publisher-loc>
<publisher-name><![CDATA[Stata Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Miranda]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Rabe-Hesketh]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Maximum likelihood estimation of endogenous switching and sample selection models for binary, ordinal, and count variables]]></article-title>
<source><![CDATA[Stata]]></source>
<year>2006</year>
<volume>6</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>285-308</page-range></nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kleinbaum]]></surname>
<given-names><![CDATA[DG]]></given-names>
</name>
<name>
<surname><![CDATA[Klein]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Logistic regression: A self-tearning text]]></source>
<year>2010</year>
<edition>Third</edition>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hosmer]]></surname>
<given-names><![CDATA[DW]]></given-names>
</name>
<name>
<surname><![CDATA[Lemeshow]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Sturdivant]]></surname>
<given-names><![CDATA[RX]]></given-names>
</name>
</person-group>
<source><![CDATA[Applied logistic regression]]></source>
<year>2013</year>
<publisher-loc><![CDATA[New Jersey ]]></publisher-loc>
<publisher-name><![CDATA[John Wiley & Sons]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hutchinson]]></surname>
<given-names><![CDATA[MK]]></given-names>
</name>
<name>
<surname><![CDATA[Holtman]]></surname>
<given-names><![CDATA[MC]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Analysis of count data using poisson regression]]></article-title>
<source><![CDATA[Res Nurs Health]]></source>
<year>2005</year>
<volume>28</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>408-418</page-range></nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Coxe]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[West]]></surname>
<given-names><![CDATA[SG]]></given-names>
</name>
<name>
<surname><![CDATA[Aiken]]></surname>
<given-names><![CDATA[LS]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The analysis of count data: a gentle introduction to poisson regression and its alternatives]]></article-title>
<source><![CDATA[J Pers Assess.]]></source>
<year>2009</year>
<volume>91</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>121-136</page-range></nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lambert]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Zero-inflated Poisson regression, with an application to defects in manufacturing]]></article-title>
<source><![CDATA[Technometrics]]></source>
<year>1992</year>
<volume>34</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>1-14</page-range></nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[McNutt]]></surname>
<given-names><![CDATA[LA]]></given-names>
</name>
<name>
<surname><![CDATA[Wu]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Xue]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
<name>
<surname><![CDATA[Hafner]]></surname>
<given-names><![CDATA[JP]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Estimating the Relative Risk in Cohort Studies and Clinical Trials of Common Outcomes]]></article-title>
<source><![CDATA[Am J Epidemiol.]]></source>
<year>2003</year>
<volume>157</volume>
<numero>10</numero>
<issue>10</issue>
<page-range>940-943</page-range></nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Pearce]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Effect measure in prevalence studies]]></article-title>
<source><![CDATA[Environ Health Perspect.]]></source>
<year>2004</year>
<volume>112</volume>
<numero>10</numero>
<issue>10</issue>
<page-range>1047- 1050</page-range></nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Barros]]></surname>
<given-names><![CDATA[AJ]]></given-names>
</name>
<name>
<surname><![CDATA[Hirakata]]></surname>
<given-names><![CDATA[VN]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Alternatives for logistic regression in cross-sectional studies: an empirical comparison of models that directly estimate the prevalence ratio]]></article-title>
<source><![CDATA[BMC Med Res Methodol.]]></source>
<year>2003</year>
<page-range>3-21</page-range></nlm-citation>
</ref>
<ref id="B20">
<label>20</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Localio]]></surname>
<given-names><![CDATA[AR]]></given-names>
</name>
<name>
<surname><![CDATA[Margolis]]></surname>
<given-names><![CDATA[DJ]]></given-names>
</name>
<name>
<surname><![CDATA[Berlin]]></surname>
<given-names><![CDATA[JA]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Relative risks and confidence intervals were easily computed indirectly from multivariable logistic regression]]></article-title>
<source><![CDATA[J Clin Epidemiol.]]></source>
<year>2007</year>
<volume>60</volume>
<numero>9</numero>
<issue>9</issue>
<page-range>874-882</page-range></nlm-citation>
</ref>
<ref id="B21">
<label>21</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Diaz-Quijano]]></surname>
<given-names><![CDATA[FA]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A simple method for estimating relative risk using logistic regression]]></article-title>
<source><![CDATA[BMC Med Res Methodol.]]></source>
<year>2012</year>
<volume>12</volume>
<page-range>14</page-range></nlm-citation>
</ref>
<ref id="B22">
<label>22</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Dwivedia]]></surname>
<given-names><![CDATA[AK]]></given-names>
</name>
<name>
<surname><![CDATA[Mallawaarachchi]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[Lee]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Tarwater]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Methods for estimating relative risk in studies of common binary outcomes]]></article-title>
<source><![CDATA[J Appl Statistics.]]></source>
<year>2014</year>
<volume>41</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>484-500</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
