SciELO - Scientific Electronic Library Online

 
vol.9 issue19Symbols, meanings and practices associated with personal finances in university students author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • On index processCited by Google
  • Have no similar articlesSimilars in SciELO
  • On index processSimilars in Google

Share


Suma de Negocios

Print version ISSN 2215-910XOn-line version ISSN 2027-5692

suma neg. vol.9 no.19 Bogotá Jan./June 2018

https://doi.org/10.14349/sumneg/2018.v9.n19.a1 

Artículo de investigación

Sobre la señal-decisión y su modelación

On signal-decision and its modeling

Carlos N. Bouza Herrera1  * 
http://orcid.org/0000-0003-2456-2430

Agustín Santiago Moreno2 
http://orcid.org/0000-0002-2901-7856

José M. Sautto Vallejo3 
http://orcid.org/0000-0002-1609-8140

1 Universidad de La Habana, Cuba. Correo electrónico: bouza@matcom.uh.cu

2 Universidad Autónoma de Guerrero. Acapulco, México. Correo electrónico: asantiago@uagro.mx

3 Universidad Autónoma de Guerrero. Acapulco, México. Correo electrónico: sautto@uagro.mx


Resumen

Se propone un modelo para varios enfoques alternativos de la predicción de las probabilidades involucradas a partir de procesar las señales obtenidas enviadas por los jugadores, que pueden ser empresas compitiendo en el mercado. Ellos fijan un nivel mínimo de la utilidad esperada y se interesan en la probabilidad de que se satisfaga esta expectativa. Estos enfoques son analizados usando experimentos de Monte Carlo, desarrollado en el marco de la Teoría de Juegos y diferentes modelos estadísticos para hacer predicciones sobre la probabilidad de éxito o de obtener una cierta utilidad. Se establece el comportamiento de las distintas estrategias propuestas considerando que los errores siguen una distribución normal, doble exponencial y Cauchy. Se hace una comparación de los resultados dados por los algoritmos programados el R y SAS, encontrando que son mejores los de R en términos de (, sin embargo GLIMIX PRC MIXED de SAS tiene valores menores de V2 en todos los casos.

Palabras clave: Investigación desarrollo; cota de la utilidad; probabilidad de éxito; predicción de la probabilidad; GLIM

Abstract

We propose a model for several alternative approaches to the prediction of the probabilities involved by processing the obtained signals sent by the players, which may be companies competing in the market. They set a minimum level of expected utility and are interested in the probability that this expectation will be satisfied. These approaches are analyzed using Monte Carlo experiments, developed in the framework of Game Theory and different statistical models to make predictions about the probability of success or to obtain a certain utility. The behavior of the different proposed strategies is established, considering that the errors follow a Normal, double Exponential and Cauchy distribution. A comparison is made of the results given by the algorithms programmed R and SAS, finding that R are better in terms of δ, however GLIMIX PRC MIXED of SAS has lower values of V2 in all cases.

Keywords: Research development; dimension of the utility; likelihood of success; prediction of the probability; GLIM

Introducción

Algunos problemas que surgen en la toma de decisiones en corporaciones y en la competencia por el mercado son especialmente importantes y requieren de una base teórica tanto para trabajar en la práctica como para comprender los mecanismos que los rigen. Esto requerirá no solo de un marco de la Teoría de Juegos sino también de modelos estadísticos para hacer predicciones sobre la probabilidad de éxito o de obtener una cierta utilidad al tomar una decisión (Atkinson et al., 2014, Lynn et al., 2015, Lynn & Barrett, 2014). Esto es importante cuando se analiza el mercado de las nuevas tecnologías en el que varias empresas planean si es conveniente cooperar para desarrollarla. Las firmas compiten en el mercado, pero evalúan si cooperar en el desarrollo de la nueva tecnología es una política adecuada (Panajotovic & Draca, 2015, Steinert-Threlkeld, 2016). Cada firma envía señales sobre sus potencialidades para llevar a cabo tareas de investigación-desarrollo (ID, en español, y R&D en inglés). Este es un tema muy actual, véase, por ejemplo, Veugelers (1998), Yi (1998), Ray y Vohra (1999), y Shane et al. (2016). Cada firma estará interesada en modelar este juego estableciendo cuál es el valor de la probabilidad de obtener una ganancia que satisfaga sus expectativas. Analizando las señales enviadas por las otras firmas sobre su capacidad tecnológica y su éxito, en empeños previos de investigación-desarrollo y/o su desempeño en el mercado, analiza el valor de la probabilidad antes de decidir cooperar o no hacerlo.

En este trabajo se brinda un modelo para varios enfoques alternativos de la predicción de las probabilidades involucradas a partir de procesar las señales obtenidas. Se desarrollan experimentos de Monte Carlo que permiten establecer el comportamiento de las distintas estrategias propuestas. Estos experimentos se basan en considerar que los errores involucrados siguen una distribución normal (Gaussiana), doble exponencial (Laplace), Lévy o Cauchy.

Coaligarse o no coaligarse y el emprendimiento

Establecer una colaboración para el desarrollo de nuevos equipos o tecnologías es muy común. Esto aparece referido como tareas de R&D o de joint venture en la literatura anglosajona. Consideremos una población de firmas que participan del mercado de un bien. Cada una tiene un fondo para investigación acotado y da señales al mercado tales como fidelidad a la marca, nicho de mercado, calidad percibida por los clientes, nivel de sus dispositivos de investigación y desarrollo (ID), etc. Este es un tema que es tratado en diversos trabajos como los de Veugelers (1998), Yi (1998), Ray y Vohra (1999), Shane et al. (2016), Anderson (2015). Los productos de cada firma están diferenciados ligeramente. Las firmas por su parte compiten en el mercado pero evalúan cooperar para el desarrollo de nuevas tecnologías. Por ejemplo, Aloysius (2002) señala los casos de IBM y Lucent Technologies, quienes comparten el mercado de circuitos integrados para aplicaciones específicas a través de unidades vendedoras. Similarmente, ocurre con Intel y Advanced Micro Devices en el mercado de microprocesadores, Hyundai, Motorola y Phillips, en tecnología para telefonía celular, o usuarios finales de tecnologías de punta en sus productos acabados como Compaq y Hewlett-Packard.

En estos casos, las firmas envían como señales sobre sus potencialidades para desarrollar parte de una nueva tecnología a otras firmas. Las firmas evalúan estas señales para establecer si la probabilidad de que sea exitoso el coligarse con ella es alta o no y si esto es suficientemente beneficioso, entonces, ¿representará una ventaja para las empresas, en términos de la utilidad, coaligarse?

Este problema lo podemos modelar usando la propuesta de Aloysius (2002). Desde el punto de vista de la Teoría de Juegos podemos considerar la existencia de una población de firmas Todo subconjunto S de esta población es una coalición. En términos de la Teoría de Juegos debemos considerar que cada firma tiene un presupuesto acotado y se busca obtener un beneficio por tomar como decisión que la señal da signos de que lo mejor es aceptar la incorporación a la coalición. Si a la firma i le cuesta el entrar en la coalición, lo que depende de la tecnología y la potencialidad investigativa que aporta, entonces la coalición asumirá la tecnología más barata aportada por los miembros de ella. Por tanto el costo del desarrollo de la nueva tecnología es: . Si cada firma obtiene una fracción de beneficio lo que busca al coaligarse puede ser caracterizado por resolver el problema de optimización:

Donde solo si la firma “i” decide entrar en la coalición. Los otros miembros de la coalición envían señales a esta firma y valoran si querrá incorporarse. Para ello necesitan establecer si 1 es suficientemente grande.

Algo similar harán los promotores de una cooperación para desarrollar una nueva tecnología. Analizando las señales enviadas por las firmas sobre su capacidad tecnológica y su éxito, en empeños previos de investigación-desarrollo y/o su desempeño en el mercado, se considera si la firma decidirá integrarse o no a la cooperación. Por su parte, una firma puede analizar la actitud de las demás para enviar señales sobre cuál considera que debe ser su fracción .

La modelación

Un enfoque se basa en el análisis de la utilidad. Consideremos que el agente receptor (AR) recibe señales del mercado y desea estudiar el comportamiento de una función de utilidad

Donde los son parámetros desconocidos, las s son variables de control y es un error aleatorio de esperanza cero y varianza constante. Un ejemplo de tal función de utilidad está dado por la riqueza del agente a partir de la estructura de su portafolio de acciones. En este caso es el número de acciones del bien representa los pasivos del agente receptor (AR) en cuentas bancarias y el resto de los parámetros el valor de un bono del bien correspondiente. En el caso de la cooperación en ID la firma tiene un nicho en el mercado en los productos t = 1,.., p y un pasivo B0. Considera que el bien t le aporta una ganancia BtYt. Relacionemos la señal que obtiene con la variable

Z=1, si la señal sugiere a i que ejecute cambios en su vector de bienes.

Z=0, si la señal sugiere a i que no ejecute ninguna acción.

Cuando Z=0 el AR no considerará cambiar y su riqueza no se ve afectada. Si Z=1 él puede cambiar y tomar un como el vector con los nuevos valores de la variable de decisión, la estructura de las acciones del portafolio. Al cambiar se incrementa el bien t en . Es decir, con la decisión de cambiar su utilidad sería:

El cambio en la utilidad es

Donde . Por su parte representa el cambio en la utilidad del agente debido a cambiar Yit por Xit t haciendo caso a la señal.

Vamos a considerar solo el caso en que los parámetros no varían con la decisión tomada para t = 1,.., p. Entonces la esperanza del cambio es igual a

Note que en el caso de un solo bien el agente va a ser indiferente ante la señal si se fija como solución

En la práctica, el AR considera la existencia de diversos escenarios posibles. Cada uno debe generar una señal que al ser identificada le llevaría a fijar un valor de Z.

Consideremos que el AR analiza el mercado y observa una señal Sh Entonces toma una decisión asociada a un vector del conjunto Su interés es establecer si cierto xi, que cree está asociado a la señal es adecuado por considerar que el valor de la variable aleatoria es Z=1. Si es alta, entonces, al observar la señal decidirá cambiar su portafolio con estructura

por el dado por x. Esto se asocia a la valoración de si (Ui toma valores positivos suficientemente altos.

Aceptemos que el número de realizaciones observadas en el mercado lleva a que:

ni= número de observaciones en que es suficientemente grande para aceptar que .

Una mentalidad estocástica lleva a que el AR desee establecer cuál es la función de distribución del incremento de la utilidad, es decir,

Analizando una muestra de tamaño , evaluará las variables Bernoulli

Yi(h)=1, si se genera una señal que determina que se debe cambiar a

Yi(h)=0, si se genera una señal que determina que no se debe cambiar

Es decir que Yi(h)=1 si y solo sí . Aunque estas variables de Bernoulli no sean independientes, dado el tamaño de la muestra,

, se distribuye como una Binomial, .

El problema debe ser resuelto a través de la estimación de ((x). Podemos usar el estimador naive:

Dadas las hipótesis sobre los ni’s: , y considerando que el orden de convergencia soporta la aceptación de que .

Si el experimento es diseñado se observan ni resultados del efecto de enviar la señal xi. Esto, por ejemplo, será de interés para una agencia considerada como el gestor de formar una coalición. Se envían señales y se observa el comportamiento de los receptores. A partir de su estudio ellos deciden qué política llevar para comunicarse exitosamente a través de un sistema de señales.

Como cada señal corresponde a un solo vector y las n respuestas son representables por la matriz

donde hay ni, réplicas del vector .

Por otra parte la Ley de los Grandes Números garantiza que

Donde ( representa un vector cuyas k componentes son iguales

.

Otra situación es aquella en la que se obtienen n señales y se identifica que ni de ellas corresponden a xi. Consideremos que estas fueron generadas por una de H clases posibles y que hay m posibles señales. El gestor analiza la firma aspirante y considera si puede ser del tipo Cj, j=1,..., H, tal como ocurriría con un corredor de bolsa, que debe evaluar situaciones del mercado cambista, con la finalidad de tomar la mejor decisión.

Ahora ni continúa siendo una variable aleatoria y el interés está en la variable Zij = j si x corresponde a la señal i y pertenece a Cj (Zij = 0 en otro caso).

El AR se interesa en conocer:

Ahora

Tomando en otro caso).

Al igual que en el modelo anterior el interés está en estimar

Una contrapartida del estimador de ((x) propuesto anteriormente es

Consideremos que es válido el conjunto de hipótesis

H1:

Un par de relaciones de interés teórico necesarias son que H2:

H2.1. Existe solo un se cumple que

H2.2 Existe solo un se cumple que

Cuando se cumplen H1 y H2.1 tenemos el modelo logit y si fuera H1, H2.2 el multinomial y la convergencia de los estimadores dados en (1) es garantizada.

Otra forma más clásica es usar los modelos logit y log-lineal para hacer la estimación de los parámetros usando el método de máxima verosimilitud para obtener las probabilidades. Este enfoque establece que los agentes involucrados van a utilizar distintos modelos para establecer cómo evaluar la probabilidad de que su utilidad sea incrementada al coaligarse. Utilizando los criterios predominantes en el mercado el AR determina k escenarios. Evaluando ni experiencias similares le interesa conocer

P’i = proporción de firmas que entrarían en el escenario i.

Usando como función de enlace la canónica

donde,

( vector de predictores lineales.

X = matriz de dimensión kxp.

= vector paramétrico de dimensión p.

El método de máxima verosimilitud (MV) es el más usado para hacer los ajustes, véase Fahrmeier-Tutz (1994). Pueden ser usados como algoritmos el Genmod del sistema SAS 8.10 y el GLM aplicado sobre R. Véanse experiencias recientes sobre su uso en Gentleman (1996) y Barreto y Kypreos (2004). Un análisis del método general puede ser obtenido en Agresti (1990) y en McCullagh-Nelder (1989). Véanse particularidades sobre los algoritmos usados en el paquete SAS en Little y Yau (1996) y Wolfinger (1999).

La desviación:

donde, . Esta es calculada para establecer la bondad del ajuste y, dado que la devianza binomial residual se distribuye (2 (k-p), se probará si el modelo es adecuado usando la prueba chi-cuadrado. Se estima la dispersión utilizando:

El cual estima la escala (. Este es el estimador de momentos del estadístico generalizado de Pearson, ( es el vector de variables dependientes ajustado y (* el estimador de (, véase McCullough-Searle (2001). Este estimador permite establecer la existencia o no de superdispersión. Esto es válido cuando es significativamente grande.

El AR espera que si la probabilidad de éxito es suficientemente grande es conveniente unirse en la joint venture. Si el aspirante conoce el modelo usado estará en condiciones de estimar esta probabilidad.

Comparación de los diferentes estimadores mediante un experimento de Monte Carlo

Compararemos los resultados asociados al uso de los estimadores calculados con los algoritmos dados en SAS y R, dado que tienen integradas las funciones para las estimaciones, respecto a la estimación realizada usando los estimadores Naive (1) y (2).

Consideremos que el orden de convergencia soporta la aceptación de que . Véase Hadjicostas (2003) para una discusión de problemas de este tipo. Para ello consideraremos una firma con p = 10 y k = 5 escenarios. En cada uno se generaran 1.000 vectores x que producen una ganancia dentro de un rango . Tenemos en cuenta señales generadas aleatoriamente que dan información sobre realizaciones de los diferentes escenarios. Se generaron 500 vectores y con ellos se evaluó el modelo para estimar la probabilidad de obtener un valor aceptable de la ganancia. Se consideraron dos métodos de muestreo: se hace un muestreo tomando en cuenta la estratificación por tipo de escenario y, en el segundo, no se tiene en cuenta la estratificación.

Para cada uno de los métodos se indica el porcentaje de veces en que se aceptó el modelo usando D(P’, P*), la estimación de la dispersión y el promedio de la norma. El promedio de la norma se define como ||probabilidad estimada-probabilidad real|| y se denota por . Los resultados se brindan en la tabla 1.

Tabla 1 Exactitud de los métodos 

Fuente: elaboración propia a partir de datos simulados.

Como se ve en la tabla 1, Genmod computa estimadores que son los de menor dispersión y la propuesta Naive (1) es la menos confiable en estos términos. En general, al considerarse la devianza, el comportamiento de los estimadores es aceptable. El modelo es aceptado con una frecuencia muy cercana a la fijada por la teoría excepto para (1). Para (* también GLM-R1.6.1 es el mejor en términos de la aceptación del modelo como correcto. Las otras alternativas no difieren considerablemente. Sin embargo (1) tiene los mejores valores de (. Esto conlleva a que la elección de uno de los estimadores como el mejor globalmente no sea posible sino sobre la base de criterios del decisor.

En el caso en que el número de fracasos sea superior a lo esperado de una distribución binomial un enfoque es considerar que la distribución de los éxitos está contaminada con una distribución degenerada que tiene probabilidad uno de no observar un éxito. Diversos autores han acometido el estudio de esos modelos como es el caso del trabajo de Breswlow y Clayton (1993) y Deng y Paul (2002). En este caso, un modelo adecuado es suponer que el juego en que estamos involucrados ha sido afectado por un cierto shock que genera un número alto de no-éxitos inesperadamente. Tomemos un vector de efectos aleatorios (i para modelar este fenómeno. Sea , con probabilidad con probabilidad 1-Qit) una variable aleatoria. Ahora , siendo el vector de las como el de las probabilidades de mezcla Bit las que son funciones de las covariables.

mide la sobredispersión en la prueba desarrollada por Berenhaut (2002), dando origen al modelo es el vector de los el vector de parámetros de la regresión,

B = ( B1 T ,..., Bk T )T y W = ( W1T ,..., WkT )T matrices de diseño. Para las probabilidades de mezcla el modelo es Logit(Qi ) = , donde es el vector de parámetros de la regresión y G = ( G1T ,..., GkT )T

y W = ( W1 T ,..., Wk T ) matrices de diseño. El cómputo de los estimadores se llevará a cabo usando el software SAS’ PROC NLMIXED.

La existencia de shocks va a modelarse introduciéndolas por variables aleatorias, uniforme en (0, 1), Qij. Aplicamos los métodos de cómputo de estimadores utilizados en el experimento reportado en la tabla 1. Comparamos sus resultados con los obtenidos con este último cuando el modelo efectivo es el asociado al shock. Es decir, la firma desconoce el cambio en el mercado y utiliza los datos observados utilizando un estimador que realmente no es máximo verosímil.

La tabla 2 brinda los resultados obtenidos al analizar las muestras generadas. Las distribuciones incluidas en el estudio tenían el mismo parámetro de escala. Las observaciones en la base de datos fueron transformadas al generar el correspondiente usando la distribución prefijada. Las distribuciones utilizadas en la experimentación fueron: la uniforme en , la normal, la Cauchy y la doble exponencial (Laplace) con esperanza 0 y escala it y la exponencial con media .

Los resultados en la tabla 2 establecen la superioridad en términos de exactitud del uso de los estimadores Naive siendo el (2) ligeramente superior que el (1) en la mayoría de las experiencias. Genmod-SAS tiene un buen comportamiento para las llamadas “distribuciones alfa-estables”: Cauchy y normal. Estos resultados califican los estimadores Naive como una opción aparentemente robusta.

Tabla 2 Exactitud de los estimadores medida por bajo diversas distribuciones de con parámetro de escala  

Fuente: elaboración propia a partir de datos simulados.

Otro enfoque de este problema sería considerar que, en vez de un shock hay un componente aleatorio que afecta la evaluación que se hace de las señales enviadas por las firmas que pueden integrarse a la coalición. Tengamos en cuenta que debe considerarse en el modelo de la respuesta la existencia de este factor utilizando el vector aleatorio ui y establecer que su efecto es medido por el factor . Note que este se distribuye condicionalmente de acuerdo con una binomial con esperanza . Denotaremos Y* = y por r al vector cuya componente i-ésima es ri = Y*i /mi. Tomando , la matriz de efectos fijos como Xkxp y la matriz de efectos aleatorios Dkxq el modelo a usar es

Para resolver el problema de la estimación véase McCullough-Searle (2001), el uso de la quasi-log verosimilitud penalizada conjunta

Se considera en su construcción que u sigue una distribución normal q-variada N(0,G).

El problema de optimización asociado es complicado pues, la variable dependiente ajustada, debe ser aproximada por:

Lo que garantiza que: .

Usando el macro GLIMMIX y el procedimiento PRC MIXED del SAS 8.10 los estimadores son evaluables. Otra alternativa es ajustarlos usando el comando glmmPQL, que es básicamente un procedimiento de mínimos cuadrados reponderados iterativamente, del ambiente R 1.6.1 basado en el método de Newton-Raphson para ajustar el modelo generalizado, mientras que usa el EM para resolver el problema de optimización planteado en la estimación de los componentes de la dispersión asociados a los efectos de u. Una discusión sobre cómo trabajan los algoritmos de maximización conjunta que aparecen en ambos procedimientos es brindada por Breslow-Clayton (1993). El ajuste del modelo es evaluado por el test de superdispersión basados en el estimador de la componente de extradispersión: es el estimador del vector de estimadores el rango de X y u la predicción de u. La prueba se basa en comprobar si este estadístico de prueba soporta que el parámetro es significativamente mayor que 1. Vea Schall (1991) para una discusión sobre este y el algoritmo usado para su determinación.

Utilizamos las mismas características del experimento de Monte Carlo efectuado para el caso de los shocks, con el fin de generar los efectos aleatorios. En este caso usado como desviación típica a .

Tabla 3 Exactitud de los estimadores medida por bajo diversas distribuciones de ui con parámetro de escala  

Fuente: elaboración propia con datos simulados.

Los resultados del algoritmo programado en el ambiente R 1.6.1 son mejores que los brindados por el del SAS en términos de pues están más cerca de cero en todos los casos. Ambos algoritmos establecen siempre la aceptación de la consistencia de la varianza con la distribución asumida, lo que evidencia la no-existencia de superdispersión. Sin embargo, GLIMIX PRC MIXED SAS 8.10 tiene valores menores de V2 en todos los casos.

Conclusiones

En términos de proporción de aceptación, el mejor algoritmo que nos da la más alta probabilidad de que, dadas las señales, las empresas decidan coaligarse es el GLM de R 1.6.1, aunque el promedio de la norma es ligeramente mayor que la propuesta Naive (1), cuyo valor es 0,028 y es menos confiable en estos términos de la proporción de aceptación. El modelo es aceptado con una frecuencia muy cercana a la fijada por la teoría, excepto para (1). Para también GLM-R1.6.1 es el mejor en términos de la aceptación del modelo como correcto. Las otras alternativas no difieren considerablemente. Sin embargo, (1) tiene el mejor valor de (, pero cuando evaluamos la exactitud bajo diversas distribuciones de probabilidad, este algoritmo resulta ser mejor para las distribuciones uniforme y exponencial, mientras que (2) lo es para las distribuciones normal, Cauchy y Laplace; en especial en estas dos últimas, con valores de 0,031 y 0,014, respectivamente. Esto conlleva a que la elección de uno de los estimadores como el mejor globalmente no sea posible sino sobre la base de criterios del decisor.

En términos de exactitud el estimador, Naive (2) es ligeramente superior que el (1) en la mayoría de las experiencias. Genmod-SAS tiene un buen comportamiento para las llamadas distribuciones alfa-estables: Cauchy y Normal. Estos resultados califican los estimadores Naive propuestos como una opción aparentemente robusta.

Los resultados del algoritmo programado en el ambiente R 1.6.1 son mejores que los brindados por el del SAS, en términos de pues están más cerca de cero en todos los casos. Ambos algoritmos establecen siempre la aceptación de la consistencia de la varianza con la distribución asumida, lo que evidencia la no-existencia de superdispersión. No obstante, GLIMIX PRC MIXED SAS 8.10 tiene valores menores de V2 en todos los casos.

Referencias

Agresti, A. (1990). Categorical data analysis. Nueva York: Wiley. [ Links ]

Aloysius, J. (2002). Research joint ventures: A cooperative game for competitors. European Journal of Operational Research, 136, 591-602. 10.1016/S0377-2217(01)00064-9 [ Links ]

Anderson, N. D. (2015). Teaching signal detection theory with pseu doscience. Frontiers in Psychology, 6, 762. http://doi.org/10.3389/fpsyg.2015.00762Links ]

Atkinson, S., Levula, A., Caldwell, N., Wigand. R. & Hossain, L. (2014). Signalling decision making and taking in a complex world. 2014 International Conference on Information Technology and Management Science (ICITMS 2014). Hong Kong: WIT Transactions on Engineering Sciences. [ Links ]

Barreto, L. & Kypreos, S. (2004). Endogenizing R&D and market experience in the “bottom-up” energy-systems ERIS model. In Technovation, 24, 615-629. [ Links ]

Berenhaut, H. (2002). Score test for heterogeneity and overdis persion in Zero-inflated. Poisson and Binomial Regression Models. The Canadian Journal of Statistics, 30(3), 1-15. [ Links ]

Breswlow, N. E. & Clayton, D. G. (1993). Approximate inference in generalized linear mixed models. Journal of the American Statistical Association, 88, 9-25. [ Links ]

Deng, D. & Paul, S. R. (2002 ). Score tests for zero-inflationed linear models. Canadian Journal of Statistics. 28, 563-570. [ Links ]

Gentleman, I. (1996). R: A Language for Data Analysis and Graphics. Journal of Computational and Graphical Statistics, 5 [ Links ]

Hadjicostas, P. (2003). Consistency of logistic regression coefficient estimates calculated from training sample. Statistics and Probability Letters, 62, 293-303. [ Links ]

Little, R. y Yau, L. (1996). Intent-to-treat analysis for longitudinal studies with drop-outs. Biometrics, 52(4), 1324-1333. DOI: 10.2307/2532847 [ Links ]

Lynn, S. K., Wormwood, J. B., Barrett, L. F. & Quigley, K. S. (2015). Decision making from economic and signal detection per spectives: development of an integrated framework. Frontiers in Psychology, 6, 952. http://doi.org/10.3389/fpsyg.2015.00952Links ]

Lynn, S. K. & Barrett, L. F. (2014). Utilizing” signal detection theory. Psychological Science, 25(9), 1663-1673. http://doi.org/10.1177/0956797614541991Links ]

McCullagh, P. & Nelder, J.A. (1989). Generalized linear model (second edition). Londres: Chapman & Hall. Disponible en http://www.utstat.toronto.edu/~brunner/oldclass/2201s11/read ings/glmbook.pdfLinks ]

McCullough, C., Searle, S. J. & Neuhaus, J. (2001). Generalized, linear, and mixed models. Hoboken: John Wiley & Sons. [ Links ]

Panajotovic, A. S., & Draca, D. L. (2015). Channel capacity of dual SC system with desired signal decision algorithm in correlated Weibull fading. 12th International Conference on Telecommunication in Modern Satellite, Cable and Broadcasting Services (TELSIKS), Nis, 2015, 263-266. DOI: 10.1109/TELSKS.2015.7357783. [ Links ]

Ray, D. & Vohra, R. (1999). A theory of endogenous coalition structures. Games and Economic Behavior, 26, 286-336. [ Links ]

Schall, R. (1991). Estimation in generalized linear models with ran-dom effects. Biometrika, 78, 719-727. [ Links ]

Steinert-Threlkeld, S. (2016). Compositional Signaling in a Complex World. Springer Science+Business Media Dordrecht, 25, 379-397. [ Links ]

Veugelers, R. (1998). Collaboration in R&D: An assessment of theoretical and empirical findings. De Economist, 146, 419-443. [ Links ]

Wolfinger, R. B. (1999). Fitting nonlinear mixed models with the new NLMIXED procedure. Proceedings of the Twenty-Fourth Annual Statistics, Data Analysis, and Modeling. Miami Beach: Estados Unidos. Disponible en http://www2.sas.com/proceedings/sugi24/Stats/p287-24.pdfLinks ]

Yi, S. (1998). Endogenous formation of joint ventures with efficiency gains. RAND Journal of Economics, 29, 610-631. [ Links ]

Yousefi, A., Kakooee, R. & Beheshti, M. (2017). Predicting learning dynamics in multiple-choice decision-making tasks using a variational Bayes technique. 39th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC), Seogwipo, 3194-3197. DOI: 10.1109/EMBC.2017.8037536. [ Links ]

Recibido: 14 de Noviembre de 2017; Aprobado: 30 de Enero de 2018

*Autor de correspondencia: Carlos N. Bouza Herrera, bouza@matcom.uh.cu

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons