<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1900-6586</journal-id>
<journal-title><![CDATA[Revista Científica General José María Córdova]]></journal-title>
<abbrev-journal-title><![CDATA[Rev. Cient. Gen. José María Córdova]]></abbrev-journal-title>
<issn>1900-6586</issn>
<publisher>
<publisher-name><![CDATA[Escuela Militar de Cadetes "General José María Córdova"]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1900-65862015000200010</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[La estereoscopía, métodos y aplicaciones en diferentes áreas del conocimiento]]></article-title>
<article-title xml:lang="en"><![CDATA[Stereoscopy, methods and applications in multiple fields of knowledge]]></article-title>
<article-title xml:lang="fr"><![CDATA[Stéréoscopie, des méthodes et des applications dans différents domaines de la connaissance]]></article-title>
<article-title xml:lang="pt"><![CDATA[Estereoscopia, métodos e aplicações em diferentes áreas do conhecimento]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Cárdenas Quiroga]]></surname>
<given-names><![CDATA[Elsa Adriana]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Morales Martín]]></surname>
<given-names><![CDATA[Luz Yolanda]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Ussa Caycedo]]></surname>
<given-names><![CDATA[Andrés]]></given-names>
</name>
<xref ref-type="aff" rid="A03"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Pontificia Universidad Javeriana  ]]></institution>
<addr-line><![CDATA[Bogotá ]]></addr-line>
<country>Colombia</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Militar Nueva Granada  ]]></institution>
<addr-line><![CDATA[Bogotá ]]></addr-line>
<country>Colombia</country>
</aff>
<aff id="A03">
<institution><![CDATA[,Universidad Militar Nueva Granada  ]]></institution>
<addr-line><![CDATA[Bogotá ]]></addr-line>
<country>Colombia</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>07</month>
<year>2015</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>07</month>
<year>2015</year>
</pub-date>
<volume>13</volume>
<numero>16</numero>
<fpage>201</fpage>
<lpage>219</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S1900-65862015000200010&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S1900-65862015000200010&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S1900-65862015000200010&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Se presenta una revisión teórica acerca del concepto de estereoscopía basado en un análisis detallado del proceso de evolución y del estado del arte. Asimismo, se explica el funcionamiento de la estereoscopía, sus fenómenos y principios y se describe el proceso de visión estereoscópica, los métodos de observación estereoscópica: visión convergente, visión paralela y sus técnicas, separación espectral, separación temporal y separación espacial; las herramientas o artefactos que permiten esta visión y algunas de las aplicaciones más utilizadas en los diferentes campos de las ciencias, como en la reconstrucción de terrenos y la telemedicina.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[This paper presents a theoretical review of the stereoscopy concept based on a detailed analysis of its evolution and state of art. It explains the stereoscopy's operation, its phenomena and principles, and describes the stereoscopic vision process, the stereoscopic observation methods: convergent vision and parallel vision, and their techniques: spectral separation, temporal separation and spatial separation; the tools and devices that enable that vision and some of the most used applications in multiple fields of science, e.g. terrain reconstruction and telemedicine.]]></p></abstract>
<abstract abstract-type="short" xml:lang="fr"><p><![CDATA[Cetarticleprésente une revuethéorique sur le concept de la stéréoscopie basé sur une analysedétaillée du processus de l'évolution et de l'état de l'art. Explique comment la stéréoscopie, sesphénomènes et principes et décrit le processus de la visionstéréoscopique, méthodesjumelles: parallèle et convergente vision de la vision et des techniques, la séparationspectrale, la séparationtemporelle et la séparationspatiale, des outilsou des dispositifsquipermettentcettevision et certaines des applications les plus utiliséesdans les différentsdomaines de la science, de la terre et de la reconstruction et de la télémédecine.]]></p></abstract>
<abstract abstract-type="short" xml:lang="pt"><p><![CDATA[Este artigo apresenta uma revisão teórica do conceito de estereoscopía, baseado em uma análise detalhada do processo de evolução e do estado da arte. O trabalho explica o funcionamento da estereoscopía , seus fenômenos e princípios e descreve o processo de visão estereoscópica, os métodos de observação estereoscópica: visão convergente, visão paralela e suas técnicas, separação espectral, separação temporal, e separação espacial; os dispositivos que permitem esta visão e algumas aplicações mais utilizadas nos diferentes campos das ciências, como na reconstrução de superfícies terrestres e no campo da telemedicina.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[disparidad]]></kwd>
<kwd lng="es"><![CDATA[estereoscopía]]></kwd>
<kwd lng="es"><![CDATA[estereovisión]]></kwd>
<kwd lng="es"><![CDATA[fotogrametría]]></kwd>
<kwd lng="es"><![CDATA[paralaje]]></kwd>
<kwd lng="en"><![CDATA[disparity]]></kwd>
<kwd lng="en"><![CDATA[parallax]]></kwd>
<kwd lng="en"><![CDATA[photogrammetry]]></kwd>
<kwd lng="en"><![CDATA[stereoscopy]]></kwd>
<kwd lng="en"><![CDATA[stereovision]]></kwd>
<kwd lng="fr"><![CDATA[parallaxedisparité]]></kwd>
<kwd lng="fr"><![CDATA[photogrammétrie]]></kwd>
<kwd lng="fr"><![CDATA[stéréoscopie]]></kwd>
<kwd lng="fr"><![CDATA[stéréovision]]></kwd>
<kwd lng="pt"><![CDATA[disparidade]]></kwd>
<kwd lng="pt"><![CDATA[estereoscopia]]></kwd>
<kwd lng="pt"><![CDATA[estereoscópica]]></kwd>
<kwd lng="pt"><![CDATA[fotogrametría]]></kwd>
<kwd lng="pt"><![CDATA[paralaxe]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[  <font face="Verdana" size="2">      <p align="center"><font size="4"><b>La estereoscop&iacute;a, m&eacute;todos y aplicaciones en diferentes &aacute;reas del conocimiento</b></font><Sup>*</Sup></p>     <p align="center"><font size="3"><B>Stereoscopy, methods and applications in multiple fields of knowledge.</b></font></p>      <p align="center"><font size="3"><b>St&eacute;r&eacute;oscopie, des m&eacute;thodes et des applications dans diff&eacute;rents domaines de la connaissance</b></font></p>      <p align="center"><font size="3"><b>Estereoscopia, m&eacute;todos e aplica&ccedil;&otilde;es em diferentes &aacute;reas do conhecimento</b></font></p>     <p align="center"><I>Elsa Adriana C&aacute;rdenas Quiroga</I><Sup>a</Sup>, <I>Luz Yolanda Morales Mart&iacute;n</I><Sup>b</Sup>, <I>Andr&eacute;s Ussa Caycedo</I><Sup>c</Sup></p>      <p><sup>*</sup> Art&iacute;culo resultado del  Proyecto de investigaci&oacute;n "Correcci&oacute;n de las distorsiones paral&aacute;cticas en las im&aacute;genes estereosc&oacute;picas", c&oacute;digo: ING-1186, del Programa de Ingenier&iacute;a Civil de la Universidad Militar Nueva Granada, Bogot&aacute;, Colombia. </p>      <p><sup>a</sup> Profesora vinculada con el programa de ingenier&iacute;a civil desde 1999 como docente de c&aacute;tedra y desde el 2003 como docente de planta. Ge&oacute;loga egresada de la Universidad de Caldas 1998. Especialista en Docencia Universitaria de la Universidad Militar Nueva Granada a&ntilde;o 2004. Mag&iacute;ster en Gesti&oacute;n ambiental de la Pontificia Universidad Javeriana a&ntilde;o 2008. Bogot&aacute;, Colombia. Correo electr&oacute;nico: <a href="mailto:elsa.cardenas@unimilitar.edu.co">elsa.cardenas@unimilitar.edu.co</a>    <br>  <sup>b</sup> Ingeniera Civil egresada de la Universidad Militar Nueva Granada (1988). Especialista en proyectos de desarrollo de la Escuela Superior de Administraci&oacute;n P&uacute;blica, ESAP, (2000). Magister en Educaci&oacute;n de la Universidad de la Sabana (1998). Doctora en Ciencias de la Ingenier&iacute;a de la Universidad de Santiago de Chile (2011). Profesora investigadora de tiempo Completo del Programa de Ingenier&iacute;a Civil de la Universidad Militar Nueva Granada desde 1994 a la fecha. L&iacute;der del Grupo de Investigaci&oacute;n Ingenier&iacute;a, Geom&aacute;tica y Educaci&oacute;n (IGE). Bogot&aacute;, Colombia. Correo electr&oacute;nico: <a href="mailto:luz.morales@unimilitar.edu.co">luz.morales@unimilitar.edu.co</a>    <br>  <sup>c</sup> Ingeniero Mecatr&oacute;nico de la Universidad Militar Nueva Granada. Joven Investigador del grupo Ingenier&iacute;a Geom&aacute;tica y Educaci&oacute;n (IGE) a&ntilde;o 2013. Bogot&aacute;, Colombia. Correo electr&oacute;nico: <a href="mailto:tmp.andres.caicedo@unimilitar.edu.co">tmp.andres.caicedo@unimilitar.edu.co</a> </p>     ]]></body>
<body><![CDATA[<p><B>C&oacute;mo citar este art&iacute;culo:</B> C&aacute;rdenas Quiroga, E. A.; Morales Mart&iacute;n, L. Y.; Ussa Caycedo, A.(2015, julio-diciembre). La estereoscop&iacute;a, m&eacute;todos y aplicaciones en diferentes &aacute;reas del conocimiento. Rev. Cient. Gen. Jos&eacute; Mar&iacute;a C&oacute;rdova 13(16), 201-219 </p>      <p align="center"><I>Recibido: 15 de marzo de 2015 Aceptado: 30 de julio de 2015 </I></p> <hr>      <p><b>Resumen</b></p>     <p>Se presenta una revisi&oacute;n te&oacute;rica acerca del concepto de estereoscop&iacute;a basado en un an&aacute;lisis detallado del proceso de evoluci&oacute;n y del estado del arte. Asimismo, se explica el funcionamiento de la estereoscop&iacute;a, sus fen&oacute;menos y principios y se describe el proceso de visi&oacute;n estereosc&oacute;pica, los m&eacute;todos de observaci&oacute;n estereosc&oacute;pica: visi&oacute;n convergente, visi&oacute;n paralela y sus t&eacute;cnicas, separaci&oacute;n espectral, separaci&oacute;n temporal y separaci&oacute;n espacial; las herramientas o artefactos que permiten esta visi&oacute;n y algunas de las aplicaciones m&aacute;s utilizadas en los diferentes campos de las ciencias, como en la reconstrucci&oacute;n de terrenos y la telemedicina.</p>      <p><b>Palabras clave</b>: disparidad, estereoscop&iacute;a, estereovisi&oacute;n, fotogrametr&iacute;a, paralaje. </p> <hr>      <p><b>Abstract</b></p>     <p> This paper presents a theoretical review of the stereoscopy concept based on a detailed analysis of its evolution and state of art. It explains the stereoscopy's operation, its phenomena and principles, and describes the stereoscopic vision process, the stereoscopic observation methods: convergent vision and parallel vision, and their techniques: spectral separation, temporal separation and spatial separation; the tools and devices that enable that vision and some of the most used applications in multiple fields of science, e.g. terrain reconstruction and telemedicine.</p>      <p><b>Keywords</b>: disparity, parallax, photogrammetry, stereoscopy, stereovision. </p> <hr>      <p><b>R&eacute;sum&eacute;</b></p>     <p>Cetarticlepr&eacute;sente une revueth&eacute;orique sur le concept de la st&eacute;r&eacute;oscopie bas&eacute; sur une analysed&eacute;taill&eacute;e du processus de l'&eacute;volution et de l'&eacute;tat de l'art. Explique comment la st&eacute;r&eacute;oscopie, sesph&eacute;nom&egrave;nes et principes et d&eacute;crit le processus de la visionst&eacute;r&eacute;oscopique, m&eacute;thodesjumelles: parall&egrave;le et convergente vision de la vision et des techniques, la s&eacute;parationspectrale, la s&eacute;parationtemporelle et la s&eacute;parationspatiale, des outilsou des dispositifsquipermettentcettevision et certaines des applications les plus utilis&eacute;esdans les diff&eacute;rentsdomaines de la science, de la terre et de la reconstruction et de la t&eacute;l&eacute;m&eacute;decine.</p>      ]]></body>
<body><![CDATA[<p><b>Mots-cl&eacute;s</b>: parallaxedisparit&eacute;, photogramm&eacute;trie, st&eacute;r&eacute;oscopie, st&eacute;r&eacute;ovision. </p> <hr>      <p><b>Resumo</b></p>     <p>Este artigo apresenta uma revis&atilde;o te&oacute;rica do conceito de estereoscop&iacute;a, baseado em uma an&aacute;lise detalhada do processo de evolu&ccedil;&atilde;o e do estado da arte. O trabalho explica o funcionamento da estereoscop&iacute;a , seus fen&ocirc;menos e princ&iacute;pios e descreve o processo de vis&atilde;o estereosc&oacute;pica, os m&eacute;todos de observa&ccedil;&atilde;o estereosc&oacute;pica: vis&atilde;o convergente, vis&atilde;o paralela e suas t&eacute;cnicas, separa&ccedil;&atilde;o espectral, separa&ccedil;&atilde;o temporal, e separa&ccedil;&atilde;o espacial; os dispositivos que permitem esta vis&atilde;o e algumas aplica&ccedil;&otilde;es mais utilizadas nos diferentes campos das ci&ecirc;ncias, como na reconstru&ccedil;&atilde;o de superf&iacute;cies terrestres e no campo da telemedicina.</p>      <p><b>Palavras-chave</b>: disparidade, estereoscopia, estereosc&oacute;pica, fotogrametr&iacute;a, paralaxe. </p> <hr>      <p><font size="3"><b>Introducci&oacute;n</b></font></p>      <p>La visi&oacute;n estereosc&oacute;pica es un proceso inherente a los seres humanos, consistente en obtener una vista tridimensional de objetos percibidos mediante visi&oacute;n binocular. El cerebro humano interpreta la realidad a partir de las im&aacute;genes que le proporcionan los dos ojos, las cuales presentan diferencias entre s&iacute;, ocasionadas por su separaci&oacute;n; la disparidad o paralaje entre dichas im&aacute;genes es utilizada por el cerebro para percibir la profundidad. Este proceso se logra no solo de manera natural sino mediante el empleo de algunos mecanismos o procedimientos que involucran el uso de instrumentos o equipos, como los sistemas de visi&oacute;n paralela, visi&oacute;n cruzada, an&aacute;glifos, polarizaci&oacute;n, obturaci&oacute;n, cascos de realidad virtual y monitor lenticular. Los fundamentos de la visi&oacute;n estereosc&oacute;pica durante el siglo XIX se le atribuyen al f&iacute;sico Charles Wheatstone; el desarrollo de la fotograf&iacute;a durante ese siglo conduce a la aparici&oacute;n de las primeras c&aacute;maras y visores estereosc&oacute;picos (Mart&iacute;n,Su&aacute;rez, Rubio y Gallego, 2013). Este tipo de visi&oacute;n ha sido utilizada en gran cantidad de &aacute;reas y aplicaciones. La estereoscop&iacute;a, como tambi&eacute;n se le conoce al proceso, ayuda a capturar e identificar caracter&iacute;sticas y rasgos que no se logran por medios tradicionales, en lo cual radica su importancia (Saiz, 2010). Algunas de las principales aplicaciones relacionadas se dan en campos como la visi&oacute;n de m&aacute;quina (Wang, Zhang y Quan, 2009), entretenimiento (Beraldin <I>et al.</I>, 2005), navegaci&oacute;n (Miyazawa y Aoki, 2008), procesamiento y an&aacute;lisis de im&aacute;genes (Gupta, Naidu, Srinivasan y Krishna, 2011), telecirug&iacute;a y simuladores de vuelo, entre otras. </p>      <p>En este art&iacute;culo se har&aacute; referencia a la explicaci&oacute;n del fen&oacute;meno de la visi&oacute;n estereosc&oacute;pica, los diferentes m&eacute;todos de observaci&oacute;n estereosc&oacute;pica y algunas de las m&aacute;s importantes aplicaciones en diferentes campos. </p>      <p><font size="3"><b>Proceso de estereoscop&iacute;a</b></font></p>      <p>A fin de explicar de una manera clara el proceso de la estereoscop&iacute;a es preciso establecer un marco te&oacute;rico que permita contextualizar los aspectos psico-f&iacute;sicos, en los cuales se basa la estereovisi&oacute;n. Dentro de estos aspectos se pueden mencionar la fisiolog&iacute;a de los ojos, adem&aacute;s de la disparidad binocular. </p>      <p>Con el objetivo de conceptualizar el funcionamiento, fen&oacute;menos y cualidades de la visi&oacute;n estereosc&oacute;pica, se procede a hacer una introducci&oacute;n. A continuaci&oacute;n se abordar&aacute;n temas de estereoscop&iacute;a como disparidad binocular, geometr&iacute;a epipolar, entre otros. </p>      ]]></body>
<body><![CDATA[<p>Generalidades de la visi&oacute;n estereosc&oacute;pica </p>     <p>Visi&oacute;n estereosc&oacute;pica o estereoscop&iacute;a, como tambi&eacute;n se le conoce, es un proceso que se realiza de manera natural cuando un observador mira simult&aacute;neamente dos im&aacute;genes de un mismo objeto, que han sido captadas desde dos posiciones distintas. Cada ojo ve una imagen y el resultado de ese proceso es la percepci&oacute;n de la profundidad o tercera dimensi&oacute;n. </p>      <p>El ojo humano funciona de manera an&aacute;loga a una c&aacute;mara fotogr&aacute;fica, as&iacute; por ejemplo, la c&oacute;rnea se comporta como un filtro, el iris es el regulador de la intensidad de la luz, el cristalino act&uacute;a como lente y la retina se asimila a la pel&iacute;cula en la cual se forma la imagen. El conjunto de actividades realizadas por cada parte del ojo es lo que permite la formaci&oacute;n de la imagen y el proceso de estereovisi&oacute;n se produce cuando el cerebro fusiona en una sola, la imagen recibida por cada ojo. </p>      <p>La percepci&oacute;n de la tercera dimensi&oacute;n se puede lograr involucrando las sombras, el tama&ntilde;o relativo de los objetos o mediante la perspectiva. No obstante lo anterior, solo la convergencia relativa de los ejes &oacute;pticos, cuando se miran objetos a distancias variables, es lo que genera la apreciaci&oacute;n de la profundidad a la que se observan dichos objetos. </p>      <p>En el proceso de observaci&oacute;n de un objeto, el ojo humano realiza movimientos conocidos como acomodaci&oacute;n y convergencia, los cuales se producen de manera simult&aacute;nea para garantizar la comodidad en la observaci&oacute;n. La intersecci&oacute;n de la convergencia de los ejes &oacute;pticos genera un &aacute;ngulo denominado paral&aacute;ctico cuyo valor depende directamente de la distancia entre el observador y el objeto. En la <a href="#f1">figura 1</a> se indica la manera en la que se interceptan los ejes &oacute;pticos formando el &aacute;ngulo paral&aacute;ctico &beta;, el valor del &aacute;ngulo se hace mayor entre menor sea la distancia entre el observador y el objeto (Bicas, 2004). </p>     <p align="center"><a name="f1"></a><img src="img/revistas/recig/v13n16/v13n16a10f1.jpg"></p>      <p>El humano es capaz de percibir el relieve de los objetos debido a dos fen&oacute;menos, el conocimiento <I>a priori</I> de una escena (tama&ntilde;o de objetos, texturas, sombras, l&iacute;neas arquitect&oacute;nicas, etc.) y la diferencia entre las im&aacute;genes captadas por ambos ojos. Este es un proceso psicofisiol&oacute;gico en el que interviene el ojo y cerebro (Howard y Rogers, 2012). Los dos ojos, al estar situados en posiciones diferentes, recogen cada uno en sus retinas una imagen ligeramente distinta de la realidad que tienen delante, lo cual se conoce como disparidad binocular. El cerebro toma informaci&oacute;n de cada ojo y las une en una imagen, interpretando las peque&ntilde;as diferencias entre cada vista para calcular la distancia a la que se encuentran los objetos mediante la t&eacute;cnica del paralaje, generando el efecto de profundidad. Esto produce una visi&oacute;n tridimensional, con la cual se logra ver exactamente d&oacute;nde est&aacute; el entorno en relaci&oacute;n al cuerpo. </p>      <p>La geometr&iacute;a epipolar establece las relaciones geom&eacute;tricas que existen entre puntos espaciales en una escena y sus respectivas proyecciones en las retinas de los ojos, generando as&iacute; fronteras entre los puntos de la imagen. Un epipolo se define como "la imagen en una c&aacute;mara de la proyecci&oacute;n central de la otra c&aacute;mara" (Cyganek y Siebert, 2011). La percepci&oacute;n de relieve se realiza en planos de vista (planos epipolares), que tienen como eje la distancia interpupilar, la cual se presenta entre 55 mm y 75 mm (Howard y Rogers, 1995). </p>      <p>La paralaje vertical, que es la diferencia de latitud entre las rectas paralelas al eje epipolar, se debe anular para poder percibir con nitidez la imagen, de no ser as&iacute; se percibir&aacute; una imagen doble. En funci&oacute;n de la distancia interpupilar, el hombre est&aacute; en la capacidad de alcanzar radios comprendidos entre 500 y 1500 metros (L&oacute;pez-Cuervo y Est&eacute;vez, 1980). </p>      <p>El efecto tridimensional tambi&eacute;n se puede generar artificialmente. La visi&oacute;n estereosc&oacute;pica artificial se da cuando se observan dos fotograf&iacute;as de la misma escena, pero tomadas desde puntos diferentes, siendo posible obtener una impresi&oacute;n tridimensional de lo que se observa. Para esto se deben cumplir dos condiciones: que cada ojo observe la imagen que le corresponde y que las im&aacute;genes est&eacute;n sobre las paralelas a la base estereosc&oacute;pica, evitando la paralaje vertical. </p>      ]]></body>
<body><![CDATA[<p><b>M&eacute;todos de visi&oacute;n estereosc&oacute;pica</b></p>      <p>La observaci&oacute;n en relieve se puede realizar por medio de dos procedimientos: l&iacute;neas de visi&oacute;n convergente y l&iacute;neas de visi&oacute;n paralela (L&oacute;pez-Cuervo y Est&eacute;vez, 1980), los cuales se explican a continuaci&oacute;n: </p>      <p><I>L&iacute;neas de visi&oacute;n convergente </I></p>      <p>En primer lugar se encuentra la observaci&oacute;n con l&iacute;neas de visi&oacute;n convergente. Este es el m&aacute;s natural y c&oacute;modo para las personas, puesto que se realiza el mecanismo de acomodaci&oacute;n y convergencia a la misma distancia. El funcionamiento b&aacute;sico consiste en la observaci&oacute;n de cada foto con un solo ojo, es decir visi&oacute;n independiente. Los m&eacute;todos m&aacute;s usados para este tipo de observaci&oacute;n son los an&aacute;glifos, la polarizaci&oacute;n activa y pasiva, entre otros. </p>      <p>El m&eacute;todo con l&iacute;neas de visi&oacute;n convergente se puede lograr de m&uacute;ltiples t&eacute;cnicas, mediante separaci&oacute;n espectral, separaci&oacute;n temporal, separaci&oacute;n espacial o separaci&oacute;n mixta. La separaci&oacute;n espectral consiste en la utilizaci&oacute;n del filtro por an&aacute;glifo o el principio de polarizaci&oacute;n. La visi&oacute;n estereosc&oacute;pica por an&aacute;glifos muestra las dos im&aacute;genes de un par asignando colores complementarios (Iizuka, 2008). Estos colores complementarios com&uacute;nmente son rojo y azul. El usuario usa gafas con filtros de color rojo y azul, de tal manera que un ojo observe solo la imagen azul y el otro la imagen roja, de esta forma separando cada imagen. Tal t&eacute;cnica tiene como ventajas su simplicidad y bajo costo, adem&aacute;s es frecuentemente utilizado en libros con ilustraciones 3D. No obstante, unas de las desventajas que presenta es la p&eacute;rdida de resoluci&oacute;n, rivalidad de colores, no poder ser usadas con im&aacute;genes a color y en ocasiones es inc&oacute;modo para el usuario. Su aplicaci&oacute;n puede ser una buena alternativa en tareas de an&aacute;lisis y control que no exigen rigurosidad. </p>      <p>La visi&oacute;n estereosc&oacute;pica por polarizaci&oacute;n requiere de dos componentes: pantalla polarizante y gafas polarizadas. El monitor debe proyectar las im&aacute;genes a una frecuencia de 120 Hz, y en funci&oacute;n de esta intercalar la polarizaci&oacute;n ortogonal, mostrando una imagen diferente en cada intervalo. Las gafas, por su parte, son pasivas y deben tener los cristales polarizados, uno en direcci&oacute;n horizontal y el otro vertical. De igual forma, permiten observar varios monitores simult&aacute;neamente y no incomodan en visi&oacute;n monosc&oacute;pica. Dicho m&eacute;todo se destaca por permitir la visualizaci&oacute;n de im&aacute;genes a color y superponer vectores. Por otro lado, su principal deficiencia es la reducci&oacute;n del brillo en un %75. </p>      <p>En el m&eacute;todo de separaci&oacute;n temporal se alternan las im&aacute;genes izquierda y derecha a una frecuencia comprendida entre 80 y 160 Hz, siendo com&uacute;n usar 120 Hz, ya que se necesita por lo menos 60 Hz en cada ojo para evitar el parpadeo. El efecto tridimensional se consigue usando unas gafas activas (requieren bater&iacute;as) de cristal l&iacute;quido, que obturan el paso de la luz de manera sincronizada con la imagen que se est&aacute; observando. La sincronizaci&oacute;n depende del controlador situado en las gafas, el cual las enlaza con el monitor. Este tipo de gafas permite la visualizaci&oacute;n est&eacute;reo en pantallas de cualquier resoluci&oacute;n, tama&ntilde;o y n&uacute;mero de colores. El principal problema se presenta con la aparici&oacute;n de residuos de imagen en un ojo al que no le correspond&iacute;a, o la presencia de parpadeo, inconvenientes que se atribuyen a la desincronizaci&oacute;n o bater&iacute;as descargadas. </p>      <p>En tercer lugar se encuentra la separaci&oacute;n espacial, donde se dirige cada ojo a una pantalla diferente o a una pantalla dividida en dos, de tal manera que cada uno reciba su correspondiente imagen. Para lograrlo se acude a la utilizaci&oacute;n de un estereoscopio situado al frente de la pantalla(s), lo cual permite que se puedan utilizar monitores habituales a 60 Hz y adaptadores gr&aacute;ficos est&aacute;ndar. Es posible realizar superposici&oacute;n vectorial adecuada para tareas de control. Las limitaciones tienen que ver con que solo permite un usuario a la vez, su utilizaci&oacute;n no es c&oacute;moda y el campo de visi&oacute;n en sentido horizontal es reducido. </p>      <p>Tambi&eacute;n es posible encontrar t&eacute;cnicas que incorporen varios de los m&eacute;todos ya mencionados, pero es evidente en las aplicaciones actuales de visi&oacute;n tridimensional que los principios de separaci&oacute;n temporal y espectral, en la versi&oacute;n de polarizaci&oacute;n, son los m&aacute;s utilizados. </p>      <p><I>L&iacute;neas de visi&oacute;n paralelas </I></p>     ]]></body>
<body><![CDATA[<p>El segundo procedimiento es por observaci&oacute;n con l&iacute;neas de visi&oacute;n paralelas, en donde se realiza la acomodaci&oacute;n a 25 cm, mientras se convergen los ojos al infinito, es m&aacute;s extenuante, por lo que se implementan unas lentes positivas entra las im&aacute;genes y el observador, lo cual facilita que se realice la convergencia y acomodaci&oacute;n a igual distancia, haciendo el procedimiento m&aacute;s conveniente. </p>      <p>Los autoestereogramas son una de las formas para representar objetos tridimensionales a trav&eacute;s del uso de l&iacute;neas de visi&oacute;n paralelas. Aqu&iacute; se sit&uacute;a una pantalla virtual entre el observador y el objeto, y la imagen del estereograma se construye por medio de puntos en aquella pantalla virtual (Tsuda, Yue y Nishita, 2008). El observador efect&uacute;a la estereopsis al observar pares de puntos en la imagen con el ojo izquierdo y derecho, dicha relaci&oacute;n es la que permite construir la imagen tridimensional. La aplicaci&oacute;n de esta t&eacute;cnica se observa en entretenimiento y esteganograf&iacute;a. </p>      <p><b>Aplicaciones de la estereovisi&oacute;n</b></p>      <p>Dada la importancia y el impacto que ha tenido el conocimiento de la estereovisi&oacute;n, en la actualidad se han desarrollado varias aplicaciones basadas en los diferentes m&eacute;todos involucrados. A continuaci&oacute;n se presentan algunas de las m&aacute;s destacadas en el campo de la reconstrucci&oacute;n tridimensional de escenas, la telemedicina y otros. </p>      <p><b>Reconstrucci&oacute;n tridimensional de terrenos</b></p>     <p>La reconstrucci&oacute;n tridimensional de terrenos ha tenido avances significativos en los &uacute;ltimos a&ntilde;os debido a la importancia que se ha generado por adquirir modelos 3D de escenas, a partir de im&aacute;genes capturadas por c&aacute;maras. Los avances en visi&oacute;n computacional han permitido que este procedimiento sea cada vez m&aacute;s flexible y preciso, a pesar de que sea un proceso complejo e intrincado. A partir de all&iacute; se ha generado gran cantidad de enfoques y propuestas de reconstrucci&oacute;n tridimensional donde se busca garantizar la calidad, disminuir la complejidad de uso y lograr reducci&oacute;n en los precios de los equipos. A continuaci&oacute;n se exponen investigaciones en este campo que ilustran la variedad de propuestas, su an&aacute;lisis y, por consiguiente, la importancia que el tema tiene en la actualidad. </p>      <p>Aportes importantes e innovadores en la creaci&oacute;n de sistemas de reconstrucci&oacute;n 3D se dieron al inicio del siglo XXI, cuando varias propuestas comenzaron a emerger. Principalmente se basaban en la creaci&oacute;n de un ambiente virtual a partir de varias im&aacute;genes adquiridas de una escena. Tales im&aacute;genes pod&iacute;an no estar uniformemente distribuidas e incluso no tener la misma calidad, pero se usaban para complementar espacios no conocidos previamente; el principal objetivo era crear mapas 3D interactivos, que incluso tuvieran los formatos apropiados para ser expuestos a trav&eacute;s de internet. </p>      <p>Radoui y Roman (2000) dise&ntilde;aron varios m&oacute;dulos teniendo como algoritmo principal la interpolaci&oacute;n de Shepard, con una aplicaci&oacute;n previa de procesos de sub-muestreo y re-muestreo de los datos de entrada. La reconstrucci&oacute;n del terreno se realiz&oacute; al relacionar la altitud de cada punto procesado, con puntos de la superficie de las respectivas im&aacute;genes en 2D, siguiendo su direcci&oacute;n normal. En conclusi&oacute;n, se determin&oacute; que el terreno puede ser creado autom&aacute;ticamente si se implementa la interfaz apropiada y se requer&iacute;an m&aacute;s pruebas del algoritmo para lograr una robustez alta. </p>      <p>En el a&ntilde;o 2003 se public&oacute; un art&iacute;culo (Tang, Wu, Tsui y Liu, 2003) que expon&iacute;a un algoritmo que integraba de manera m&aacute;s apropiada datos visibles y desconocidos para la realizaci&oacute;n de la reconstrucci&oacute;n. Su principal caracter&iacute;stica era la aplicaci&oacute;n de una etapa de optimizaci&oacute;n en donde se minimizaban los errores de proyecci&oacute;n de retorno de cada imagen, y se adicionaban diferentes pesos a los puntos para distinguir entre visibles y ocluidos. As&iacute;, se iniciaba el proceso de reconstrucci&oacute;n uniendo las estructuras parciales existentes para obtener un modelo 3D inicial. Despu&eacute;s se aplicaba la optimizaci&oacute;n ya mencionada, lo que permit&iacute;a proyectar todos los puntos caracter&iacute;sticos del espacio hac&iacute;a todas las im&aacute;genes, dependiendo de las matrices calculadas, sin importar si eran visibles o no. El algoritmo fue comprobado con datos simulados y secuencias de im&aacute;genes reales, mostrando una alta efectividad y precisi&oacute;n. </p>      <p>Telle y Ramdani (2003) propusieron un m&eacute;todo de reconstrucci&oacute;n que se caracteriz&oacute; por el uso de an&aacute;lisis de intervalos. En primer lugar, se implement&oacute; un modelo proyectivo para la calibraci&oacute;n de la c&aacute;mara basado en el modelo estenopeico est&aacute;ndar. Posteriormente seutiliz&oacute; un modelo estereosc&oacute;pico para realizar la adquisici&oacute;n y reconstrucci&oacute;n. De esta manera se defini&oacute; que la calibraci&oacute;n y reconstrucci&oacute;n involucraban sistemas lineales, que pod&iacute;an ser resueltos a trav&eacute;s de la teor&iacute;a de an&aacute;lisis de intervalos. La l&iacute;nea del proceso se puede observar en la <a href="#f2">figura 2</a>. Al aplicar el m&eacute;todo se pudo evaluar la precisi&oacute;n de los datos en ambos tipos de sistemas, teniendo como &uacute;nica suposici&oacute;n que su incertidumbre delimitada; metodolog&iacute;a que podr&iacute;a complementar otras propuestas en este campo para permitir una parametrizaci&oacute;n de las condiciones y fijar formas de validar la precisi&oacute;n. </p>     ]]></body>
<body><![CDATA[<p align="center"><a name="f2"></a><img src="img/revistas/recig/v13n16/v13n16a10f2.jpg"></p>      <p>Otros enfoques fueron propuestos en este prop&oacute;sito, como un modelo volum&eacute;trico activo, por Liu, Yao, Chen y Gao (2005);el modelo se basaba en principios f&iacute;sicos en donde, bajo la influencia de "fuerzas externas" artificiales, se encog&iacute;a un campo hac&iacute;a una escena real formada a partir de m&uacute;ltiples im&aacute;genes calibradas, prescindiendo de voxeles que no pertenec&iacute;an a la escena. </p>      <p>Las tres fuerzas consist&iacute;an en una restricci&oacute;n de superficie lisa, una de silueta y otra de consistencia de color. Basado en la composici&oacute;n de dichas fuerzas se lograba identificar agujeros y eliminar voxeles externos al modelo 3D. Se realizaron pruebas con dieciocho tomas de objetos espec&iacute;ficos, donde se mostraron las capacidades que ten&iacute;a el algoritmo de construir el modelo 3D del objeto e ignorar objetos no pertenecientes a este. </p>      <p>La integraci&oacute;n de informaci&oacute;n manual y autom&aacute;tica para la generaci&oacute;n de terrenos se observa en proyectos como el de Shao, Li y Cheng (2003),en donde se muestra una estrategia topol&oacute;gica de reconstrucci&oacute;n 3D semi autom&aacute;tica de edificios y v&iacute;as desde un estero par a&eacute;reo. Era una tarea que se realizaba a trav&eacute;s de operadores humanos, ahora se buscaba realizar a trav&eacute;s de una combinaci&oacute;n de procesos en donde se mezclan diferentes niveles de geometr&iacute;as junto con diferentes niveles de abstracci&oacute;n topol&oacute;gica, en donde los v&eacute;rtices, superficies y cuerpos se definen expl&iacute;citamente por el operador. Para esto se definieron cuatro niveles en el proceso. </p>      <p>El primer nivel contiene v&eacute;rtices con la m&aacute;s sencilla extensi&oacute;n espacial y sus tipos se describen por sus atributos. El segundo nivel contiene l&iacute;neas de juntas, las cuales se construyen de segmentos de l&iacute;nea conectados por puntos 3D. El tercer nivel contiene las superficies de los edificios mostrando la relaci&oacute;n con sus vecinos, que pueden ser edificios o v&iacute;as. El cuarto nivel consiste en los edificios o v&iacute;as en su totalidad. Se desarroll&oacute; un prototipo del software del modelador 3D basado en el m&eacute;todo presentado y se utilizaron como material de prueba im&aacute;genes a&eacute;reas a escala 1:8000. As&iacute;, seleccionando puntos de inter&eacute;s, se pudo realizar satisfactoriamente la reconstrucci&oacute;n de un modelo de ciudad 3D semi autom&aacute;ticamente. </p>      <p>La anterior es una muestra de la tendencia a automatizar los procesos de interpretaci&oacute;n de im&aacute;genes y reconstrucci&oacute;n de objetos, de tal forma que se puedan mejorar la calidad y confiabilidad de los resultados y favorecer a los operadores de dichas herramientas haci&eacute;ndolas m&aacute;s &uacute;tiles y f&aacute;ciles de manejar. </p>      <p>Mckinley, Mcwaters y Jain (2001) muestran los primeros pasos en el uso de solo un est&eacute;reo par desconociendo par&aacute;metros intr&iacute;nsecos o extr&iacute;nsecos de la escena o puntos especificados previos al procesamiento. En el proyecto se debe asegurar que los ejes &oacute;pticos de las dos im&aacute;genes se interceptan y que sus ejes <I>Y</I> son paralelos. Para mejorar el emparejamiento de puntos, y por consiguiente, la precisi&oacute;n del sistema, se realiz&oacute; una interpolaci&oacute;n de un dieciseisavo sobre el arreglo de p&iacute;xeles de las im&aacute;genes. Y finalmente, se realiza una verificaci&oacute;n para comprobar que los puntos calculados de la escena son confiables. A fin de realizar la reconstrucci&oacute;n final del modelo se necesita por lo menos un punto coordinado del ambiente o las dimensiones reales de un objeto de la escena. </p>      <p>Posterior a los primeros enfoques existentes ya mostrados, se comenzaron a dise&ntilde;ar m&eacute;todos que hicieran m&aacute;s robustos los sistemas de reconstrucci&oacute;n que exist&iacute;an. As&iacute; se encuentran investigaciones (Zhang y Xiao, 2008; Duan, Meng y Wang, 2008) que tienen como principal objetivo incluir en el proceso im&aacute;genes no calibradas y la posibilidad de presentar vistas muy apartadas entre s&iacute;. A su vez, ten&iacute;an como principal caracter&iacute;stica varios algoritmos de procesamiento de im&aacute;genes, como la extracci&oacute;n de puntos caracter&iacute;sticos, la auto-calibraci&oacute;n o puntos clave de escala invariante. El resultado principal que se presentaba era el mejoramiento de la estimaci&oacute;n de la matriz final, aportando a una correcta y precisa reconstrucci&oacute;n tridimensional. </p>      <p>La tendencia a la alta robustez y precisi&oacute;n de los sistemas de reconstrucci&oacute;n llevaron a su aplicaci&oacute;n en ambientes reales y problemas espec&iacute;ficos que incluyen, entre otros, la reconstrucci&oacute;n tridimensional de terrenos. A continuaci&oacute;n se describir&aacute;n unas de las aplicaciones m&aacute;s destacadas en este campo. </p>      <p>Un art&iacute;culo cient&iacute;fico realizado por Ming y Xianlin (2007) muestra una muy interesante aplicaci&oacute;n de la estereovisi&oacute;n en el campo de la reconstrucci&oacute;n de terrenos. All&iacute; se expone el problema del aterrizaje aut&oacute;nomo de un veh&iacute;culo en la superficie de la luna, para que tal procedimiento se realice de manera exitosa se deben seleccionar puntos de aterrizaje apropiados. Se propone un m&eacute;todo de reconstrucci&oacute;n en 3D por medio de estereovisi&oacute;n usando una c&aacute;mara de carga acoplada o CCD (por sus siglas en ingl&eacute;s), montada en la parte inferior del veh&iacute;culo. El sensor permitir&iacute;a adquirir suficiente informaci&oacute;n de textura de la superficie de la luna haciendo posible el uso de estereovisi&oacute;n. </p>      ]]></body>
<body><![CDATA[<p>Con el objetivo de generar el terreno tridimensional, se dise&ntilde;aron una serie de algoritmos que se organizaron en cuatro pasos. En primer lugar, la selecci&oacute;n y emparejamiento de puntos caracter&iacute;sticos. Seguidamente, la estimaci&oacute;n de rotaci&oacute;n y traslaci&oacute;n relativa entre diferentes posiciones. Tercero, la rectificaci&oacute;n del est&eacute;reo par y la obtenci&oacute;n de la imagen dispar. Y por &uacute;ltimo, la reconstrucci&oacute;n 3D del terreno y la generaci&oacute;n del mapa de elevaci&oacute;n digital del punto de aterrizaje. Se utilizaron t&eacute;cnicas como la transformada de escala invariante (selecci&oacute;n de caracter&iacute;sticas), el m&eacute;todo de rectificaci&oacute;n sin calibraci&oacute;n de c&aacute;mara (rectificaci&oacute;n del est&eacute;reo par) y el m&eacute;todo Locus (construcci&oacute;n del mapa de elevaci&oacute;n). </p>      <p>Todo el sistema se simul&oacute; en un software libre de generaci&oacute;n de terreno 3D llamado Geomorph V0.31, el cual dispone de un terreno digital de la luna con sus rasgos morfol&oacute;gicos caracter&iacute;sticos. A pesar de que el resultado final de la reconstrucci&oacute;n ha perdido algunos detalles, puede representar la forma del terreno de manera muy exacta, brindando la informaci&oacute;n suficiente para hallar un punto de aterrizaje adecuado para el veh&iacute;culo. Los resultados obtenidos de la simulaci&oacute;n muestran que el m&eacute;todo puede usarse efectivamente en la reconstrucci&oacute;n 3D de terreno lunar real (<a href="#f3">figura 3</a>). Por lo tanto, esta tecnolog&iacute;a puede encaminarse al desarrollo de futuras misiones a la luna debido a que proporciona mayores medidas de seguridad y altas probabilidades de un alunizaje exitoso. </p>     <p align="center"><a name="f3"></a><img src="img/revistas/recig/v13n16/v13n16a10f3.jpg"></p>      <p>Una aplicaci&oacute;n interesante se puede observar en (Brandou <I>et al.</I>, 2007), donde se dise&ntilde;&oacute; un m&eacute;todo de adquisici&oacute;n de im&aacute;genes para reconstrucci&oacute;n tridimensionales de escenas submarinas, de tal manera que se pueda complementar an&aacute;lisis de muestras y medidas fisicoqu&iacute;micas, gracias a sus medidas cuantitativas en 3D. Se utiliz&oacute; un sistema de estereovisi&oacute;n para capturar diferentes tomas de un objeto, a intervalos fijos de acuerdo a una trayectoria predefinida. El sistema estaba anexado al manipulador de un robot submarino, el cual era pre programado con la trayectoria a recorrer y la vez ofrec&iacute;a una imagen en vivo del escenario. Es un aspecto muy importante del sistema debido a que consiste en generar y seguir la trayectoria para conocer las posiciones exactas de la c&aacute;mara en todo el transcurso del recorrido, y posteriormente lograr un modelo 3D preciso de la escena. </p>      <p>El proceso iniciaba con la extracci&oacute;n de caracter&iacute;sticas de las im&aacute;genes est&eacute;reo para obtener una representaci&oacute;n inicial al relacionar aquellas escenas. A continuaci&oacute;n se realizaba una triangulaci&oacute;n b&aacute;sica de puntos que, con base en el paso anterior, lograba obtener una estimaci&oacute;n de la estructura tridimensional. Como &uacute;ltimo paso se implement&oacute; una t&eacute;cnica de estimaci&oacute;n de profundidad densa para adquirir una reconstrucci&oacute;n 3D de alto realismo. </p>      <p>De acuerdo a los resultados se determin&oacute; que la precisi&oacute;n del sistema es proporcional a la cantidad de im&aacute;genes que se obtengan, es por eso que el curso de la investigaci&oacute;n se encamin&oacute; a desarrollar el m&eacute;todo usando un gran grupo de im&aacute;genes. Este proyecto da una soluci&oacute;n real a la necesidad de diferentes industrias de tener una visi&oacute;n real y detallada de escenas submarinas, dando lugar a posibilidades que antes eran imposibles. As&iacute;, proyectos cient&iacute;ficos de biolog&iacute;a marina, exploraci&oacute;n o arqueolog&iacute;a subacu&aacute;tica cuentan con una herramienta tecnol&oacute;gica con todas las exigencias para un buen desempe&ntilde;o y funcionamiento. </p>      <p>Otro ejemplo importante en donde se observan las cualidades de la fotogrametr&iacute;a es un proyecto de reconstrucci&oacute;n de posturas de jugadores en un campo de f&uacute;tbol (Malerczyk, 2007). La t&eacute;cnica no requiere <I>hardware</I> especializado, solo utiliza las im&aacute;genes transmitidas por televisi&oacute;n. La escena del juego se recrea no solo permitiendo reproducir el momento en c&aacute;mara lenta, sino que tambi&eacute;n permite visualizar el acto desde posiciones arbitrarias escogidas por el usuario. </p>      <p>El algoritmo consiste en la reconstrucci&oacute;n 3D de movimientos humanos a partir de secuencias de c&aacute;mara en dos dimensiones. Adem&aacute;s, no est&aacute; limitado a escenas de eventos deportivos, sino que puede ser usado tambi&eacute;n en la modelamiento de la postura y movimiento de objetos deformables basados en cadenas cinem&aacute;ticas. El principio b&aacute;sico del algoritmo consiste en la comparaci&oacute;n de siluetas reales y artificiales del cuerpo humano. Este tipo de tecnolog&iacute;a se aplic&oacute; ampliamente en la transmisi&oacute;n televisiva de f&uacute;tbol en vivo, especialmente durante la copa mundial de f&uacute;tbol del 2006, ya que permit&iacute;a recrear escenas (<a href="#f4">figura 4</a>) que en primer lugar no eran evidentes, y adem&aacute;s daba una soluci&oacute;n al televidente a situaciones pol&eacute;micas que hab&iacute;an quedado en duda. </p>     <p align="center"><a name="f4"></a><img src="img/revistas/recig/v13n16/v13n16a10f4.jpg"></p>      <p>En proyectos de patrimonio cultural com&uacute;nmente se requiere la reconstrucci&oacute;n tridimensional de objetos y escenas reales, El-Hakim, Beraldin, Picard y Godin (2004) dise&ntilde;aron una propuesta que integra m&uacute;ltiples tecnolog&iacute;as, entre interactivas y autom&aacute;ticas, en donde se usa modelamiento basado en im&aacute;genes para el modelamiento de figuras b&aacute;sicas y elementos estructurales y esc&aacute;ner l&aacute;ser para detalles muy finos y superficies esculpidas. </p>      ]]></body>
<body><![CDATA[<p>El proceso consiste inicialmente en la creaci&oacute;n de formas b&aacute;sicas y detalles de gran tama&ntilde;o, como columnas, bloques, ventanas y arcos. Lo anterior se realiza a trav&eacute;s de fotogrametr&iacute;a avanzada con varios procesos autom&aacute;ticos, m&eacute;todo que resulta adecuado para las caracter&iacute;sticas de arquitecturas cl&aacute;sicas. Despu&eacute;s, se utilizan esc&aacute;neres l&aacute;ser para obtener detalles geom&eacute;tricos de alta calidad, tales como esculturas y superficies con formas irregulares, posteriormente se integra la informaci&oacute;n con el paso anterior. Finalmente se utilizan panoramas de im&aacute;genes a&eacute;reas para completar el entorno y paisaje a fin de presentar el monumento en su forma natural. </p>      <p>La propuesta se puso a prueba exitosamente con siete monumentos individuales a partir de im&aacute;genes digitales y otros monumentos a partir de las regiones escaneadas. La investigaci&oacute;n continua concentr&aacute;ndose en mejorar el nivel de automatizaci&oacute;n del sistema y en crear un proceso para definir qu&eacute; nivel de detalle requiere cada componente del modelo para lograr un nivel &oacute;ptimo de detalle sin el uso en exceso de recursos. El proyecto debe su importancia a facilitar los procesos de preservaci&oacute;n de patrimonio cultural de una manera eficiente y de alta calidad. </p>      <p><b>Telemedicina</b></p>     <p>Los excelentes avances e investigaciones realizadas en el campo de la fotogrametr&iacute;a han llevado a su utilizaci&oacute;n en otros campos de la ciencia en donde se not&oacute; que se podr&iacute;a dar un aporte importante a problemas espec&iacute;ficos. Lo anterior sucedi&oacute; en el campo de la salud, m&aacute;s espec&iacute;ficamente en el campo de la telemedicina e im&aacute;genes m&eacute;dicas. Estos sectores est&aacute;n necesitando de procesos autom&aacute;ticos de adquisici&oacute;n de im&aacute;genes y an&aacute;lisis del entorno de alta calidad y de manera segura, demandas que la fotogrametr&iacute;a est&aacute; en la capacidad de solventar. A continuaci&oacute;n se expondr&aacute;n ejemplos que demuestran el importante aporte que se est&aacute; haciendo en el campo de la salud, resaltando en primer lugar la contribuci&oacute;n al procesamiento y an&aacute;lisis de im&aacute;genes y posteriormente a la asistencia de procedimientos quir&uacute;rgicos. </p>      <p>En un estudio realizado en el a&ntilde;o 2002, Patias (2002) resalta la importancia que la fotogrametr&iacute;a podr&iacute;a tener al aplicarse en el campo de las im&aacute;genes m&eacute;dicas. Esta es indispensable en los diagn&oacute;sticos y tratamientos cl&iacute;nicos, debido a que es una importante fuente de informaci&oacute;n anat&oacute;mica y funcional. Las modalidades actuales de captura de im&aacute;genes proveen grandes cantidades de informaci&oacute;n, si se hace autom&aacute;ticamente, lo cual requiere que algoritmos sofisticados tengan que ser usados para identificar, entender y aprovechar los datos; y cuando no es as&iacute;, en muchos casos se pueden obtener resultados err&oacute;neos o poco confiables. Es en este aspecto en donde la fotogrametr&iacute;a podr&iacute;a brindar una ventaja, ya que cuenta con herramientas con la capacidad de producir, procesar y clasificar grandes cantidades de datos 3D de alta resoluci&oacute;n de una manera geom&eacute;tricamente consistente, robusta y precisa. </p>      <p>En el documento se hace referencia a los actuales retos en las im&aacute;genes m&eacute;dicas en donde la fotogrametr&iacute;a podr&iacute;a dar un aporte. En primer lugar se encuentra la fusi&oacute;n de im&aacute;genes de m&uacute;ltiples sensores. El principal problema en este tema consiste en el hecho de seleccionar el m&eacute;todo de procesamiento m&aacute;s apropiado para cierto caso espec&iacute;fico, pues en la mayor&iacute;a de situaciones no es posible. De esta manera se entiende que la &uacute;nica manera de obtener informaci&oacute;n con la mejor calidad posible consistir&iacute;a en la combinaci&oacute;n de sensibilidad y especificidad de diferentes sensores. Claramente, el problema involucra un gran rango de problemas t&eacute;cnicos a resolver. El mayor defecto de las t&eacute;cnicas no fotogram&eacute;tricas, desarrolladas actualmente, es su incapacidad de tener en cuenta la verdadera geometr&iacute;a de la imagen. </p>      <p>Los avances en fotogrametr&iacute;a han mostrado una precisi&oacute;n de 1 mm en reconstrucciones del cuerpo en 3D y de 0.1 mm en reconstrucciones faciales. Por lo tanto, este conocimiento y t&eacute;cnicas deber&iacute;an ser transferidos y aplicados a im&aacute;genes m&eacute;dicas para mejorar la calidad de la informaci&oacute;n. De la misma manera se ha demostrado las ventajas del estado actual de la fotogrametr&iacute;a en dificultades con emparejamiento de secuencias de im&aacute;genes, segmentaci&oacute;n de im&aacute;genes y captura y an&aacute;lisis de movimiento. Es as&iacute; como se pueden identificar los aportes que la fotogrametr&iacute;a puede hacer a la medicina con soluciones de &uacute;ltima tecnolog&iacute;a, siendo la mayor contribuci&oacute;n el rigor y la precisi&oacute;n en modelamiento geom&eacute;trico. </p>      <p>Una aplicaci&oacute;n m&aacute;s espec&iacute;fica de la estereoscop&iacute;a se observa en la cirug&iacute;a asistida por computador (CAS, por sus siglas en ingl&eacute;s), en donde uno de los principales desaf&iacute;os consiste en determinar la morfolog&iacute;a intraoperatoria y el movimiento de tejidos blandos. T&eacute;rminos que son de suma importancia para mejorar las capacidades de navegaci&oacute;n de los cirujanos al permitirles observar m&aacute;s all&aacute; de la informaci&oacute;n expuesta y darles un mejor control de los instrumentos de rob&oacute;tica asistida. </p>      <p>El ejemplo se observa en la laparoscopia, que es una cirug&iacute;a de intrusi&oacute;n m&iacute;nima (MIS, por sus siglas en ingl&eacute;s) realizada en cavidades del abdomen o pelvis, donde se necesitan mejoras en la capacidad de visualizaci&oacute;n. En este tipo de procedimientos se tiene como factor primordial una adquisici&oacute;n r&aacute;pida, precisa y robusta de la anatom&iacute;a; en ese sentido han surgido propuestas muy atractivas relacionadas con reconstrucci&oacute;n 3D de la superficie de tejido blando usando el mismo endoscopio. Sin embargo, dicha reconstrucci&oacute;n posee m&uacute;ltiples dificultades espec&iacute;ficas como el ambiente din&aacute;mico y deformable y la importante necesidad de que las t&eacute;cnicas tengan alta precisi&oacute;n y robustez, para garantizar la seguridad de los pacientes. </p>      <p>Maier-Hein <I>et al </I>(2013) hace un descripci&oacute;n de m&eacute;todos de reconstrucci&oacute;n 3D intraoperatoria que est&aacute;n recibiendo especial atenci&oacute;n en la actualidad. En primer lugar se encuentra la estereoscop&iacute;a, el cual se ha mostrado como una t&eacute;cnica factible para este tipo de procedimientos, puede ser usada para obtener la geometr&iacute;a de la superficie del tejido a partir del est&eacute;reo par y sin requerir luz o hardware adicional. La estereoscop&iacute;a ya est&aacute; en uso en las salas de operaci&oacute;n, por ejemplo con el sistema de cirug&iacute;a da Vinci (Leven <I>et al.</I>, 2005). Los principales desaf&iacute;os que se encuentran son la complejidad de las im&aacute;genes laparosc&oacute;picas y la robustez ante el ambiente; es importante considerar que la mayor&iacute;a de intervenciones de esta clase se est&aacute; realizando con lentes monoculares. </p>      ]]></body>
<body><![CDATA[<p>El siguiente m&eacute;todo se relaciona con t&eacute;cnicas monoculares, que reciben su importancia por no implicar una modificaci&oacute;n a la paroscopios comunes. Se encuentran dos tipos de t&eacute;cnicas principales: figura a partir del movimiento y figura a partir de la sombra. El primero se asemeja a la estereoscop&iacute;a pero con mayor dificultad, ya que intenta recrear profundidad a partir de dos im&aacute;genes adquiridas en instantes diferentes, dando lugar a que el escenario cambie. Una versi&oacute;n m&aacute;s moderna de la misma soluciona lo anterior al usar una plantilla tridimensional generada con una primera exploraci&oacute;n y la reconstrucci&oacute;n de la forma en una segunda. El segundo tipo consiste en recrear el entorno a partir de la relaci&oacute;n entra la intensidad de los p&iacute;xeles y la normal de la superficie, a partir de una sola imagen, lo que la hace aplicable a la laparoscopia, ya que la fuente de luz es fija con respecto a la c&aacute;mara. Ambos tienen la ventaja de poder ser usados con pr&aacute;cticamente cualquier laparoscopio, pero pueden fallar al enfrentarse a situaciones de sangrada, humo u oclusiones. </p>      <p>Se describe tambi&eacute;n la t&eacute;cnica de localizaci&oacute;n simult&aacute;nea y mapeo (SLAM, por sus siglas en ingl&eacute;s), la cual estima secuencialmente y en tiempo real la estructura 3D y la posici&oacute;n de la c&aacute;mara. Las im&aacute;genes se procesan individualmente para actualizar el estado del sistema, en cada paso se calcula una nueva postura de la c&aacute;mara y se registra una nueva parte del entorno. Dicho m&eacute;todo puede ser usado para obtener informaci&oacute;n en tiempo real de la posici&oacute;n de la c&aacute;mara y construir simult&aacute;neamente el modelo tridimensional del tejido mientras el cirujano manipula el endoscopio. SLAM es a&uacute;n una tecnolog&iacute;a en maduraci&oacute;n, con varios desaf&iacute;os que enfrentar como sistemas de posicionamiento m&aacute;s confiables y mejoramiento del proceso de emparejamiento de las im&aacute;genes, el cual afecta directamente la robustez y precisi&oacute;n de la reconstrucci&oacute;n. </p>      <p>Haciendo una comparaci&oacute;n, los m&eacute;todos pasivos de modelamiento tienen la ventaja de no exigir modificaci&oacute;n a los equipos de laparoscopia actuales, ya que son procedimientos ejecutados en software. Hecho que lleva requerir un procesamiento intensivo y, por lo tanto, una exigencia computacional. Por otro lado, los m&eacute;todos activos pueden obtener mapas de profundidad densos a una alta frecuencia, pero requieren de luz adicional y modificaci&oacute;n y adaptaci&oacute;n de los equipos utilizados. </p>      <p>Las t&eacute;cnicas de reconstrucci&oacute;n 3D intraoperatorias en tiempo real cumplen un papel importante en los sistemas quir&uacute;rgicos avanzados y debido a la constante necesidad de mejoramiento de la navegaci&oacute;n en los MIS y la alta precisi&oacute;n al controlar instrumentos quir&uacute;rgicos para mejorar la calidad del tejido manipulado es claro que los avances tecnol&oacute;gicos y de telemedicina seguir&aacute;n brindando soluciones para obtener una laparoscopia asistida por computador de alta calidad y confiabilidad. </p>      <p>En los procedimientos que consisten en telepresencia es primordial lograr una tarea espec&iacute;fica tal y como suceder&iacute;a si se estuviera presente en el lugar. Con este prop&oacute;sito, se ha puesto como exigencia que tales sistemas logren simular o igualar la sensaci&oacute;n que experimenta los usuarios, mientras que se mantiene la alta capacidad de realizar el procedimiento. En Lee y Kim(2008) se expone un sistema h&aacute;ptico de retroalimentaci&oacute;n junto con im&aacute;genes estereosc&oacute;picas para el control de un robot m&oacute;vil. El sistema h&aacute;ptico se computaba a partir de la informaci&oacute;n adquirida por un sonar a&ntilde;adido al robot y se entregaba al usuario a trav&eacute;s de una sonda h&aacute;ptica. Los pares estereosc&oacute;picos se obten&iacute;an a partir de una c&aacute;mara est&eacute;reo montada en el frente del robot. </p>      <p>Se dise&ntilde;aron pruebas para medir y evaluar la experiencia de los usuarios con el sistema. La prueba consist&iacute;a en llevar un robot m&oacute;vil real a lo largo de un entorno teniendo el m&aacute;ximo cuidado, evitando las colisiones en lo posible. Se evaluaron el n&uacute;mero de colisiones y el tiempo en completar el recorrido, junto con una encuesta que med&iacute;a la experiencia con respecto al realismo y la personificaci&oacute;n. El experimento demostr&oacute; que la retroalimentaci&oacute;n h&aacute;ptica mejoraba significativamente las tareas de operaci&oacute;n y presencia y que las im&aacute;genes estereosc&oacute;picas tambi&eacute;n mejoraron la percepci&oacute;n del entorno; sin embargo, esto solo suced&iacute;a cuando no se habilitaba el sistema h&aacute;ptico. Dichas conclusiones dan paso al desarrollo de sistemas h&aacute;pticos de telepresencia m&aacute;s avanzados, que podr&iacute;an contribuir de gran manera a industrias como la de videojuegos, operaciones de exploraci&oacute;n y rescate remota y telecirug&iacute;a. </p>      <p><b>Otras aplicaciones </b></p>     <p>En el a&ntilde;o 2012 se public&oacute; un art&iacute;culo (Zappa, Mazzolenia y Hai, 2012) referente a un sistema de reconocimiento facial 3D basado en estereoscop&iacute;a, en el que se present&oacute; un innovador algoritmo en el cual se adquieren dos im&aacute;genes de un sujeto, que luego se analizan por separado por un modelo activo de apariencia el cual extrae de estas 58 puntos hom&oacute;logos (<a href="#f5">figura 5</a>). El enfoque propuesto consiste en la triangulaci&oacute;n de los puntos extra&iacute;dos del est&eacute;reo par, teniendo como ventaja que es un m&eacute;todo enteramente tridimensional que se realiza en lo que demora la captura de una foto, diferenci&aacute;ndose de otros m&eacute;todos que toman m&aacute;s tiempo. </p>     <p align="center"><a name="f5"></a><img src="img/revistas/recig/v13n16/v13n16a10f5.jpg"></p>      <p>La creaci&oacute;n del modelo es realizado de manera estad&iacute;stica, en las im&aacute;genes de entrenamiento el usuario selecciona puntos faciales caracter&iacute;sticos, creando una nube de puntos interrelacionados. Los datos de entrenamiento permiten identificar par&aacute;metros generales importantes en t&eacute;rminos de geometr&iacute;a y textura, el modelo resultante es una representaci&oacute;n de la variaci&oacute;n m&aacute;s significativa entre las im&aacute;genes. La base de datos se conform&oacute; a partir de 27 personas, las cuales representaron 27 pares de im&aacute;genes. Para analizar el funcionamiento del sistema se adquirieron nuevos est&eacute;reo pares de cada sujeto y se le aplic&oacute; el algoritmo a cada uno. En todos los casos considerados el sistema indic&oacute; como el m&aacute;s similar a la persona correcta, es decir, que el proceso no mostr&oacute; ning&uacute;n problema en identificar qu&eacute; persona de la base de datos correspond&iacute;a a la imagen ingresada. Sin embargo, en una aplicaci&oacute;n real no siempre se va a tener a la persona en cuesti&oacute;n en la base de datos. </p>      ]]></body>
<body><![CDATA[<p>Es por eso que se busc&oacute; un criterio para discriminar si la persona en la base de datos es efectivamente la que se busca, o si por el contrario no se encuentra all&iacute;. As&iacute;, se aplic&oacute; un umbral al par&aacute;metro de minimizaci&oacute;n usado como factor diferenciador en el algoritmo, lo cual garantiz&oacute; que siempre se encontrara por lo menos un sujeto por debajo del umbral. </p>      <p>Los resultados son prometedores debido a que las pruebas mostraron una tasa de falso rechazo igual a cero y una tasa aceptable de rechazo del 3%. Se consideran como trabajos futuros extender la base de datos para mejorar la base estad&iacute;stica y definir m&aacute;s valores de umbral para fijar una zona de incertidumbre. Este tipo de aplicaciones est&aacute; teniendo gran importancia por la necesidad constante de mejorar los sistemas de seguridad, ya que si se logra obtener un sistema confiable y eficaz de reconocimiento facial, se podr&iacute;a llegar a identificar con gran exactitud identidades espec&iacute;ficas entre una gran multitud. Una habilidad que dar&iacute;a ventaja a los sistemas de seguridad sobre la delincuencia. </p>      <p>Otro campo en donde se ha aplicado en gran medida la fotogrametr&iacute;a es en la rob&oacute;tica y la visi&oacute;n de m&aacute;quina. El hecho de darle capacidades de visi&oacute;n a robots aut&oacute;nomos ha sido de gran inter&eacute;s desde la necesidad de darle capacidades humanas; los sistemas estereosc&oacute;picos brindan caracter&iacute;sticas de profundidad y percepci&oacute;n que ser&iacute;an muy &uacute;tiles en sistemas rob&oacute;ticos. Paulraj <I>et al.</I> (2008) realizaron un interesante estudio en donde se cre&oacute; un procedimiento mediante el cual se pod&iacute;a determinar la orientaci&oacute;n de robots m&oacute;viles utilizando un par de c&aacute;maras, que se utilizaron para capturar im&aacute;genes del entorno en diferentes configuraciones de orientaci&oacute;n; posteriormente se emplearon cuatro redes neuronales sencillas para asociar las im&aacute;genes adquiridas con la imagen actual del robot. </p>      <p>Las dos primeras redes calculaba la orientaci&oacute;n a partir de las im&aacute;genes separadas de ambas c&aacute;maras, respectivamente. La tercera red calculaba la orientaci&oacute;n de acuerdo a informaci&oacute;n de ambas c&aacute;maras y la &uacute;ltima red utilizaba la combinaci&oacute;n de las im&aacute;genes anteriores para hacer su predicci&oacute;n. Las pruebas mostraron caso de &eacute;xito de entre 79 y 83 %, demostrando que el sistema puede cumplir a cabalidad con su objetivo. Trabajos futuros propon&iacute;an mejorar el rendimiento de las redes neuronales para mejorar la precisi&oacute;n en el c&aacute;lculo de la orientaci&oacute;n. Este tipo de algoritmos son de gran utilidad para la industria rob&oacute;tica, debido a que da un sentido de actualizaci&oacute;n del estado de un sistema y es de f&aacute;cil implementaci&oacute;n en cualquier dispositivo que soporte la instalaci&oacute;n de un sistema estereosc&oacute;pico. </p>      <p>Un resumen general de otras aplicacionesde la visi&oacute;n estereosc&oacute;pica se presenta en la <a href="#t1">tabla 1</a>, elaborada a partir de Mart&iacute;n, Su&aacute;rez, Rubio y Gallego(2013), quienes las ubicaron en diferentes campos, como: la representaci&oacute;n de informaci&oacute;n gr&aacute;fica compleja, la telepresencia, la realidad virtual y el entrenamiento de la percepci&oacute;n espacial, especificando algunas materias, procesos y aplicaciones. </p>      <p align="center"><a name="t1"></a><img src="img/revistas/recig/v13n16/v13n16a10t1.jpg"></p>      <p><font size="3"><b>Conclusiones</b></font></p>      <p>Al exponer los casos m&aacute;s destacados y variados de las aplicaciones existentes actualmente, se demostr&oacute; la importancia que tienen al dar soluciones eficientes y robustas a problem&aacute;ticas propias de las diferentes &aacute;reas del conocimiento y de la industria. </p>      <p>En la revisi&oacute;n a las aplicaciones m&eacute;dicas y de telemedicina que tiene la estereovisi&oacute;n, se destaca la importancia que poseen al mejorar procedimientos quir&uacute;rgicos y procesos de adquisici&oacute;n y procesamiento de im&aacute;genes, cumpliendo con exigentes niveles de precisi&oacute;n y detalle. Se anticipa que dichas soluciones ayudar&aacute;n a una mayor precisi&oacute;n y calidad de los resultados, traduci&eacute;ndose en mejoramiento de la confiabilidad y robustez de los procesos, y por consiguiente, la calidad y garant&iacute;a de vida de las personas. Finalmente se espera que una fusi&oacute;n de conocimiento multidisciplinar y una transferencia de tecnolog&iacute;a, entre la fotogrametr&iacute;a y la medicina, sean beneficiosas para todas las partes implicadas. </p>      <p>Tambi&eacute;n se desarroll&oacute; la descripci&oacute;n de algunos campos en los que est&aacute; incursionando la fotogrametr&iacute;a, en donde se busca tener una adquisici&oacute;n y an&aacute;lisis de im&aacute;genes de exigente precisi&oacute;n y calidad, y donde dicha ciencia puede tener importantes aportes contribuyendo a los avances cient&iacute;ficos de la humanidad, que est&aacute;n en constante cambio y reinvenci&oacute;n, y en donde la fotogrametr&iacute;a seguir&aacute; solucionando problemas de alta complejidad de una manera eficiente y confiable. </p>      ]]></body>
<body><![CDATA[<p>La reconstrucci&oacute;n tridimensional de terrenos recibe especial atenci&oacute;n por la gran participaci&oacute;n que la fotogrametr&iacute;a e estereoscopia han tenido. Se analiz&oacute; el proceso que siguieron los m&eacute;todos de reconstrucci&oacute;n hasta el estado actual, comentado los desaf&iacute;os que exist&iacute;an y c&oacute;mo fueron solventados. Se observa que estas t&eacute;cnicas est&aacute;n alcanzando un nivel de confiabilidad y precisi&oacute;n suficientes para ser aprovechados en su totalidad y usarse masivamente. </p>  <hr>     <p><font size="3"><b>Referencias</b></font></p>      <!-- ref --><p>1. Beraldin, J., Picard, M., El-Hakim, S. F., Godin, G., Valzano, V. &amp; Bandiera, A. (2005, January). Combining 3 D technologies for cultural heritage interpretation and entertainment.<I> SPIE, Proc, 5665</I>, 108-118.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000115&pid=S1900-6586201500020001000001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>2. Bicas, H. (2004). Fisiologia da vis&atilde;o binocular. Arquivos Brasileiros de Oftalmologia.<I> Arq. Bras. Oftalmol, 67</I>(1), 172-180.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000117&pid=S1900-6586201500020001000002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> </p>      <!-- ref --><p>3. Brandou, V., Allais, A., Perrier, M., Malis, E., Rives, P., Sarrazin, J. &amp; Sarradin, P. (2007, June). 3D reconstruction of natural underwater scenes using the stereovision system iris. <I>OCEANS,IEEE</I>, 1-6.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000119&pid=S1900-6586201500020001000003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>4. Cyganek, B. &amp; Siebert, P. (2011). <I>An Introduction to 3D Computer Vision Techniques and Algorithms</I>. John Wiley &amp; Sons.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000121&pid=S1900-6586201500020001000004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      ]]></body>
<body><![CDATA[<!-- ref --><p>5. Duan, C., Meng, X. &amp; Wang, L. (2008, September). 3D reconstruction from uncalibrated images taken from widely separated views. <I>Cybernetics and Intelligent Systems, 2008 IEEE Conference on</I>, 58-62.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000123&pid=S1900-6586201500020001000005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>6. El-Hakim, S., Beraldin, J., Picard, M. &amp; Godin, G. (2004). Detailed 3D reconstruction of large-scale heritage sites with integrated techniques.<I> Computer Graphics and Applications, IEEE, 24</I>(3), 21-29.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000125&pid=S1900-6586201500020001000006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>7. Gupta, A., Naidu, S., Srinivasan, T. &amp; Gopala Krishna, B. (2011). A GPU based image matching approach for DEM generation using stereo imagery. Engineering (NUICONE). <I>Nirma University International Conference on, 1, 5,</I> 8-10.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000127&pid=S1900-6586201500020001000007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>8. Howard, I. &amp; Rogers, B. (1995). Binocular Vision and Stereopsis. <I>Oxford psychology series: Oxford University Press</I>, 150-170.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000129&pid=S1900-6586201500020001000008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>9. Howard, I. &amp; Rogers, B. (2012). Perceiving in Depth, Volume 2: Stereoscopic Vision. <I>Issue 29 of Oxford Psychology Series, Oxford University Press</I>, 1-20.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000131&pid=S1900-6586201500020001000009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      ]]></body>
<body><![CDATA[<!-- ref --><p>10. Iizuka, K. (2008). <I>Engineering Optics</I>. Volume 10. Springer, 475-478.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000133&pid=S1900-6586201500020001000010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>11. Lee, S. &amp; Kim, G. (2008). Effects of haptic feedback, stereoscopy, and image resolution on performance and presence in remote navigation. <I>International Journal of Human-Computer Studies, V</I>(66), 701-717.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000135&pid=S1900-6586201500020001000011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>12. Leven, J., Burschka, D., Kumar, R., Zhang, G., Blumenkranz, S., Dai, X. &amp; Taylor, R. (2005). DaVinci canvas: a telerobotic surgical system with integrated, robot-assisted, laparoscopic ultrasound capability. In <I>Medical Image Computing and Computer-Assisted Intervention- MICCAI </I>(pp. 811-818). Springer Berlin: Heidelberg.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000137&pid=S1900-6586201500020001000012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>13. Liu, X., Yao, H., Chen, X. &amp; Gao, W. (2005, September). An active volumetric model for 3d reconstruction. In Image Processing, 2005.<I> ICIP 2005. IEEE International Conference on, Vol. 2, </I>II-101.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000139&pid=S1900-6586201500020001000013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> </p>      <!-- ref --><p>14. L&oacute;pez-Cuervo, S. y Est&eacute;vez (1980). <I>Fotogrametr&iacute;a</I>. 114-175.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000141&pid=S1900-6586201500020001000014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      ]]></body>
<body><![CDATA[<!-- ref --><p>15. Maier-Hein, L., Mountney, P., Bartoli, A., Elhawary, H., Elson, D., Groch, A. &amp; Stoyanov, D. (2013). Optical techniques for 3D surface reconstruction in computer-assisted laparoscopic surgery. <I>Medical image analysis, 17</I>(8), 974-996.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000143&pid=S1900-6586201500020001000015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>16. Malerczyk, C. (2007, May). 3d-reconstruction of soccer scenes. <I>3DTV Conference</I>, 1-4.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000145&pid=S1900-6586201500020001000016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>17. 	Mart&iacute;n, S., Suar&eacute;z, J., Rubio, R. y Gallego, R. (2013). <I>Aplicaci&oacute;n de los sistemas de visi&oacute;n estereosc&oacute;pica en las ense&ntilde;anzas t&eacute;cnicas</I>. Oviedo: Universidad de Oviedo, Escuela de Ingenieros T&eacute;cnicos Industriales de Gij&oacute;n, Departamento de Construcci&oacute;n e Ingenier&iacute;a de Fabricaci&oacute;n.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000147&pid=S1900-6586201500020001000017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> </p>      <!-- ref --><p>18. 	Mckinley, T., McWaters, M. &amp; Jain, V. (2001). 3D reconstruction from a stereo pair without the knowledge of intrinsic or extrinsic parameters. In<I> Digital and Computational Video, Proceedings. Second International Workshop on</I>, 148-155.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000149&pid=S1900-6586201500020001000018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> </p>      <!-- ref --><p>19. Ming, J. &amp; Xianlin, H. (2007). A Lunar Terrain Reconstruction Method Using Long Base-line Stereo Vision. <I>Control Conference, CCC 2007</I>. Chinese, 488-492.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000151&pid=S1900-6586201500020001000019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      ]]></body>
<body><![CDATA[<!-- ref --><p>20. Miyazawa, K. &amp; Aoki, T. (2008). A robot-based 3D body scanning system using passive stereo vision. <I>Image Processing. ICIP 2008. 15th IEEE International Conference on</I>, 305-308.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000153&pid=S1900-6586201500020001000020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>21. Patias, P. (2002). Medical imaging challenges photogrammetry. <I>ISPRS Journal of Photogrammetry and Remote Sensing, 56</I>(5), 295-310.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000155&pid=S1900-6586201500020001000021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>22. Paulraj, M., Ahmad, R., Hema, C., Hashim, F. &amp; Yusoff, S. (2008) Active stereo vision based system for estimation of mobile robot orientation using affine moment invariants. <I>Electronic Design, 2008. ICED 2008. International Conference on, 1, 7,</I> 1-3.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000157&pid=S1900-6586201500020001000022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>23. Radoui, D. &amp; Roman, A. (2000). 3D Terrain Reconstruction using scattered Data sets. <I>STUDIA UNIV. BABES--BOLYAI, INFORMATICA</I>, <I>XLV</I>, 2.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000159&pid=S1900-6586201500020001000023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>24. Sa&iacute;z, M. (2010). <I>Reconstrucci&oacute;n tridimensional mediante visi&oacute;n est&eacute;reo y t&eacute;cnicas de optimizaci&oacute;n</I>. Madrid: Universidad Pontificia de Comillas.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000161&pid=S1900-6586201500020001000024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      ]]></body>
<body><![CDATA[<!-- ref --><p>25. Shao, Z., Li, D. &amp; Cheng, Q. (2003, July). A topological 3D reconstruction of complicated buildings and crossroads. In <I>Geoscience and Remote Sensing Symposium,</I> 2003. <I>IGARSS'03. Proceedings. 2003 IEEE International, Vol. 1</I>, 56-58.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000163&pid=S1900-6586201500020001000025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>26. Tang, L., Wu, C., Tsui, H. T. &amp; Liu, S. (2003). Algorithm for 3D reconstruction with both visible and missing data. <I>Electronics Letters, 39</I>(23), 1640-1642.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000165&pid=S1900-6586201500020001000026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>27. Telle, B., Aldon, M. &amp; Ramdani, N. (2003, September). Camera calibration and 3d reconstruction using interval analysis. In <I>Image Analysis and Processing, Proceedings. 12th International Conference on</I>, 374-379.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000167&pid=S1900-6586201500020001000027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>28. Tsuda, Y., Yue, Y. &amp; Nishita, T. (2008). Construction of Autostereograms Taking into Account Object Colors and Its Applications for Steganography. <I>Cyberworlds, International Conference on, 16</I>,23, 22-24.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000169&pid=S1900-6586201500020001000028&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>29. Wang, Z., Zhang, F. &amp; Quan, Y. (2009). On-Machine 3D Reconstruction Using Monocular Stereo Vision System. Information Science and Engineering (ISISE).<I>Second International Symposium on</I>, 392-395.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000171&pid=S1900-6586201500020001000029&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> </p>      ]]></body>
<body><![CDATA[<!-- ref --><p>30. Zappa, E., Mazzoleni, P. &amp; Hai, Y. (2010). Stereoscopy based 3D face recognition system. <I>Procedia Computer Science, 1,</I> 2521-2528.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000173&pid=S1900-6586201500020001000030&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>31. Zhang, Y. &amp; Xiao, Y. (2008, October). A practical method of 3D reconstruction based on uncalibrated image sequence. In <I>Signal Processing, 2008. ICSP 2008. 9th International Conference on</I>, 1368-1371.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000175&pid=S1900-6586201500020001000031&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p> </font>      ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Beraldin]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Picard]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[El-Hakim]]></surname>
<given-names><![CDATA[S. F]]></given-names>
</name>
<name>
<surname><![CDATA[Godin]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[Valzano]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
<name>
<surname><![CDATA[Bandiera]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Combining 3 D technologies for cultural heritage interpretation and entertainment]]></article-title>
<source><![CDATA[SPIE, Proc]]></source>
<year>2005</year>
<month>, </month>
<day>Ja</day>
<volume>5665</volume>
<page-range>108-118</page-range></nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bicas]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="pt"><![CDATA[Fisiologia da visão binocular. Arquivos Brasileiros de Oftalmologia]]></article-title>
<source><![CDATA[Arq. Bras. Oftalmol]]></source>
<year>2004</year>
<volume>67</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>172-180</page-range></nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Brandou]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
<name>
<surname><![CDATA[Allais]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Perrier]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Malis]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Rives]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Sarrazin]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Sarradin]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[3D reconstruction of natural underwater scenes using the stereovision system iris]]></article-title>
<source><![CDATA[OCEANS,IEEE]]></source>
<year>2007</year>
<month>, </month>
<day>Ju</day>
<page-range>1-6</page-range></nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cyganek]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Siebert]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<source><![CDATA[An Introduction to 3D Computer Vision Techniques and Algorithms]]></source>
<year>2011</year>
<publisher-name><![CDATA[John Wiley & Sons]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Duan]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Meng]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<source><![CDATA[3D reconstruction from uncalibrated images taken from widely separated views]]></source>
<year>2008</year>
<month>, </month>
<day>Se</day>
<conf-name><![CDATA[ Cybernetics and Intelligent Systems, 2008 IEEE Conference on]]></conf-name>
<conf-loc> </conf-loc>
</nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Beraldin]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Picard]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Godin]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Detailed 3D reconstruction of large-scale heritage sites with integrated techniques]]></article-title>
<source><![CDATA[Computer Graphics and Applications, IEEE]]></source>
<year>2004</year>
<volume>24</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>21-29</page-range></nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gupta]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Naidu]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Srinivasan]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Gopala Krishna]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A GPU based image matching approach for DEM generation using stereo imagery. Engineering (NUICONE)]]></article-title>
<source><![CDATA[Nirma University International Conference on]]></source>
<year>2011</year>
<volume>1</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>8-10</page-range></nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Howard]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[Rogers]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
</person-group>
<source><![CDATA[Binocular Vision and Stereopsis]]></source>
<year>1995</year>
<page-range>150-170</page-range><publisher-name><![CDATA[Oxford psychology series: Oxford University Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Howard]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[Rogers]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
</person-group>
<source><![CDATA[Perceiving in Depth, Volume 2: Stereoscopic Vision]]></source>
<year>2012</year>
<page-range>1-20</page-range><publisher-name><![CDATA[Oxford University Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Iizuka]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
</person-group>
<source><![CDATA[Engineering Optics]]></source>
<year>2008</year>
<volume>10</volume>
<page-range>475-478</page-range><publisher-loc><![CDATA[Springer ]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lee]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Kim]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Effects of haptic feedback, stereoscopy, and image resolution on performance and presence in remote navigation]]></article-title>
<source><![CDATA[International Journal of Human-Computer Studies]]></source>
<year>2008</year>
<volume>V</volume>
<numero>66</numero>
<issue>66</issue>
<page-range>701-717</page-range></nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Leven]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Burschka]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Kumar]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[Blumenkranz]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Dai]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
<name>
<surname><![CDATA[Taylor]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[DaVinci canvas: a telerobotic surgical system with integrated, robot-assisted, laparoscopic ultrasound capability]]></article-title>
<source><![CDATA[Medical Image Computing and Computer-Assisted Intervention- MICCAI]]></source>
<year>2005</year>
<page-range>811-818</page-range><publisher-loc><![CDATA[Springer Berlin ]]></publisher-loc>
<publisher-name><![CDATA[Heidelberg]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Liu]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
<name>
<surname><![CDATA[Yao]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Chen]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
<name>
<surname><![CDATA[Gao]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
</person-group>
<source><![CDATA[An active volumetric model for 3d reconstruction]]></source>
<year>2005</year>
<month>, </month>
<day>Se</day>
<volume>2</volume>
<conf-name><![CDATA[ Image Processing, 2005. ICIP 2005. IEEE International Conference on]]></conf-name>
<conf-loc> </conf-loc>
<page-range>II-101</page-range></nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[López-Cuervo]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Estévez]]></surname>
</name>
</person-group>
<source><![CDATA[Fotogrametría]]></source>
<year>1980</year>
<page-range>114-175</page-range></nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Maier-Hein]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Mountney]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Bartoli]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Elhawary]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Elson]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Groch]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Stoyanov]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Optical techniques for 3D surface reconstruction in computer-assisted laparoscopic surgery]]></article-title>
<source><![CDATA[Medical image analysis]]></source>
<year>2013</year>
<volume>17</volume>
<numero>8</numero>
<issue>8</issue>
<page-range>974-996</page-range></nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Malerczyk]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<source><![CDATA[3d-reconstruction of soccer scenes]]></source>
<year>2007</year>
<month>, </month>
<day>Ma</day>
<page-range>1-4</page-range></nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Martín]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Suaréz]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Rubio]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Gallego]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[Aplicación de los sistemas de visión estereoscópica en las enseñanzas técnicas]]></source>
<year>2013</year>
<publisher-loc><![CDATA[Oviedo ]]></publisher-loc>
<publisher-name><![CDATA[Universidad de Oviedo, Escuela de Ingenieros Técnicos Industriales de Gijón, Departamento de Construcción e Ingeniería de Fabricación]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mckinley]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[McWaters]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Jain]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
</person-group>
<source><![CDATA[3D reconstruction from a stereo pair without the knowledge of intrinsic or extrinsic parameters]]></source>
<year>2001</year>
<page-range>148-155</page-range></nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ming]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Xianlin]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<source><![CDATA[A Lunar Terrain Reconstruction Method Using Long Base-line Stereo Vision]]></source>
<year>2007</year>
<page-range>488-492</page-range><publisher-loc><![CDATA[Chinese ]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B20">
<label>20</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Miyazawa]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Aoki]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<source><![CDATA[A robot-based 3D body scanning system using passive stereo vision]]></source>
<year>2008</year>
<conf-name><![CDATA[ Image Processing. ICIP 2008. 15th IEEE International Conference on]]></conf-name>
<conf-loc> </conf-loc>
<page-range>305-308</page-range></nlm-citation>
</ref>
<ref id="B21">
<label>21</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Patias]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Medical imaging challenges photogrammetry]]></article-title>
<source><![CDATA[ISPRS Journal of Photogrammetry and Remote Sensing]]></source>
<year>2002</year>
<volume>56</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>295-310</page-range></nlm-citation>
</ref>
<ref id="B22">
<label>22</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Paulraj]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Ahmad]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Hema]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Hashim]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Yusoff]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Active stereo vision based system for estimation of mobile robot orientation using affine moment invariants]]></source>
<year>2008</year>
<volume>1</volume>
<conf-name><![CDATA[ Electronic Design, 2008. ICED 2008. International Conference on]]></conf-name>
<conf-loc> </conf-loc>
<page-range>1-3</page-range></nlm-citation>
</ref>
<ref id="B23">
<label>23</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Radoui]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Roman]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[3D Terrain Reconstruction using scattered Data sets]]></article-title>
<source><![CDATA[STUDIA UNIV. BABES--BOLYAI, INFORMATICA]]></source>
<year>2000</year>
<volume>XLV</volume>
<page-range>2</page-range></nlm-citation>
</ref>
<ref id="B24">
<label>24</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Saíz]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Reconstrucción tridimensional mediante visión estéreo y técnicas de optimización]]></source>
<year>2010</year>
<publisher-loc><![CDATA[Madrid ]]></publisher-loc>
<publisher-name><![CDATA[Universidad Pontificia de Comillas]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B25">
<label>25</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shao]]></surname>
<given-names><![CDATA[Z]]></given-names>
</name>
<name>
<surname><![CDATA[Li]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Cheng]]></surname>
<given-names><![CDATA[Q]]></given-names>
</name>
</person-group>
<source><![CDATA[A topological 3D reconstruction of complicated buildings and crossroads]]></source>
<year>2003</year>
<month>, </month>
<day>Ju</day>
<volume>1</volume>
<conf-name><![CDATA[ Geoscience and Remote Sensing Symposium, 2003. IGARSS'03. Proceedings. 2003 IEEE International]]></conf-name>
<conf-loc> </conf-loc>
<page-range>56-58</page-range></nlm-citation>
</ref>
<ref id="B26">
<label>26</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tang]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Wu]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Tsui]]></surname>
<given-names><![CDATA[H. T]]></given-names>
</name>
<name>
<surname><![CDATA[Liu]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Algorithm for 3D reconstruction with both visible and missing data]]></article-title>
<source><![CDATA[Electronics Letters]]></source>
<year>2003</year>
<volume>39</volume>
<numero>23</numero>
<issue>23</issue>
<page-range>1640-1642</page-range></nlm-citation>
</ref>
<ref id="B27">
<label>27</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Telle]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Aldon]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Ramdani]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
</person-group>
<source><![CDATA[Camera calibration and 3d reconstruction using interval analysis]]></source>
<year>2003</year>
<month>, </month>
<day>Se</day>
<conf-name><![CDATA[ Image Analysis and Processing, Proceedings. 12th International Conference on]]></conf-name>
<conf-loc> </conf-loc>
<page-range>374-379</page-range></nlm-citation>
</ref>
<ref id="B28">
<label>28</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tsuda]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Yue]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Nishita]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Construction of Autostereograms Taking into Account Object Colors and Its Applications for Steganography]]></article-title>
<source><![CDATA[Cyberworlds, International Conference on]]></source>
<year>2008</year>
<volume>16</volume>
<numero>23</numero>
<issue>23</issue>
<page-range>22-24</page-range></nlm-citation>
</ref>
<ref id="B29">
<label>29</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[Z]]></given-names>
</name>
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Quan]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
</person-group>
<source><![CDATA[On-Machine 3D Reconstruction Using Monocular Stereo Vision System. Information Science and Engineering (ISISE)]]></source>
<year>2009</year>
<page-range>392-395</page-range></nlm-citation>
</ref>
<ref id="B30">
<label>30</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zappa]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Mazzoleni]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Hai]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Stereoscopy based 3D face recognition system]]></article-title>
<source><![CDATA[Procedia Computer Science]]></source>
<year>2010</year>
<volume>1</volume>
<page-range>2521-2528</page-range></nlm-citation>
</ref>
<ref id="B31">
<label>31</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Xiao]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
</person-group>
<source><![CDATA[A practical method of 3D reconstruction based on uncalibrated image sequence]]></source>
<year>2008</year>
<month>, </month>
<day>Oc</day>
<conf-name><![CDATA[ ignal Processing, 2008. ICSP 2008. 9th International Conference on]]></conf-name>
<conf-loc> </conf-loc>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
