<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0123-921X</journal-id>
<journal-title><![CDATA[Tecnura]]></journal-title>
<abbrev-journal-title><![CDATA[Tecnura]]></abbrev-journal-title>
<issn>0123-921X</issn>
<publisher>
<publisher-name><![CDATA[Universidad Distrital Francisco José de Caldas]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0123-921X2016000400009</article-id>
<article-id pub-id-type="doi">10.14483/udistrital.jour.tecnura.2016.4.a09</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Ortomosaicos y modelos digitales de elevación generados a partir de imágenes tomadas con sistemas UAV]]></article-title>
<article-title xml:lang="en"><![CDATA[Orthomosaics and digital elevation models generated from images taken with UAV systems]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Escalante Torrado]]></surname>
<given-names><![CDATA[Jesús Orlando]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[áceres Jiménez]]></surname>
<given-names><![CDATA[Jhon Jairo]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Porras Díaz]]></surname>
<given-names><![CDATA[Hernán]]></given-names>
</name>
<xref ref-type="aff" rid="A03"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Industrial de Santander  ]]></institution>
<addr-line><![CDATA[Bucaramanga ]]></addr-line>
<country>Colombia</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Industrial de Santander  ]]></institution>
<addr-line><![CDATA[Bucaramanga ]]></addr-line>
<country>Colombia</country>
</aff>
<aff id="A03">
<institution><![CDATA[,Universidad Industrial de Santander  ]]></institution>
<addr-line><![CDATA[Bucaramanga ]]></addr-line>
<country>Colombia</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>12</month>
<year>2016</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>12</month>
<year>2016</year>
</pub-date>
<volume>20</volume>
<numero>50</numero>
<fpage>119</fpage>
<lpage>140</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S0123-921X2016000400009&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S0123-921X2016000400009&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S0123-921X2016000400009&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[RESUMEN Contexto: Actualmente, los vehículos aéreos no tripulados (UAV por su sigla en inglés) son una de las herramientas tecnológicas de mayor investigación y aplicación en áreas como la fotogrametría aérea y de percepción remota, presentándose como una importante alternativa para la captura de imágenes de alta resolución espacial y temporal. Sin embargo, las características de vuelo, de las imágenes y de los sensores utilizados en los UAV generan grandes desafíos en el procesamiento tradicional para la generación de productos cartográficos como modelos digitales de elevación y ortomosaicos, por lo que se requiere de la identificación de nuevas estrategias de procesamiento. Método: En el presente artículo se realiza una revisión bibliográfica de las principales características de los UAV empleados en fotogrametría aérea junto con las estrategias de procesamiento afines que actualmente se están empleando en áreas como visión por computador y fotogrametría. Resultados: A partir de la revisión se observa que las estrategias de procesamiento en el área de visión por computador son más afines con la información capturada con los sistemas UAV para la generación de modelos digitales de elevación y ortomosaicos. Conclusiones: Los adelantos tecnológicos de los sistemas UAV y los avances en las estrategias de procesamiento de grandes volúmenes de datos seguirán impulsando la investigación y aplicación de estos sistemas en áreas como la fotogrametría y visión por computador, para la generación de productos cartográficos de mayor precisión.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[ABSTRACT Context: Nowadays, Unmanned Aerial Vehicles (UAVs) are among the technological tools most researched and applied in areas such as aerial photogrammetry and remote sensing, presenting itself as an important alternative for capturing imagery with high spatial and temporal resolution. However, UAV flight parameters, image and sensor characteristics, result on major challenges for traditional processing for producing mapping products such as digital elevation models and orthomosaics, that is why it is required to identify new processing strategies. Method: In this paper, a review of the main characteristics of UAVs used in aerial photogrammetry is done, along with related processing strategies currently being used in areas such as computer vision and photogrammetry. Results: From this review, it is shown that processing strategies in the area of computer vision are more akin to the information captured with UAV systems for generating digital elevation models and orthomosaics. Conclusions: The technological advances in UAVs systems and advances in strategies for processing large data volumes continue to drive research and application of these systems for the generation of mapping products more accurately in areas such as photogrammetry and computer vision.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[imágenes aéreas]]></kwd>
<kwd lng="es"><![CDATA[MDE]]></kwd>
<kwd lng="es"><![CDATA[nube de puntos]]></kwd>
<kwd lng="es"><![CDATA[ortomosaicos]]></kwd>
<kwd lng="es"><![CDATA[UAV]]></kwd>
<kwd lng="en"><![CDATA[aerial images]]></kwd>
<kwd lng="en"><![CDATA[DSM]]></kwd>
<kwd lng="en"><![CDATA[orthomosaic]]></kwd>
<kwd lng="en"><![CDATA[point clouds]]></kwd>
<kwd lng="en"><![CDATA[UAV]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[   <font face="Verdana" size="2">     <P>doi:  <A href="http://http://dx.doi.org/10.14483/udistrital.jour.tecnura.2016.4.a09" target="_blank">http://dx.doi.org/10.14483/udistrital.jour.tecnura.2016.4.a09</A></p>      <p align="center"><font size="4"><b>Ortomosaicos y modelos digitales de elevaci&oacute;n generados a partir de im&aacute;genes tomadas con sistemas UAV</b></font></p>      <P align="center"><font size="3"><b>Orthomosaics and digital elevation models  generated from images taken with UAV systems</b></font></p>      <P align="center"><B></b>Jes&uacute;s Orlando Escalante Torrado<Sup>1</Sup>, Jhon Jairo C&aacute;ceres Jim&eacute;nez<Sup>2</Sup>, Hern&aacute;n Porras D&iacute;az<Sup>3</Sup></p>       <p><sup>1</sup>	Ingeniero civil, estudiante de Maestr&iacute;a en Ingenier&iacute;a Civil, investigador Grupo Geom&aacute;tica, Universidad Industrial de Santander. Bucaramanga, Colombia. Contacto: <A href="mailto:jescalto@uis.edu.co">jescalto@uis.edu.co</A>    <br>  <sup>2</sup>	Ingeniero de sistemas, doctor en Ingenier&iacute;a Civil y Costera, docente e investigador de la Universidad Industrial de Santander. Bucaramanga, Colombia. Contacto: <A href="mailto:jcaceres@uis.edu.co">jcaceres@uis.edu.co</A>    <br>  <sup>3</sup>	Ingeniero civil, doctor en Ingenier&iacute;a Telem&aacute;tica, director Grupo Geom&aacute;tica, Universidad Industrial de Santander. Bucaramanga, Colombia. Contacto: <A href="mailto:hporras@uis.edu.co">hporras@uis.edu.co</A> </p>      <p><B>Fecha de recepci&oacute;n: </B>8 de febrero de 2016 <B>Fecha de aceptaci&oacute;n: </B>10 de septiembre de 2016</p>      <p><B>C&oacute;mo citar: </B>Escalante T., J.O.; C&aacute;ceres J., J.J. y Porras D., H. (2016). Ortomosaicos y modelos digitales de elevaci&oacute;n generados a partir de im&aacute;genes tomadas con sistemas UAV. <I>Revista Tecnura, 20</I>(50), 119-140. doi:  10.14483/udistrital.jour.tecnura.2016.4.a09</p>  <hr>     ]]></body>
<body><![CDATA[<p><B>RESUMEN</b></p>      <p><B>Contexto:</b> Actualmente, los veh&iacute;culos a&eacute;reos no tripulados (UAV por su sigla en ingl&eacute;s) son una de las herramientas tecnol&oacute;gicas de mayor investigaci&oacute;n y aplicaci&oacute;n en &aacute;reas como la fotogrametr&iacute;a a&eacute;rea y de percepci&oacute;n remota, present&aacute;ndose como una importante alternativa para la captura de im&aacute;genes de alta resoluci&oacute;n espacial y temporal. Sin embargo, las caracter&iacute;sticas de vuelo, de las im&aacute;genes y de los sensores utilizados en los UAV generan grandes desaf&iacute;os en el procesamiento tradicional para la generaci&oacute;n de productos cartogr&aacute;ficos como modelos digitales de elevaci&oacute;n y ortomosaicos, por lo que se requiere de la identificaci&oacute;n de nuevas estrategias de procesamiento.</p>      <p><B>M&eacute;todo:</B> En el presente art&iacute;culo se realiza una revisi&oacute;n bibliogr&aacute;fica de las principales caracter&iacute;sticas de los UAV empleados en fotogrametr&iacute;a a&eacute;rea junto con las estrategias de procesamiento afines que actualmente se est&aacute;n empleando en &aacute;reas como visi&oacute;n por computador y fotogrametr&iacute;a.</p>      <p><B>Resultados:</B> A partir de la revisi&oacute;n se observa que las estrategias de procesamiento en el &aacute;rea de visi&oacute;n por computador son m&aacute;s afines con la informaci&oacute;n capturada con los sistemas UAV para la generaci&oacute;n de modelos digitales de elevaci&oacute;n y ortomosaicos.</p>      <p><B>Conclusiones: </B>Los adelantos tecnol&oacute;gicos de los sistemas UAV y los avances en las estrategias de procesamiento de grandes vol&uacute;menes de datos seguir&aacute;n impulsando la investigaci&oacute;n y aplicaci&oacute;n de estos sistemas en &aacute;reas como la fotogrametr&iacute;a y visi&oacute;n por computador, para la generaci&oacute;n de productos cartogr&aacute;ficos de mayor precisi&oacute;n.</p>      <p><B><I>Palabras Clave:</I></B><I> </I>im&aacute;genes a&eacute;reas, MDE, nube de puntos, ortomosaicos, UAV.</p> <hr>      <p><B>ABSTRACT</b></p>      <p><B>Context:</b> Nowadays, Unmanned Aerial Vehicles (UAVs) are among the technological tools most researched and applied in areas such as aerial photogrammetry and remote sensing, presenting itself as an important alternative for capturing imagery with high spatial and temporal resolution. However, UAV flight parameters, image and sensor characteristics, result on major challenges for traditional processing for producing mapping products such as digital elevation models and orthomosaics, that is why it is required to identify new processing strategies.</p>      <p><B>Method:</B> In this paper, a review of the main characteristics of UAVs used in aerial photogrammetry is done, along with related processing strategies currently being used in areas such as computer vision and photogrammetry.</p>      <p><B>Results:</B> From this review, it is shown that processing strategies in the area of computer vision are more akin to the information captured with UAV systems for generating digital elevation models and orthomosaics.</p>      ]]></body>
<body><![CDATA[<p><B>Conclusions:</B> The technological advances in UAVs systems and advances in strategies for processing large data volumes continue to drive research and application of these systems for the generation of mapping products more accurately in areas such as photogrammetry and computer vision.</p>      <p><B><I>Keywords: </I></B>aerial images, DSM, orthomosaic, point clouds, UAV.</p> <hr>      <p><B>INTRODUCCI&Oacute;N</b></p>      <p>Actualmente, la comunidad fotogram&eacute;trica y de percepci&oacute;n remota establece y promueve el uso de los veh&iacute;culos a&eacute;reos no tripulados o sistemas UAV (por sus siglas en ingl&eacute;s) como una nueva y confiable alternativa de bajo costo para la adquisici&oacute;n de im&aacute;genes a&eacute;reas (ISPRS, 2004). Estos sistemas que han sido desarrollados y empleados desde finales de los a&ntilde;os cincuenta en el campo militar para tareas de reconocimiento, vigilancia y misiones en territorios hostiles, hoy en d&iacute;a forman parte tambi&eacute;n de actividades civiles de monitoreo, mediciones atmosf&eacute;ricas, evaluaci&oacute;n de da&ntilde;os, agricultura, mapeo y cartograf&iacute;a entre otras (Bendea <I>et al.</I>, 2008; Chiabrando, Nex, Piatti y Rinaudo, 2011). Por lo general los sistemas UAV se componen de dos elementos principales: una plataforma a&eacute;rea, equipada con una c&aacute;mara y un sistema de navegaci&oacute;n, y un centro de control en tierra desde donde se programa y monitorea la actividad a&eacute;rea. Desde el punto de vista de la fotogrametr&iacute;a y de sensores remotos, las grandes ventajas que estos sistemas ofrecen, en comparaci&oacute;n con las plataformas tradicionales como sat&eacute;lites y aviones tripulados, tienen que ver con: la obtenci&oacute;n de im&aacute;genes de alta resoluci&oacute;n espacial y temporal, los bajos costos de adquisici&oacute;n y de operaci&oacute;n, el uso en ambientes peligrosos para el ser humano, la ausencia de una tripulaci&oacute;n, la respuesta r&aacute;pida y las pocas restricciones de vuelo en la mayor&iacute;a de pa&iacute;ses (Shi, Wang y Xu, 2011; Xiang y Tian, 2011).</p>      <p>Gracias a estas ventajas, los sistemas UAV han cumplido un papel importante en investigaci&oacute;n en aspectos tan diversos como: atenci&oacute;n de emergencias (Adams y Friedland, 2011; Arthur, Al-Tahir y Davis, 2012), geolog&iacute;a (Li, Li y Fan, 2012), arqueolog&iacute;a (Chiabrando <I>et al.</I>, 2011), agricultura (Xiang y Tian, 2011), ciudades digitales 3D (Xie, Lin, Gui y Lin, 2012) y tr&aacute;fico urbano (Salvo, Caruso y Scordo, 2014), entre otros.</p>      <p>Por lo general, las aplicaciones m&aacute;s importantes de sistemas UAV en &aacute;reas como la fotogrametr&iacute;a y de percepci&oacute;n remota han sido la generaci&oacute;n de productos cartogr&aacute;ficos y de modelos tridimensionales. Esto ha sido posible con el aporte de estrategias de procesamiento desarrolladas en &aacute;reas como la de visi&oacute;n por computador y de fotogrametr&iacute;a de rango cercano (Hartley y Mundy, 1993). De acuerdo con esto, en el presente art&iacute;culo se presenta una revisi&oacute;n general de las estrategias que est&aacute;n siendo empleadas para la generaci&oacute;n de nubes de puntos, de modelos digitales de elevaci&oacute;n y de ortomosaicos a partir del procesamiento de im&aacute;genes UAV.</p>      <p>En este documento se presenta un recorrido por las etapas llevadas a cabo en un levantamiento de fotogrametr&iacute;a a&eacute;rea con sistemas UAV, iniciando con una descripci&oacute;n de la etapa de captura de datos, de los sistemas UAV y de las actividades de planeaci&oacute;n de vuelos y adquisici&oacute;n de im&aacute;genes. Luego se presenta la revisi&oacute;n de las estrategias de procesamiento que est&aacute;n siendo empleadas e investigadas en torno a las im&aacute;genes tomadas con sistemas UAV. En esta secci&oacute;n se hace un recorrido por las etapas de procesamiento identificadas en la bibliograf&iacute;a para la generaci&oacute;n de modelos digitales de elevaci&oacute;n y ortomosaicos. Por &uacute;ltimo, se establecen algunas ideas a manera de conclusi&oacute;n.</p>      <p><B>RECOLECCI&Oacute;N DE DATOS</b></p>      <p>La recolecci&oacute;n de datos para levantamientos de fotogrametr&iacute;a con sistemas UAV consiste en la captura de im&aacute;genes a&eacute;reas a lo largo de una ruta de vuelo que es ajustada a unos par&aacute;metros previamente definidos. En esta secci&oacute;n se lleva a cabo una revisi&oacute;n de las plataformas y sensores, as&iacute; como de las actividades necesarias para la recolecci&oacute;n de datos.</p>      <p>A continuaci&oacute;n se presentan las caracter&iacute;sticas principales de las plataformas UAV, las ventajas de su uso, los tipos de plataformas existentes, la menci&oacute;n de algunos sensores que est&aacute;n siendo acoplados a las plataformas y las organizaciones asociadas a los sistemas UAV. M&aacute;s adelante se indican los pasos requeridos en la planeaci&oacute;n de un vuelo para la adquisici&oacute;n de im&aacute;genes con sistemas UAV.</p>      ]]></body>
<body><![CDATA[<p><B>Veh&iacute;culos a&eacute;reos no tripulados (UAV)</b></p>      <p>Los veh&iacute;culos a&eacute;reos no tripulados, o sistemas UAV, tambi&eacute;n llamados UVS (sistema de veh&iacute;culo no tripulado) o UAS (sistema de aeronave no tripulada), son aeronaves que vuelan aut&oacute;nomamente a trav&eacute;s de un sistema de piloto autom&aacute;tico que es monitoreado desde un centro de control en tierra (Everaerts, 2008). En el Committee of Standards "Lexicon of UAV/ROA Terminology AIAA (2004) (como se cit&oacute; en Chiabrando <I>et al.</I>, 2011) se define los UAV como</p>      <blockquote>     <p>&#91;...&#93; aeronaves que est&aacute;n dise&ntilde;adas o modificadas para no llevar un piloto humano y que son operadas a trav&eacute;s de comandos electr&oacute;nicos iniciados por el controlador de vuelo o por un sistema de control de gesti&oacute;n de vuelo aut&oacute;nomo a bordo que no requiere la intervenci&oacute;n del controlador de vuelo (p. 697).</p> </blockquote>      <p>El uso de estas plataformas a&eacute;reas tuvo inicio en el campo militar en los a&ntilde;os cincuenta con tareas de reconocimiento, vigilancia, mapeo y misiones en territorios hostiles. Sin embargo, los primeros usos en aplicaciones geom&aacute;ticas tuvo lugar a comienzos de los a&ntilde;os ochenta, y solo recientemente los sistemas UAV han llegado a ser de uso com&uacute;n en estas aplicaciones al punto de llegar a ser actualmente una alternativa a las plataformas a&eacute;reas tripuladas para la adquisici&oacute;n de im&aacute;genes (Nex y Remondino, 2013). Colomina y Molina (2014) presentan tabulada la cantidad de plataformas UAV referenciadas en el periodo 2005-2013 a nivel mundial, not&aacute;ndose el mayor aumento en los temas de producci&oacute;n y desarrollo de plataformas (207 en 2005 a 540 en 2013) y el uso en aplicaciones de uso civil y comercial (55 en 2005 a 247 en 2013).</p>      <p>En el desarrollo de plataformas UAV, una gran cantidad de investigaciones han realizado la captura de datos partir de prototipos UAV no comerciales como el "<I>Pelican</I>" (Marenchino, 2009), el <I>Quanta-H y G</I> (Berni<I> et al.</I>, 2009) o el <I>"NEO S-300"</I> (Kohoutek y Eisenbeiss, 2012). Mientras que en el uso comercial compa&ntilde;&iacute;as privadas con plataformas m&aacute;s sofisticadas, mencionadas m&aacute;s adelante, ofrecen productos fotogram&eacute;tricos (modelos digitales de superficie y ortomosaicos) generados a partir de la informaci&oacute;n recolectada con estos sistemas (Nex y Remondino, 2013).</p>      <p><I>Clasificaci&oacute;n de plataformas UAV</I></p>      <p>Actualmente debido a la gran cantidad de plataformas a&eacute;reas consideradas UAV, se presentan diferentes maneras para clasificarlas. Estas pueden ser: por tama&ntilde;o, por capacidad de carga, por altura de vuelo, por autonom&iacute;a de vuelo o por tipo de misi&oacute;n, entre otras. En el contexto de la adquisici&oacute;n de datos fotogram&eacute;tricos una clasificaci&oacute;n representativa es la de por tipo de plataforma, ya que esta define la forma de vuelo, y por tanto, las &aacute;reas m&aacute;s apropiadas de aplicaci&oacute;n. De acuerdo con el tipo de plataforma UAV se presentan dos tipos (<a href="#f1">figura 1</a>): de ala fija o tipo avi&oacute;n (Marenchino, 2009; Vallet, Panissod, Strecha y Tracol, 2012), y multirrotor, de ala rotatoria o tipo helic&oacute;ptero (Niethammer<I> et al.</I>, 2010; Yahyanejad, Quaritsch y Rinner, 2011). Watts, Ambrosia y Hinkley (2012) presentan una revisi&oacute;n amplia de los diferentes modelos de plataformas UAV y el nivel de complejidad de estas, de acuerdo con las &aacute;reas de aplicaci&oacute;n.</p>     <p align="center"><a name="f1"></a><img src="img/revistas/tecn/v20n50/v20n50a09f1.jpg"></p>      <p>Las ventajas que ofrece cada una de las plataformas dependen del caso de uso. Nizam Tahar y Ahmad (2013) compararon el uso de una plataforma UAV de ala fija y una multirrotor en la generaci&oacute;n de un modelo digital de pendientes. En esa investigaci&oacute;n se determin&oacute; que las mayores diferencias son el menor costo de la plataforma multirrotor, y la leve mejora en la precisi&oacute;n de los resultados de esta plataforma, que en la investigaci&oacute;n puede estar asociado a la diferencia de altura en la toma de datos (80 m y 320 m para el UAV multirrotor y el de ala fija, respectivamente). En tanto que la plataforma de ala fija present&oacute; un menor consumo de tiempo en las etapas de captura y procesamiento de las im&aacute;genes, por lo que para el uso mencionado se puede establecer que las dos plataformas son igualmente apropiadas.</p>      ]]></body>
<body><![CDATA[<p>Sin embargo, el modo de vuelo de estas dos plataformas determina que para espacios reducidos, registro fotogr&aacute;fico a baja altura o modelamiento 3D de objetos, las plataformas multirrotor son las apropiadas, mientras que el registro de grandes extensiones y vuelos a mediana y gran altura, las plataformas de ala fija presentan mayores ventajas.</p>      <p>Con respecto a c&oacute;mo se compone un sistema UAV est&aacute;ndar empleado en actividades fotogram&eacute;tricas, se pueden definir dos elementos principales: una plataforma a&eacute;rea y un centro de control en tierra, enlazados a trav&eacute;s de una se&ntilde;al de radiocomunicaci&oacute;n. La plataforma a&eacute;rea est&aacute; equipada generalmente con un sistema de navegaci&oacute;n o piloto autom&aacute;tico que permite la navegaci&oacute;n aut&oacute;noma, siguiendo una ruta de vuelo predefinida por el usuario desde la estaci&oacute;n de control en tierra.</p>      <p>Esta navegaci&oacute;n aut&oacute;noma es posible por medio de la integraci&oacute;n de un sistema inercial y un sistema GPS en la plataforma a&eacute;rea, que permiten conocer la postura y posici&oacute;n de esta durante el vuelo. Esta informaci&oacute;n es enviada en tiempo real a la estaci&oacute;n de control desde donde se realiza el seguimiento de la plataforma. En el caso de la ausencia de un sistema de navegaci&oacute;n, el uso de un control remoto es la &uacute;nica manera de dirigir la plataforma a&eacute;rea, aunque el control remoto tambi&eacute;n puede servir como complemento del sistema de navegaci&oacute;n en momentos como el despegue y descenso del UAV.</p>      <p>En el caso de plataformas UAV m&aacute;s sofisticadas, actualmente se encuentran sistemas que permiten la vinculaci&oacute;n con receptores GNSS como el eBee RTK (Sensefly, 2014), el Gatewing<I> </I>UX5 (Trimble, 2014), en los que la plataforma se conecta a una estaci&oacute;n base en tierra y desde esta se trasmiten datos de correcci&oacute;n de posici&oacute;n a la plataforma, permitiendo que las im&aacute;genes capturadas tengan asociada una posici&oacute;n de alta precisi&oacute;n; la inclusi&oacute;n de c&aacute;maras multiespectrales como en el eBee Ag (Sensefly, 2014) y el MD4-1000 (Microdrones, 2014) en donde bandas espectrales como el infrarrojo y el infrarrojo cercano son empleadas para agricultura; la transmisi&oacute;n de video en tiempo real como el Aibot X6 (Aibotix, 2014); o la implementaci&oacute;n de c&aacute;maras giroestabilizadas y de tipo Gimbal como el Zephyr2 UAV (MarcusUAV, 2014). En la <a href="#t1">tabla 1</a> se presentan en paralelo las caracter&iacute;sticas m&aacute;s importantes de estas plataformas UAV consideradas comerciales, en donde los aspectos a tener en cuenta son el tipo de plataforma, el tiempo de vuelo y los sensores acoplables.</p>     <p align="center"><a name="t1"></a><img src="img/revistas/tecn/v20n50/v20n50a09t1.jpg"></p>      <p><I>Organizaciones relacionadas y reguladoras de los sistemas UAV</I></p>     <p>Aunque actualmente no existe una reglamentaci&oacute;n internacional para el uso y aplicaci&oacute;n de los sistemas UAV, organismos nacionales como la Organizaci&oacute;n Nacional FFA y el Instituto Americano de Aeron&aacute;utica y Astron&aacute;utica (AIAA), en Estados Unidos, o entidades internacionales como la Organizaci&oacute;n Europea para la Seguridad de la Navegaci&oacute;n A&eacute;rea (Eurocontrol), la Agencia Europea de Seguridad A&eacute;rea (EASA) y la Organizaci&oacute;n de Aviaci&oacute;n Civil Internacional (ICAO), dirigida por las Naciones Unidas, as&iacute; como regulaciones nacionales principalmente en pa&iacute;ses europeos (Nex y Remondino, 2013), se han encargado de definir pol&iacute;ticas relacionadas con la seguridad y la incursi&oacute;n de estos sistemas en el espacio a&eacute;reo. Por otro lado, organismos como la Sociedad Internacional y la Sociedad Americana de Fotogrametr&iacute;a y Sensores Remotos (ISPRS y ASPRS, por sus siglas en ingl&eacute;s, respectivamente) y la comunidad acad&eacute;mica en general, se han encargado de identificar nuevas &aacute;reas de investigaci&oacute;n y de aplicaci&oacute;n, as&iacute; como de intentar establecer normativas orientadas a definir los est&aacute;ndares de calidad en la toma de informaci&oacute;n y en los resultados del procesamiento de la informaci&oacute;n tomada con sistemas UAV.</p>      <p>Por su parte, en Colombia, la Aeron&aacute;utica Civil, la autoridad que dicta la reglamentaci&oacute;n en la aviaci&oacute;n, a trav&eacute;s del Reglamento Aeron&aacute;utico de Colombia (Aerocivil, 2009) en el numeral 4.25.8.2. All&iacute; se establece que no hay ninguna prohibici&oacute;n en el uso de veh&iacute;culos a&eacute;reos no tripulados para teledetecci&oacute;n, fotograf&iacute;a o televisi&oacute;n; sin embargo, su uso debe estar sujeto a las limitaciones impuestas en las actividades de aeromodelismo. No obstante, recientemente a trav&eacute;s de la circular reglamentaria No. 002, publicada en el <I>Diario Oficial No. 49.624</I> (Aerocivil, 2015) se han definido expl&iacute;citamente los requisitos de aeronavegabilidad y operaci&oacute;n de sistemas UAV en actividades diferentes a las de recreaci&oacute;n y deporte.</p>      <p><B>Planeaci&oacute;n de vuelo y adquisici&oacute;n de im&aacute;genes</b></p>      <p>Esta etapa consiste en definir la regi&oacute;n de inter&eacute;s y los par&aacute;metros de vuelo para la adquisici&oacute;n de las im&aacute;genes. Las plataformas UAV con un sistema de navegaci&oacute;n cuentan, en su estaci&oacute;n de control en tierra, con un <I>software</I> espec&iacute;fico para realizar esta etapa. Independientemente del <I>software</I> y del tipo de plataforma UAV (tipo avi&oacute;n o tipo helic&oacute;ptero) los pasos que se siguen para la planeaci&oacute;n son b&aacute;sicamente los mismos.</p>      ]]></body>
<body><![CDATA[<p>En un vuelo en modo aut&oacute;nomo, la planeaci&oacute;n inicia con la definici&oacute;n de una regi&oacute;n de inter&eacute;s, generalmente dibujada sobre un mapa base georreferenciado (por ejemplo, Google Earth<Sup>&reg;</Sup>). Para el caso de un vuelo en modo manual (maniobrado con control remoto), la definici&oacute;n de la regi&oacute;n depender&aacute; de la direcci&oacute;n dada a la plataforma a&eacute;rea con el control remoto por parte del operador de vuelo.</p>      <p>Una vez se define la regi&oacute;n de inter&eacute;s, es necesario ingresar los par&aacute;metros de vuelo y, a partir de esta informaci&oacute;n, el <I>software</I> calcula autom&aacute;ticamente las l&iacute;neas de vuelo. Los par&aacute;metros de vuelo requeridos son: la altura de vuelo o alternativamente el GSD (<I>ground sample distance</I>) y los porcentajes de traslape entre im&aacute;genes (longitudinal y transversalmente). Para el caso de sistemas UAV los porcentajes de traslape considerados apropiados var&iacute;an entre 60-80 % o m&aacute;s, seg&uacute;n el nivel de detalle requerido. En el caso de la altura de vuelo que est&aacute; relacionada con el GSD (medido en cm/pixel), alturas grandes generan GSD grandes (menor resoluci&oacute;n), mientras que alturas de vuelo bajas generan GSD peque&ntilde;os (mayor resoluci&oacute;n). En la generaci&oacute;n de modelos 3D detallados por lo general se requiere de alturas de vuelo bajas y de altos porcentajes de traslape (Nex y Remondino, 2013).</p>      <p>En el caso de vuelos en modo manual, sin sistema de navegaci&oacute;n, los valores de altura y porcentajes de traslape quedan a consideraci&oacute;n del operador de vuelo a trav&eacute;s del control remoto, o a trav&eacute;s de la configuraci&oacute;n de la c&aacute;mara para tomar fotos en intervalos de tiempo fijos (Neitzel y Klonowski, 2011).</p>      <p><I>Adquisici&oacute;n de im&aacute;genes</I></p>     <p>Luego de la etapa de planeaci&oacute;n, el siguiente paso es la ejecuci&oacute;n del vuelo para la adquisici&oacute;n de las im&aacute;genes, esto inicia con el lanzamiento de la plataforma a&eacute;rea. Las plataformas tipo avi&oacute;n requieren de un lanzamiento manual o por medio de catapultas, mientras que en las plataformas tipo helic&oacute;ptero o multirrotor el despegue se realiza autom&aacute;ticamente.</p>      <p>Por medio del sistema de navegaci&oacute;n la plataforma a&eacute;rea busca aut&oacute;nomamente el inicio de la ruta de vuelo programada y da inicio a la captura de las im&aacute;genes de manera secuencial de acuerdo con los par&aacute;metros establecidos. Mientras tanto, en la estaci&oacute;n de control en tierra se monitorea el estado del vuelo y de la plataforma a trav&eacute;s de informaci&oacute;n como tiempo de vuelo, nivel de bater&iacute;a, temperatura e intensidad de la se&ntilde;al de comunicaci&oacute;n. Igualmente es posible ajustar los par&aacute;metros de vuelo en tiempo real.</p>      <p>Otra de las caracter&iacute;sticas que se presenta en la adquisici&oacute;n de im&aacute;genes con sistemas UAV es la vinculaci&oacute;n de cada foto con los valores de posici&oacute;n y orientaci&oacute;n, registrados con los sistemas GPS e inercial en el momento de la captura. Esta es informaci&oacute;n que puede ser utilizada en las etapas posteriores de procesamiento.</p>      <p>Por otra parte, con respecto a las caracter&iacute;sticas de las im&aacute;genes capturadas, Turner, Lucieer y Watson (2012) hacen menci&oacute;n de las diferencias fundamentales que presentan las im&aacute;genes capturadas con sistemas UAV con respecto a las plataformas a&eacute;reas tripuladas: la altura de vuelo de los UAV es baja en relaci&oacute;n con la variaci&oacute;n de altura dentro de la escena registrada, lo que causa grandes distorsiones perspectivas, y por tanto influye negativamente en el ejercicio estereosc&oacute;pico; la inestabilidad de la plataforma UAV que causa l&iacute;neas de vuelo irregulares, y como efecto genera &aacute;reas de traslape variable entre im&aacute;genes, as&iacute; como grandes variaciones angulares y rotacionales (&aacute;ngulos en plataformas UAV de hasta 15&deg; con la horizontal, mientras en fotogrametr&iacute;a tradicional el m&aacute;ximo permitido es 3&deg;); y diferencias de escala y de iluminaci&oacute;n entre im&aacute;genes adyacentes, que dificulta identificar elementos comunes entre ellas.</p>      <p>Debido a estas diferencias, el procesamiento de im&aacute;genes UAV debe ser diferente. Por tanto, es necesario implementar estrategias de procesamiento alternativas a las empleadas en fotogrametr&iacute;a tradicional, que tengan en cuenta las caracter&iacute;sticas de las im&aacute;genes UAV. Algunas de estas estrategias ser&aacute;n presentadas a continuaci&oacute;n.</p>      <p><B>PROCESAMIENTO DE IM&Aacute;GENES UAV</b></p>      ]]></body>
<body><![CDATA[<p>El uso de sistemas UAV para fotogrametr&iacute;a, o <I>fotogrametr&iacute;a UAV</I>, como lo define Eisenbeiss (2009), describe las plataformas de medici&oacute;n fotogram&eacute;trica que son operadas remotamente, de manera aut&oacute;noma o semiaut&oacute;noma sin un piloto, as&iacute; como el procesamiento de las im&aacute;genes tomadas con estas plataformas. En la fotogrametr&iacute;a UAV se identifican dos productos cartogr&aacute;ficos tradicionales: los modelos digitales de superficie y los ortomosaicos georreferenciados (Nex y Remondino, 2013; Colomina y Molina, 2014).</p>      <p>El modelo digital de superficie (DSM) representa la informaci&oacute;n de altura de la superficie de la Tierra asociada a un sistema de referencia global, de todos los elementos registrados en la escena, es decir considerando las alturas de edificaciones, vegetaci&oacute;n y dem&aacute;s objetos presentes en la superficie (Rumpler, Wendel y Bischof, 2013). Estos DSM son empleados para la generaci&oacute;n de modelos digitales del terreno (DTM), que son aquellos en los que se han eliminado las elevaciones que no corresponden al terreno como tambi&eacute;n para la producci&oacute;n de ortoim&aacute;genes reales, el reconocimiento autom&aacute;tico y extracci&oacute;n de edificios, el an&aacute;lisis de redes de comunicaci&oacute;n, el modelamiento urbano, la simulaci&oacute;n de desastres naturales, la planeaci&oacute;n de vuelos, los estudios ambientales y las visualizaciones fotorrealistas en 3D, entre otras actividades (Lei, Fan, Ji y Zhai, 2008; Elaksher, 2008; Rumpler <I>et al.</I>, 2013).</p>      <p>Por otra parte, un mosaico corresponde al conjunto de im&aacute;genes tomadas desde una o varias c&aacute;maras, que presentan &aacute;reas de traslape entre s&iacute;, y que son unidas y combinadas en una sola imagen para ampliar el rango de visi&oacute;n de la escena (Cheng, Xue y Li, 2007). Cuando el mosaico es corregido de las distorsiones causadas por el relieve del terreno y los objetos en &eacute;l, se denomina <I>ortomosaico</I>.</p>      <p>En el procesamiento de im&aacute;genes UAV para la generaci&oacute;n de estos productos cartogr&aacute;ficos, se combinan estrategias empleadas en fotogrametr&iacute;a tradicional y en visi&oacute;n por computador. Por tanto, se cuenta con una diversa cantidad de m&eacute;todos. A pesar de que algunas investigaciones establecen que emplear <I>software</I> comercial no es apropiado (Arthur <I>et al.</I>, 2012), debido a que estos est&aacute;n basados en fotogrametr&iacute;a tradicional, y a que en la fotogrametr&iacute;a UAV no se presentan las condiciones estereosc&oacute;picas normales que esta requiere, Gini <I>et al.</I> (2013) concluyen que las im&aacute;genes tomadas con sistemas UAV son aptas para ser procesadas por diferentes <I>software </I>fotogram&eacute;tricos, incluyendo aquellos que son considerados tradicionales.</p>      <p>En resumen, el procesamiento llevado a cabo luego de la captura de datos se caracteriza por tres etapas principales: primera, la configuraci&oacute;n del bloque fotogram&eacute;trico (<I>v&eacute;ase</I> "Configuraci&oacute;n del bloque fotogram&eacute;trico"), en donde el objetivo es determinar la informaci&oacute;n que recrea la escena en el momento de la captura de las im&aacute;genes (datos de orientaci&oacute;n exterior e interior de la c&aacute;mara y los puntos que relacionan las im&aacute;genes entre s&iacute;); segunda, la reconstrucci&oacute;n 3D de la escena (<I>v&eacute;ase</I> "Reconstrucci&oacute;n de escenas 3D") a partir de la extracci&oacute;n de una nube de puntos, y tercera, la generaci&oacute;n del modelo digital de superficie y la ortorrectificaci&oacute;n de las im&aacute;genes a partir de este (<I>v&eacute;ase</I> "Modelo digital de elevaciones y ortorrectificaci&oacute;n").</p>      <p>En la primera etapa (<I>v&eacute;ase</I> "Extracci&oacute;n y correlaci&oacute;n de caracter&iacute;sticas (<I>feature extraction and matching</I>)") se lleva a cabo una de las estrategias principales de procesamiento en fotogrametr&iacute;a que es la extracci&oacute;n y correlaci&oacute;n de puntos comunes entre las im&aacute;genes. Esto permite conocer la orientaci&oacute;n relativa entre im&aacute;genes y las &aacute;reas comunes registradas del terreno. Otras dos estrategias en esta etapa corresponden a determinar los datos de orientaci&oacute;n interna y externa, a trav&eacute;s de la calibraci&oacute;n y orientaci&oacute;n de im&aacute;genes, respectivamente (<I>v&eacute;ase</I> "Calibraci&oacute;n de c&aacute;maras y orientaci&oacute;n de im&aacute;genes"). Estas dos &uacute;ltimas estrategias se identifican como opcionales en algunas investigaciones mencionadas m&aacute;s adelante.</p>      <p>En la segunda etapa, el objetivo es determinar las coordenadas del terreno de cada uno de los puntos comunes extra&iacute;dos de las im&aacute;genes (<I>v&eacute;ase</I> "Generaci&oacute;n de puntos 3D") y posteriormente determinar las coordenadas del terreno para cada uno de los pixeles en las im&aacute;genes a trav&eacute;s de lo que se denomina densificaci&oacute;n de nube de puntos (<I>v&eacute;ase</I> "Densificaci&oacute;n de nube de puntos").</p>      <p>Finalmente, en "Modelo digital de elevaciones y ortorrectificaci&oacute;n" se presentan las estrategias para la generaci&oacute;n del modelo digital del terreno a partir de la rasterizaci&oacute;n de la nube de puntos, y la ortorrectificaci&oacute;n a partir del DSM generado, el cual permite la eliminaci&oacute;n de la distorsi&oacute;n en las im&aacute;genes generada por el relieve.</p>      <p>En la <a href="#f2">figura 2</a>, se presenta un diagrama con las etapas y estrategias de procesamiento mencionadas, que son de uso com&uacute;n en la bibliograf&iacute;a y que ser&aacute;n abordadas, con m&aacute;s detalle, a continuaci&oacute;n.</p>     <p align="center"><a name="f2"></a><img src="img/revistas/tecn/v20n50/v20n50a09f2.jpg"></p>      ]]></body>
<body><![CDATA[<p><B>Configuraci&oacute;n del bloque fotogram&eacute;trico</b></p>      <p>En un levantamiento de fotogrametr&iacute;a a&eacute;rea con sistemas UAV, el conjunto de datos que conforman un bloque fotogram&eacute;trico corresponde a las im&aacute;genes capturadas en un vuelo y los par&aacute;metros que relacionan a estas entre s&iacute; (el traslape) y con la escena registrada (la posici&oacute;n y orientaci&oacute;n). Es decir, el bloque fotogram&eacute;trico relaciona el espacio imagen y el espacio terreno. A continuaci&oacute;n se presentan las estrategias empleadas para determinar la informaci&oacute;n que define un bloque fotogram&eacute;trico:</p>      <p><I>Extracci&oacute;n y correlaci&oacute;n de caracter&iacute;sticas (feature extraction and matching)</I></p>      <p>Lingua, Marenchino y Nex (2009a, p. 3746) definen este proceso como "la extracci&oacute;n de caracter&iacute;sticas de inter&eacute;s en dos o m&aacute;s im&aacute;genes del mismo objeto y de la correlaci&oacute;n (<I>matching</I>) de estas caracter&iacute;sticas en im&aacute;genes adyacentes". Es decir, consiste en identificar y relacionar caracter&iacute;sticas similares (hom&oacute;logas) entre im&aacute;genes en &aacute;reas comunes o de traslape. La relevancia del proceso de extracci&oacute;n y correlaci&oacute;n se debe a que a partir de estas caracter&iacute;sticas extra&iacute;das es posible establecer la orientaci&oacute;n relativa entre im&aacute;genes, la geometr&iacute;a interna de la c&aacute;mara y la estructura tridimensional de la escena registrada.</p>      <p>Para la <I>extracci&oacute;n de caracter&iacute;sticas</I> se puede identificar dos tipos de algoritmos, los llamados operadores de puntos de inter&eacute;s o detectores de puntos/bordes, empleados principalmente en fotogrametr&iacute;a, y los detectores de regi&oacute;n, usados en visi&oacute;n por computador (Lingua, Marenchino y Nex, 2009b).</p>      <p>Los operadores de puntos de inter&eacute;s est&aacute;n asociados a la identificaci&oacute;n de elementos que sobresalen en la imagen por sus caracter&iacute;sticas radiom&eacute;tricas, es decir, elementos con un alto gradiente en su alrededor, como puntos, bordes, esquinas, etc. Estas caracter&iacute;sticas pueden ser f&aacute;cilmente identificables en im&aacute;genes adyacentes cuando las condiciones de captura son normales y no se presentan mayores cambios en las condiciones estereosc&oacute;picas (inclinaci&oacute;n, rotaci&oacute;n, escala o cambios en la iluminaci&oacute;n entre dos im&aacute;genes adyacentes). Por esto, en fotogrametr&iacute;a tradicional se presenta un mayor uso de estos operadores, siendo el operador de Forstner (Forstner y Gulch, 1987) y el operador de Harris (Harris y Stephens, 1988) los de mayor uso en <I>software</I> comercial.</p>      <p>Por otra parte, los detectores de regi&oacute;n son un conjunto de pixeles asociados con la identificaci&oacute;n de elementos que no presentan variaci&oacute;n frente a los movimientos de la c&aacute;mara que generan rotaci&oacute;n, cambios de puntos de vista, de escala, la presencia de ruido en la imagen o cambios de iluminaci&oacute;n en la escena (Lingua <I>et al.</I>, 2009b). Estos efectos son muy comunes en fotogrametr&iacute;a de rango cercano y en visi&oacute;n por computador, por lo que estos algoritmos son desarrollados y empleados mayormente en estas &aacute;reas.</p>      <p>Para el caso de la fotogrametr&iacute;a UAV, en la que en la captura de im&aacute;genes no se presentan condiciones consideradas est&aacute;ndar como las requeridas en fotogrametr&iacute;a tradicional, los detectores de regi&oacute;n han sido la alternativa para la extracci&oacute;n de caracter&iacute;sticas. Uno de los algoritmos de mayor implementaci&oacute;n es el algoritmo SIFT (<I>scale invariant feature transform</I>) (Lowe, 1999; 2004). Seg&uacute;n Lowe, el algoritmo se puede dividir en cuatro etapas principales: (i) detectar m&aacute;ximos y m&iacute;nimos en el espacio-escala, (ii) identificar puntos de inter&eacute;s (iii) asignar orientaci&oacute;n y (iv) generar el descriptor, el cual lleva asociado las propiedades del punto de inter&eacute;s (posici&oacute;n, escala, orientaci&oacute;n) en un vector descriptivo de 128 dimensiones.</p>      <p>Otros algoritmos basados en el SIFT han sido desarrollados con el objetivo de reducir la dimensi&oacute;n del vector descriptivo, y optimizar cada una de las etapas del algoritmo original. El algoritmo SURF (<I>speeded up robust features</I>) (Bay, Tuytelaars y Van Gool, 2006) se presenta como otra alternativa junto al SIFT, pero con un costo computacional menor (vector descriptivo de 64 dimensiones). Aunque el SURF es m&aacute;s r&aacute;pido que el SIFT, este &uacute;ltimo extrae mayor n&uacute;mero de puntos invariantes (Romero y Cazorla, 2009). Lingua <I>et al.</I> (2009c) presentan un an&aacute;lisis del rendimiento del operador SIFT, y desarrollan una versi&oacute;n autoadaptativa de este (A<Sup>2</Sup>SIFT) que permite a ciertos par&aacute;metros del algoritmo ser definidos en relaci&oacute;n a la textura de la imagen, y as&iacute; extraer un mayor n&uacute;mero de puntos caracter&iacute;sticos. Juan y Gwun (2009) presentan una comparaci&oacute;n del algoritmo SIFT, el SURF y una versi&oacute;n modificada llamada PCA-SIFT donde se concluyen las ventajas y desventajas de cada uno. Chen y Zhao (2011) proponen un enfoque para la reducci&oacute;n de la dimensi&oacute;n del descriptor SIFT para disminuir el tiempo de c&oacute;mputo y mantener la robustez del algoritmo. Por &uacute;ltimo, Mikolajczyk y Schmid (2005) presentan una completa evaluaci&oacute;n del rendimiento de varios detectores de regi&oacute;n.</p>      <p>Una vez han sido extra&iacute;das las caracter&iacute;sticas de inter&eacute;s, el siguiente paso consiste en <I>la correlaci&oacute;n de caracter&iacute;sticas</I> o correspondencia de puntos caracter&iacute;sticos (<a href="#f3">figura 3</a>), que compara los vectores descriptores extra&iacute;dos. Para ello se presentan dos m&eacute;todos ampliamente utilizados: la b&uacute;squeda cuadr&aacute;tica (m&aacute;s lento pero riguroso, ya que realiza todas las combinaciones posibles en la comparaci&oacute;n de los puntos) y la estructura de datos <I>kd-tree</I> (m&aacute;s r&aacute;pido pero aproximado, debido a que la descomposici&oacute;n del espacio de datos disminuye la cardinalidad de los puntos a medida que se avanza en el &aacute;rbol) (Arya <I>et al.,</I> 1998; Barazzetti, Remondino y Scaioni, 2010b).</p>     ]]></body>
<body><![CDATA[<p align="center"><a name="f3"></a><img src="img/revistas/tecn/v20n50/v20n50a09f3.jpg"></p>      <p>Por &uacute;ltimo, las correspondencias err&oacute;neas (<I>outliers</I>) que se presentan en la correlaci&oacute;n son eliminadas a partir de la estimaci&oacute;n de la orientaci&oacute;n relativa de las im&aacute;genes a trav&eacute;s del c&aacute;lculo de la matriz fundamental o a trav&eacute;s de la matriz esencial si los par&aacute;metros internos de la c&aacute;mara son conocidos (Barazzetti <I>et al.</I>, 2010b). Para la eliminaci&oacute;n de correspondencias err&oacute;neas una de las estrategias m&aacute;s comunes es el algoritmo RANSAC (<I>random sample consensus</I>) (Fischler y Bolles, 1981; Li, Liu, Wang y Yan, 2005; Zuliani, 2012). Este algoritmo a trav&eacute;s de un m&eacute;todo iterativo determina la matriz de transformaci&oacute;n (matriz fundamental) que mejor ajusta las correspondencias, y elimina las caracter&iacute;sticas que no cumplen un valor de referencia. Otras estrategias como LMS (<I>least-median-square</I>) y MAPSAC (Barazzetti <I>et al.</I>, 2010b) son tambi&eacute;n encontradas en la bibliograf&iacute;a.</p>      <p><I>Calibraci&oacute;n de c&aacute;maras y orientaci&oacute;n de im&aacute;genes</I></p>     <p>La calibraci&oacute;n de la c&aacute;mara y la orientaci&oacute;n de im&aacute;genes son dos requisitos fundamentales para la reconstrucci&oacute;n m&eacute;trica desde im&aacute;genes en las &aacute;reas de fotogrametr&iacute;a y visi&oacute;n por computador (Nex y Remondino, 2013). En la calibraci&oacute;n geom&eacute;trica de una c&aacute;mara el objetivo es determinar los par&aacute;metros intr&iacute;nsecos de esta, como la longitud focal, el punto principal de la imagen y las distorsiones de las lentes de la c&aacute;mara. Mientras que en la orientaci&oacute;n de im&aacute;genes el prop&oacute;sito es determinar los par&aacute;metros extr&iacute;nsecos, que son la posici&oacute;n (coordenadas en un sistema de referencia) y la orientaci&oacute;n (&aacute;ngulos de inclinaci&oacute;n) de la c&aacute;mara en el momento de la captura de cada imagen.</p>      <p><I>Calibraci&oacute;n de la c&aacute;mara</I></p>     <p>En la calibraci&oacute;n de c&aacute;maras se pueden identificar dos m&eacute;todos para determinar los par&aacute;metros intr&iacute;nsecos de la c&aacute;mara: la calibraci&oacute;n en campo de prueba y la autocalibraci&oacute;n.</p>  <ul>    <li>Calibraci&oacute;n en campo de prueba (<I>test-field calibration</I>): Este m&eacute;todo consiste en emplear un objeto 3D, 2D o 1D (Zhang, 2004) para determinar los par&aacute;metros intr&iacute;nsecos de la c&aacute;mara. En esta estrategia el objeto es ubicado en un sistema local de referencia del que se determinan las coordenadas de los elementos caracter&iacute;sticos del objeto (v&eacute;rtices o patrones dibujados en &eacute;l). Luego, con la c&aacute;mara, cuya posici&oacute;n tambi&eacute;n es conocida, se registra el objeto desde diferentes puntos de vista. A partir de las coordenadas conocidas y de la correlaci&oacute;n de las im&aacute;genes capturadas se estima la matriz de proyecci&oacute;n de la c&aacute;mara de la cual son recuperados los par&aacute;metros intr&iacute;nsecos. Una amplia variedad de estrategias para realizar este tipo de calibraci&oacute;n puede ser encontrada en la bibliograf&iacute;a (Douterloigne, Gautama y Philips, 2009; Heikkila y Silv&eacute;n, 1997; Wiggenhagen, 2002; Zhang, 2000).</li>     <li>Autocalibraci&oacute;n (<I>self-calibration</I>): En este m&eacute;todo no se requiere de ning&uacute;n objeto f&iacute;sico para determinar los par&aacute;metros intr&iacute;nsecos de la c&aacute;mara. Es decir, la geometr&iacute;a interna de esta se puede determinar a partir de la relaci&oacute;n de dos o m&aacute;s im&aacute;genes traslapadas sin requerimientos de control adicional (El-Habrouk, Li y Faig, 1996). El m&eacute;todo se basa en la correlaci&oacute;n de elementos comunes entre las im&aacute;genes de una escena y empleando un procesos de optimizaci&oacute;n global que generalmente es un ajuste fotogram&eacute;trico en bloque o <I>bundle block adjustment</I> (Triggs, McLauchlan, Hartley y Fitzgibbon, 1999). En este ajuste en bloque, a las ecuaciones de colinealidad se agregan par&aacute;metros adicionales que modelan los errores sistem&aacute;ticos del sistema de captura, esto con el fin de obtener mayor exactitud.</li>    </ul>      <p>Nex y Remondino (2013) establecen que mediante la autocalibraci&oacute;n con ajuste en bloque la calibraci&oacute;n de la c&aacute;mara y la orientaci&oacute;n de las im&aacute;genes, realizadas en etapas diferentes, pueden llevarse a cabo al mismo tiempo en aplicaciones donde no se requiere gran exactitud. Hemayed (2003) presenta una revisi&oacute;n de los estrategias en el uso del m&eacute;todo de autocalibraci&oacute;n, mientras que Udin y Ahmad (2011) presentan una estrategia de autocalibraci&oacute;n de c&aacute;maras digitales de alta resoluci&oacute;n. Finalmente, Remondino y Fraser (2006) diferencian las caracter&iacute;sticas entre los enfoques de calibraci&oacute;n de c&aacute;maras en las &aacute;reas de fotogrametr&iacute;a y de visi&oacute;n por computador.</p>      ]]></body>
<body><![CDATA[<p>En el caso de la fotogrametr&iacute;a UAV, por lo general se emplea el m&eacute;todo de autocalibraci&oacute;n con ajuste por haces, debido al uso de c&aacute;maras no m&eacute;tricas y a las condiciones variables de la plataforma en el aire, que dificulta que los datos de calibraci&oacute;n obtenidos en un campo de prueba se mantengan en el momento de procesar las im&aacute;genes. No obstante, el uso de calibraci&oacute;n basada en objetos, antes o despu&eacute;s de la captura de datos, tambi&eacute;n es una alternativa ya que permite obtener datos que servir&aacute;n como entradas iniciales en los diferentes modelos de calibraci&oacute;n presentados en la bibliograf&iacute;a.</p>      <p>Eisenbeiss y Zhang (2006), a trav&eacute;s de un <I>software</I> propio llamado BUN, que emplea la autocalibraci&oacute;n con el modelo de Brown sin par&aacute;metros de distorsi&oacute;n, compararon la exactitud de los puntos de amarre o <I>tie points</I> extra&iacute;dos con el software comercial LPS. En la investigaci&oacute;n se obtuvo menor exactitud con el <I>software</I> comercial, lo que fue atribuido al hecho de que este est&aacute; dise&ntilde;ado para levantamientos a&eacute;reos est&aacute;ndar, algo que no se presenta con plataformas UAV. No obstante, Bendea <I>et al.</I> (2008) tambi&eacute;n emplearon el <I>software</I> LPS en las operaciones de aerotriangulaci&oacute;n, a trav&eacute;s de una autocalibraci&oacute;n, y consideraron que para actividades de mapeo r&aacute;pido la exactitud obtenida con esta estrategia es adecuada. Junqing, Zongjian, Xiaojing y Yongrong (2012) desarrollaron una herramienta de calibraci&oacute;n llamada MCC (<I>multi cameras calibration</I>), en la que se incluye la eliminaci&oacute;n de las distorsiones &oacute;pticas de las im&aacute;genes.</p>      <p>Por su parte, Berni <I>et al.</I> (2009) realizaron la calibraci&oacute;n geom&eacute;trica de c&aacute;maras hiperespectral y t&eacute;rmica empleadas en plataformas UAV para la estimaci&oacute;n de &iacute;ndices de vegetaci&oacute;n. Esto se hizo a trav&eacute;s de herramientas de calibraci&oacute;n desarrolladas por J. Bouguet (citado por Berni <I>et al., </I>2009) en el <I>softwareMatlab</I>, y se apoya en el uso de un objeto 2D (una tabla de ajedrez). En la investigaci&oacute;n de Berni <I>et al.</I> (2009), los par&aacute;metros calculados en la calibraci&oacute;n fueron empleados como aproximaciones iniciales en la etapa de aerotriangulaci&oacute;n, junto con datos del sistema GPS/INS.</p>      <p><I>Orientaci&oacute;n de im&aacute;genes</I></p>      <p>Consiste en determinar los par&aacute;metros de orientaci&oacute;n exterior (coordenadas de posici&oacute;n y &aacute;ngulos de inclinaci&oacute;n) de cada imagen durante el tiempo de captura de esta. Para obtener estos par&aacute;metros se pueden identificar dos procedimientos: (i) la georreferenciaci&oacute;n indirecta (obtenida de la aerotriangulaci&oacute;n en fotogrametr&iacute;a tradicional) y (ii) la georreferenciaci&oacute;n directa:</p>  <ul>    <li>Georreferenciaci&oacute;n indirecta: Para determinar los par&aacute;metros de orientaci&oacute;n en fotogrametr&iacute;a tradicional se emplea el ajuste en bloque en el que son requeridos los puntos de amarre (puntos hom&oacute;logos) entre im&aacute;genes, los par&aacute;metros de la c&aacute;mara y los puntos de control tomados en el terreno (GCP, por sus siglas en ingl&eacute;s). Tang, Braun y Debitsch (1997) definen los pasos b&aacute;sicos de este proceso: (i) la <I>preparaci&oacute;n del bloque</I>, en la que se ordenan las im&aacute;genes de acuerdo con el vuelo, junto con los datos de la c&aacute;mara y los puntos de control en el terreno; (ii) <I>la determinaci&oacute;n de tie points</I>, que consiste en la selecci&oacute;n de caracter&iacute;sticas homologas entre im&aacute;genes y su correlaci&oacute;n correspondiente; (iii) la <I>identificaci&oacute;n de los GCP</I> en las im&aacute;genes, y (iv) el <I>ajuste en bloque</I>, en el que a partir de la informaci&oacute;n anterior se realiza un proceso de optimizaci&oacute;n por ajuste de m&iacute;nimos cuadrados en el que son calculados finalmente los par&aacute;metros de orientaci&oacute;n exterior. Se suele definir como aerotriangulaci&oacute;n autom&aacute;tica al proceso en el que los <I>tie points</I> y los GCP en las im&aacute;genes son identificados autom&aacute;ticamente. Algunos <I>software</I> comerciales como LPS (<I>Leica Photogrammetry Suite</I>) y su m&oacute;dulo ORIMA (<I>Orientation Management Software</I>), ISDM (<I>Z/I Imaging, Image Station Digital Mensuration</I>), ATiPE (<I>Automatic Tie Points Extraction</I>) (Barazzetti, Remondino y Scaioni, 2010a) y <I>Photomodeler, </I>este &uacute;ltimo empleado en fotogrametr&iacute;a terrestre para realizar la etapa de orientaci&oacute;n (Eisenbeiss, 2009).</li>      <li>Georreferenciaci&oacute;n directa: La georreferenciaci&oacute;n directa es entendida como la implementaci&oacute;n de sistemas GPS/INS a bordo de las plataformas a&eacute;reas, para la medici&oacute;n directa de los par&aacute;metros de orientaci&oacute;n exterior (coordenadas con el GPS y los &aacute;ngulos de inclinaci&oacute;n con el sistema inercial).</li>    </ul>      <p>Desde el punto de vista de la fotogrametr&iacute;a tradicional este m&eacute;todo reduce la cantidad de trabajo en campo al requerir menos puntos de control para determinar la orientaci&oacute;n. Cramer (1999) define tres ventajas principales en el uso de la georreferenciaci&oacute;n directa: (i) permite una adquisici&oacute;n m&aacute;s r&aacute;pida de los par&aacute;metros de orientaci&oacute;n interior, (ii) podr&iacute;a en principio permitir la etapa de orientaci&oacute;n sin puntos de control, con una buena configuraci&oacute;n del bloque fotogram&eacute;trico, y (iii) son evitados los problemas adicionales en la correlaci&oacute;n de im&aacute;genes realizada en la aerotriangulaci&oacute;n, debidos a escenas capturadas consideradas problema (relieves dif&iacute;ciles, im&aacute;genes con baja textura, vegetaci&oacute;n densa, cuerpos de agua extensos, etc.). Por otra parte, como consecuencias de este m&eacute;todo se hace referencia a la dependencia de los datos con estos sistemas, siendo la exactitud de los dispositivos el aspecto m&aacute;s cr&iacute;tico.</p>      <p>Actualmente la mayor&iacute;a de los sistemas UAV empleados para fotogrametr&iacute;a a&eacute;rea cuentan con sistemas GPS/INS que son integrados en principio para prop&oacute;sitos de navegaci&oacute;n pero que igualmente pueden ser aprovechados para la georreferenciaci&oacute;n directa, por lo que este tipo de orientaci&oacute;n de im&aacute;genes es la m&aacute;s implementada en sistemas UAV. Sin embargo, por cuestiones de capacidad de carga de las plataformas UAV peque&ntilde;as, la mayor&iacute;a de veces estos GPS/INS corresponden a sistemas simplificados o de bajo costo que conllevan a una menor exactitud en la medici&oacute;n de los datos de posici&oacute;n y de orientaci&oacute;n, pero que a trav&eacute;s de estrategias de ajuste en las etapas de procesamiento pueden ser mejorados. En varias investigaciones esta integraci&oacute;n de sistemas UAV con sistemas GPS/INS ha sido tratada, teni&eacute;ndose como referencia inicial la investigaci&oacute;n de Eisenbeiss (2009).</p>      ]]></body>
<body><![CDATA[<p>En investigaciones posteriores de Haala, Cramer, Weimer y Trittler (2012), se compararon los resultados de los dos m&eacute;todos de orientaci&oacute;n (directa y aerotriangulaci&oacute;n) en la generaci&oacute;n de DSM y ortomosaicos, obteniendo diferencias de hasta 3 m en la horizontal. Por su parte Bl&aacute;ha, Eisenbeiss, Grimm y Limpach (2011) evaluaron la exactitud de los datos de un sistema GPS a trav&eacute;s del procesamiento diferencial de los datos, y determinaron que si la exactitud con sistemas GPS/INS logra el nivel de cent&iacute;metros, la georreferenciaci&oacute;n directa puede ser realizada.</p>      <p>Otras investigaciones de georreferenciaci&oacute;n directa en sistemas UAV pueden ser consultadas en la bibliograf&iacute;a (Anai <I>et al.</I>, 2012; Pfeifer, Glira y Briese, 2012; Turner, Lucieer y Wallace, 2014).</p>      <p><B>Reconstrucci&oacute;n de escenas 3D</b></p>      <p>Luego de la etapa de orientaci&oacute;n de las im&aacute;genes el siguiente paso corresponde a la reconstrucci&oacute;n 3D de la escena registrada. Esta reconstrucci&oacute;n se hace a partir de la relaci&oacute;n geom&eacute;trica y radiom&eacute;trica de las im&aacute;genes y tiene como producto final un modelo de nube de puntos del cual se genera un modelo digital de elevaciones (DSM). En fotogrametr&iacute;a tradicional la reconstrucci&oacute;n se da apoyada en las im&aacute;genes, en los datos de orientaci&oacute;n y de calibraci&oacute;n de la c&aacute;mara, y en los puntos de control en el terreno. Como escenario opuesto, en el &aacute;rea de visi&oacute;n por computador se han desarrollado estrategias que permiten la reconstrucci&oacute;n 3D a partir de conjuntos de im&aacute;genes que no cuentan con ning&uacute;n dato adicional asociado (Snavely, Seitz y Szeliski, 2007; Ar&eacute;valo, Bayona y Rinc&oacute;n, 2015).</p>      <p>Considerando que la fotogrametr&iacute;a UAV presenta caracter&iacute;sticas asociadas a estas dos &aacute;reas, se pretende hacer una revisi&oacute;n de las estrategias empleadas para la reconstrucci&oacute;n de escenas 3D a partir de im&aacute;genes UAV. El flujo de trabajo consiste de tres etapas claramente identificadas en la bibliograf&iacute;a y que corresponden a: i) la generaci&oacute;n de puntos 3D o nube de puntos dispersa, ii) la densificaci&oacute;n de la nube de puntos y iii) DSM y ortorrectificaci&oacute;n.</p>      <p><I>Generaci&oacute;n de puntos 3D</I></p>     <p>La estrategia para la generaci&oacute;n de puntos 3D consiste en determinar las coordenadas 3D de los puntos caracter&iacute;sticos extra&iacute;dos en la primera etapa de procesamiento. En el &aacute;rea de visi&oacute;n por computador se presenta una estrategia llamada <I>structure from motion</I> (SfM). Esta se basa en el ajuste en bloque y se diferencia de la fotogrametr&iacute;a estereosc&oacute;pica en que la geometr&iacute;a de la escena y los par&aacute;metros de la c&aacute;mara son calculados sin necesidad de tener datos iniciales, es decir, no requiere de una calibraci&oacute;n previa de la c&aacute;mara ni de GCP. En lugar de ello, la estrategia se basa en la redundancia obtenida de m&uacute;ltiples im&aacute;genes con altos porcentajes de traslape (Westoby<I> et al.</I>, 2012).</p>      <p>La estrategia de SfM, apoyada en las caracter&iacute;sticas extra&iacute;das y correlacionadas, y en las restricciones asociadas a la geometr&iacute;a epipolar, permite extraer la geometr&iacute;a de la c&aacute;mara (posici&oacute;n y orientaci&oacute;n) junto con la geometr&iacute;a 3D de las caracter&iacute;sticas, a trav&eacute;s del refinamiento de los datos en el ajuste en bloque. Los datos resultantes son una nube de puntos dispersos en un sistema de coordenadas arbitrario, que luego son asociados a un sistema global a trav&eacute;s de los par&aacute;metros de transformaci&oacute;n de Helmert (Turner, Lucieer y Wallace, 2012; Nex y Remondino, 2013). La nube de puntos dispersa generada en esta estrategia es empleada como una aproximaci&oacute;n inicial del modelo digital de superficie (DSM).</p>      <p>Dadas las caracter&iacute;sticas de la fotogrametr&iacute;a UAV (redundancia de im&aacute;genes y altos porcentajes de traslape) junto con la falta, en algunos casos, de datos de la geometr&iacute;a de la c&aacute;mara, de sistemas GPS/INS en la plataforma y de la dificultad de obtener puntos de control en el terreno, se ha vinculado esta estrategia con el procesamiento de im&aacute;genes UAV.</p>      <p>Roncella, Re y Forlani (2011) presentan una comparaci&oacute;n de dos estrategias de SfM empleadas en cinco casos de estudio con fotogrametr&iacute;a de rango cercano. Por su parte, Remondino, Del Pizzo, Kersten y Troisi (2012) presentan algunos <I>software</I> de libre acceso (<I>VisualSfM, Blunder, Apero, Insight3D</I>), servicios web libres (<I>Microsoft&acute;s Photosynth</I>) y <I>software</I> comercial (<I>Agisoft Photoscan</I>) para la generaci&oacute;n de nubes de puntos dispersos a partir de la estrategia de SfM.</p>      ]]></body>
<body><![CDATA[<p><I>Densificaci&oacute;n de nube de puntos</I></p>     <p>Esta etapa consiste en extraer una mayor cantidad de puntos 3D de la escena que complemente la nube de puntos dispersa generada en la etapa anterior (<a href="#f4">figura 4</a>). Las estrategias empleadas en esta etapa forman parte de lo que se considera como t&eacute;cnicas de correlaci&oacute;n de m&uacute;ltiples im&aacute;genes o <I>multi-image matching</I>.</p>     <p align="center"><a name="f4"></a><img src="img/revistas/tecn/v20n50/v20n50a09f4.jpg"></p>      <p>Algunas estrategias como la de Barazzetti, Scaioni y Remondino (2010), basadas en la t&eacute;cnica llamada GC3 (<I>geometrically constrained cross-correlation</I>) o MIGC3 (<I>multi-image geometrically constraint cross-correlation</I>) (Lingua, Marenchino y Nex, 2009c) emplean la nube de puntos dispersa para generar un modelo digital del terreno aproximado. La estrategia consiste en seleccionar una imagen base central y dos de b&uacute;squeda adyacentes. De la imagen base se identifica un punto caracter&iacute;stico que se proyecta sobre el modelo del terreno aproximado y se establece una altura m&aacute;xima y una m&iacute;nima. Estos tres puntos (punto m&aacute;ximo, m&iacute;nimo y del terreno) son reproyectadas a las im&aacute;genes de b&uacute;squeda, definiendo la geometr&iacute;a epipolar aproximada en estas im&aacute;genes. Por &uacute;ltimo, sobre esta geometr&iacute;a epipolar, se identifican los puntos hom&oacute;logos, y a su vez se determina el valor de la nueva altura en el terreno. Marenchino (2009) presenta un algoritmo de filtrado llamado <I>self-tuning standard deviation median filter</I> (S2MF) para la edici&oacute;n de la nube de puntos. Esta estrategia es generalmente empleada para filtrar DSM generados con t&eacute;cnicas LiDAR.</p>      <p>Otra estrategia corresponde a una t&eacute;cnica llamada estereopsis de m&uacute;ltiples vistas (<I>multi-view stereopsis</I>), presentada por Furukawa y Ponce (2007). La t&eacute;cnica emplea las correspondencias extra&iacute;das y expande estos puntos a manera de regiones dentro de las que determina las correspondencias de pixeles vecinos (Lucieer, Robinson y Turner, 2011). Esta t&eacute;cnica ha sido implementada en el <I>software</I> PMVS2 (<I>Patch-based Multiview Stereo</I>) el cual toma un conjunto de im&aacute;genes y los par&aacute;metros de la c&aacute;mara para reconstruir la estructura 3D de la escena registrada, descartando estructuras no r&iacute;gidas o en movimiento (Furukawa y Ponce, 2007).</p>      <p>Hirschmuller (2005, 2008, 2011) presenta un m&eacute;todo llamado <I>Semi-Global Matching</I> (SGM) para la generaci&oacute;n de nubes de puntos densas. La estrategia se basa en la comparaci&oacute;n de pixeles a trav&eacute;s de un concepto denominado <I>mutual information</I>, que depende de las diferencias de entrop&iacute;a entre im&aacute;genes. La entrop&iacute;a, que es una medida de la cantidad de informaci&oacute;n requerida para describir una se&ntilde;al en im&aacute;genes, est&aacute; asociada proporcionalmente al contraste presente radiom&eacute;tricamente (Gehrke, Morin y Downey, 2010), por tanto en pixeles hom&oacute;logos las diferencias de entrop&iacute;a ser&aacute;n m&iacute;nimas. En ese sentido la estrategia se encarga de establecer la correspondencia de cada uno de los pixeles de las im&aacute;genes, para la generaci&oacute;n de una nube de puntos densa. Haala (2011) presenta un algoritmo basado en el <I>semi-global matching</I> de Hirschmuller con algunas consideraciones adicionales.</p>      <p>Hirschm&uuml;ller y Bucher (2010) presentan una evaluaci&oacute;n de los modelos digitales de elevaci&oacute;n de zonas urbanas generados a partir de la nube de puntos del <I>semi-global matching.</I> En esta investigaci&oacute;n se concluye que la calidad de los modelos digitales generados a partir de im&aacute;genes a&eacute;reas, son comparables a los generados por un esc&aacute;ner laser a&eacute;reo. Por otra parte, Gehrke <I>et al.</I> (2010) establece que la estrategia de <I>semi-global matching</I> es comparable con la tecnolog&iacute;a LiDAR, en la medida en que se pueden obtener modelos digitales de elevaci&oacute;n de alta precisi&oacute;n generados a partir de nubes de puntos de alta densidad.</p>      <p><I>Modelo digital de elevaciones y ortorrectificaci&oacute;n</I></p>     <p>La etapa final en el procesamiento de im&aacute;genes tomadas con sistemas UAV o fotogrametr&iacute;a UAV consiste en generar un modelo digital de elevaciones o de superficie (DSM) y un ortomosaico de la escena registrada. Para la generaci&oacute;n de estos modelos la nube de puntos debe pasar por una triangulaci&oacute;n y rasterizaci&oacute;n. Una estrategia muy com&uacute;nmente empleada es la triangulaci&oacute;n de Delaunay, en la que se genera una red irregular de tri&aacute;ngulos (TIN) de la que son interpoladas los valores de altura para la generaci&oacute;n de un archivo raster. Esta estrategia es igualmente empleada en la reconstrucci&oacute;n de superficies a partir de nubes de puntos obtenidas con esc&aacute;ner laser terrestre (Gallo, C&aacute;ceres y Porras, 2014). Por su parte, en la generaci&oacute;n del ortomosaico, las im&aacute;genes individuales son rectificadas a partir del modelo de elevaciones, eliminando la distorsi&oacute;n asociada al relieve. Este proceso consiste en proyectar cada pixel de la imagen sobre el modelo de elevaci&oacute;n para determinar el valor de altura, este valor es empleado para reproyectar sobre la imagen la nueva posici&oacute;n del pixel. La proyecci&oacute;n y reproyecci&oacute;n de los pixeles de la imagen se realiza con las ecuaciones de colinealidad. Por &uacute;ltimo, todas las im&aacute;genes rectificadas son unidas formando un mosaico.</p>      <p>Una de las investigaciones m&aacute;s detalladas en la generaci&oacute;n de estos productos a partir de im&aacute;genes UAV y combinando estrategias de procesamiento en &aacute;reas como la fotogrametr&iacute;a y visi&oacute;n por computador es presentada por Barazzetti<I> et al.</I> (2014). La investigaci&oacute;n se basa en la implementaci&oacute;n de un algoritmo llamado MGCM (<I>multi-image least squares marching</I>) que apoyado en una nube de puntos dispersa genera un modelo m&aacute;s denso de puntos a trav&eacute;s de triangulaci&oacute;n. Finalmente, a partir de este modelo denso (<I>mesh</I>) se realiza la ortorrectificaci&oacute;n considerando los objetos tridimensionales y las &aacute;reas de oclusi&oacute;n en la escena.</p>      ]]></body>
<body><![CDATA[<p>Algunos <I>software</I> de acceso libre como VMS (<I>vision measurement system</I>) empleados en fotogrametr&iacute;a de corto alcance, permiten generar modelos digitales de superficie como en la investigaci&oacute;n de Niethammer<I> et al.</I> (2011), en donde el objetivo era evaluar los deslizamientos de tierra en una zona, comparando modelos del terreno a partir de im&aacute;genes y con tecnolog&iacute;a LiDAR. Igualmente, para la generaci&oacute;n de modelos digitales y ortomosaicos, algunas investigaciones han empleado <I>software</I> comercial como ERDAS (Udin, Hassan, Ahmad y Tahar, 2012), SOCET SET (Rosnell y Honkavaara, 2012), PHOTOMOD (Samad <I>et al.</I>, 2013) o a trav&eacute;s de procesamiento de datos online (Vallet <I>et al.</I>, 2012). Finalmente, H&ouml;hle (2011)<B> </B>presenta una revisi&oacute;n de los aspectos que influyen en la generaci&oacute;n de los modelos de elevaci&oacute;n desde el punto de vista de las c&aacute;maras.</p>      <p><B>CONCLUSIONES</b></p>      <p>Los sistemas UAV actualmente desempe&ntilde;an un papel principal en investigaci&oacute;n y aplicaci&oacute;n en las &aacute;reas de fotogrametr&iacute;a a&eacute;rea y de percepci&oacute;n remota. Son considerados una gran alternativa para la adquisici&oacute;n de im&aacute;genes de alta resoluci&oacute;n espacial y temporal, y han mostrado un gran potencial para la respuesta r&aacute;pida en diferentes escenarios.</p>      <p>Las grandes ventajas que ofrecen estos sistemas han sido impulsadas por los adelantos tecnol&oacute;gicos en sistemas de sensores de captura, de navegaci&oacute;n y de posicionamiento. Esto ha facilitado la simplificaci&oacute;n e integraci&oacute;n de estos sistemas en plataformas a&eacute;reas peque&ntilde;as, confiables y de relativa f&aacute;cil adquisici&oacute;n. Paralelamente, los avances en las estrategias de procesamiento de im&aacute;genes en el &aacute;rea de visi&oacute;n por computador, y la integraci&oacute;n con los conocimientos de la fotogrametr&iacute;a han permitido que el procesamiento de los grandes vol&uacute;menes de informaci&oacute;n obtenidos con los sistemas UAV y los altos niveles de automatizaci&oacute;n de las etapas de procesamiento sean posibles.</p>      <p>Estos adelantos tecnol&oacute;gicos y de procesamiento han impulsado investigaciones orientadas principalmente al desarrollo de algoritmos robustos en las etapas de extracci&oacute;n y correlaci&oacute;n de caracter&iacute;sticas y a la generaci&oacute;n de nubes de puntos de alta densidad, as&iacute; como en mejorar la precisi&oacute;n de los productos cartogr&aacute;ficos generados, mientras que otras investigaciones en el &aacute;rea de visi&oacute;n por computador se han enfocado en optimizar el procesamiento para aplicaciones en tiempo real.</p> <hr>      <p><B>REFERENCIA BIBLIOGR&Aacute;FICAS</b></p>      <!-- ref --><p>Adams, S.M. y Friedland, C.J. (2011). A survey of unmanned aerial vehicle (UAV) usage for imagery collection in disaster research and management. En: <I>9th International Workshop on Remote Sensing for Disaster Response</I> (p. 8). Stanford, CA, USA. Recuperado de: <a href="http://blume.stanford.edu/sites/default/files/RS_Adams_Survey_paper_0.pdf" target="_blank">http://blume.stanford.edu/sites/default/files/RS_Adams_Survey_paper_0.pdf</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327412&pid=S0123-921X201600040000900001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Aerocivil (2009). Normas de aeronavegabilidad y operaci&oacute;n de aeronaves. En: <I>Reglamentos Aeron&aacute;uticos de Colombia</I> (p. 660).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327414&pid=S0123-921X201600040000900002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      ]]></body>
<body><![CDATA[<!-- ref --><p>Aerocivil. (2015). <I>Requisitos Generales de Aeronavegabilidad y Operaciones para RPAS</I>. Recuperado de: <a href="https://www.aerocivil.gov.co/AAeronautica/Rrglamentacion/Cirdulares/CircularesReglamentarias/CR-5100-082-002.pdf" target="_blank">https://www.aerocivil.gov.co/AAeronautica/Rrglamentacion/Cirdulares/CircularesReglamentarias/CR-5100-082-002.pdf</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327416&pid=S0123-921X201600040000900003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Aibotix (2014). Aibot X6 Multicopter for Mapping and Industry. Recuperado el 5 de septiembre de 2014, de: <a href="http://www.aibotix.com/" target="_blank">http://www.aibotix.com/</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327418&pid=S0123-921X201600040000900004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Anai, T.; Sasaki, T.; Osaragi, K.; Yamada, M.; Otomo, F. y Otani, H. (2012). Automatic Exterior Orientation Procedure for Low-Cost Uav Photogrammetry Using Video Image Tracking Technique and Gps Information. <I>ISPRS-International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXIX</I>-<I>B7</I>(September), 469-474. <a href="http://doi.org/10.5194/isprsarchives-XXXIX-B7-469-2012" target="_blank">http://doi.org/10.5194/isprsarchives-XXXIX-B7-469-2012</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327420&pid=S0123-921X201600040000900005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Ar&eacute;valo V., B.; Bayona I., E. y Rinc&oacute;n P., I.K. (2015). Metodolog&iacute;a para documentaci&oacute;n 3D utilizando fotogrametr&iacute;a digital. <I>Revista Tecnura</I>, <I>19</I>, 113-120. <a href="http://doi.org/10.14483/udistrital.jour.tecnu-ra.2015.SE1.a09" target="_blank">http://doi.org/10.14483/udistrital.jour.tecnu-ra.2015.SE1.a09</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327421&pid=S0123-921X201600040000900006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Arthur, M.; Al-Tahir, R. y Davis, D. (2012). Rapid Processing of Unmanned Aerial Vehicles Imagery for Disaster Management. <I>FIG Working Week 2012</I><B> </B><I>TS04H-Measurement Applications of Unmanned Vehicles</I>, 1-10. Recuperado de: <a href="http://www.fig.net/resources/proceedings/fig_proceedings/fig2012/papers/ts04h/TS04H_arthur_altahir_et_al_6033.pdf" target="_blank">http://www.fig.net/resources/proceedings/fig_proceedings/fig2012/papers/ts04h/TS04H_arthur_altahir_et_al_6033.pdf</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327423&pid=S0123-921X201600040000900007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Arya, S.; Mount, D.M.; Netanyahu, N.S.; Silverman, R. y Wu, A.Y. (1998). An Optimal Algorithm for Approximate Nearest Neighbor Searching in Fixed Dimensions. <I>Journal of the ACM</I>, <I>45</I>(6), 1-31.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327425&pid=S0123-921X201600040000900008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Barazzetti, L.; Brumana, R.; Oreni, D.; Previtali, M. y Roncoroni, F. (2014). True-orthophoto generation from UAV images: Implementation of a combined photogrammetric and computer vision approach. <I>ISPRS Annals of Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>II</I>-<I>5</I>(June), 57-63. <a href="http://doi.org/10.5194/isprsannals-II-5-57-2014" target="_blank">http://doi.org/10.5194/isprsannals-II-5-57-2014</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327427&pid=S0123-921X201600040000900009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Barazzetti, L.; Remondino, F. y Scaioni, M. (2010a). Automation in 3D reconstruction: results on different kinds of close-range blocks. <I>International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXVIII</I>(5), 55-61. Recuperado de: <a href="http://isprsserv.ifp.uni-stuttgart.de/proceedings/XXXVIII/part5/papers/106.pdf" target="_blank">http://isprsserv.ifp.uni-stuttgart.de/proceedings/XXXVIII/part5/papers/106.pdf</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327429&pid=S0123-921X201600040000900010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Barazzetti, L.; Remondino, F. y Scaioni, M. (2010b). Extraction of accurate tie points for automated pose estimation of close-range blocks. <I>ISPRS Technical Commission III ...</I>, <I>XXXVIII</I>(3A), 151-156. Recuperado de: <a href="http://www.isprs.org/proceedings/xxxviii/part3/a/pdf/151_XXXVIII-part3A.pdf" target="_blank">http://www.isprs.org/proceedings/xxxviii/part3/a/pdf/151_XXXVIII-part3A.pdf</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327431&pid=S0123-921X201600040000900011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Barazzetti, L.; Scaioni, M. y Remondino, F. (2010). Orientation and 3D modelling from markerless terrestrial images: combining accuracy with automation. <I>The Photogrammetric Record</I>, <I>25</I>(132), 356-381. Recuperado de: <a href="http://onlinelibrary.wiley.com/doi/10.1111/j.1477-9730.2010.00599.x/full" target="_blank">http://onlinelibrary.wiley.com/doi/10.1111/j.1477-9730.2010.00599.x/full</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327433&pid=S0123-921X201600040000900012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Bay, H.; Tuytelaars, T. y Van Gool, L. (2006). SURF&#8239;: Speeded Up Robust Features. En: A. Leonardis, H. Bischof y A. Pinz (eds.). <I>Computer Vision - ECCV 2006</I> (pp. 404-417). Berl&iacute;n: Springer Verlag. <a href="http://doi.org/10.1007/11744023_32" target="_blank">http://doi.org/10.1007/11744023_32</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327435&pid=S0123-921X201600040000900013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Bendea, H.; Boccardo, P.; Tonolo, F.G.; Marenchino, D. y Piras, M. (2008). Low cost UAV for post-disaster assessment. <I>International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXVII</I>(B8), 1373-1380. Recuperado de: <a href="http://www.isprs.org/proceedings/XXXVII/congress/8_pdf/14_ThS-20/37.pdf" target="_blank">http://www.isprs.org/proceedings/XXXVII/congress/8_pdf/14_ThS-20/37.pdf</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327437&pid=S0123-921X201600040000900014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Berni, J.A.J.; Zarco-Tejada, P.J.; Su&aacute;rez, L.; Gonz&aacute;lez-Dugo, V. y Fereres, E. (2009). Remote sensing of vegetation from UAV platforms using lightweight multispectral and thermal imaging sensors. En: C. Heipke, K. Jacobsen, S. M&uuml;ller y U. S&ouml;rgel (eds.). <I>ISPRS Hannover Workshop 2009</I> (p. 6). Hannover, Alemania. Recuperado de: <a href="http://isprsserv.ifp.uni-stuttgart.de/proceedings/XXXVIII/1_4_7-W5/paper/Jimenez_Berni-155.pdf" target="_blank">http://isprsserv.ifp.uni-stuttgart.de/proceedings/XXXVIII/1_4_7-W5/paper/Jimenez_Berni-155.pdf</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327439&pid=S0123-921X201600040000900015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Bl&aacute;ha, M.; Eisenbeiss, H.; Grimm, D. y Limpach, P. (2011). Direct georeferencing of UAVs. <I>International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXVIII</I>(1/C22), 131-136. Recuperado de: <a href="http://www.igp.ethz.ch/photogrammetry/publications/pdf_folder/2011_Direct_Georeferencing_of_UAVS.pdf" target="_blank">http://www.igp.ethz.ch/photogrammetry/publications/pdf_folder/2011_Direct_Georeferencing_of_UAVS.pdf</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327441&pid=S0123-921X201600040000900016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Chen, W. y Zhao, Y. (2011). An improved SIFT algorithm for image feature-matching. <I>2011 International Conference on Multimedia Technology</I>, 197-200. <a href="http://doi.org/10.1109/ICMT.2011.6003022" target="_blank">http://doi.org/10.1109/ICMT.2011.6003022</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327443&pid=S0123-921X201600040000900017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Cheng, Y., Xue, D., &amp; Li, Y. (2007). A Fast Mosaic Approach for Remote Sensing Images. <I>2007 International Conference on Mechatronics and Automation</I>, 2009-2013. <a href="http://doi.org/10.1109/ICMA.2007.4303859" target="_blank">http://doi.org/10.1109/ICMA.2007.4303859</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327445&pid=S0123-921X201600040000900018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Chiabrando, F.; Nex, F.; Piatti, D. y Rinaudo, F. (2011). UAV and RPV systems for photogrammetric surveys in archaelogical areas: two tests in the Piedmont region (Italy). <I>Journal of Archaeological Science</I>, <I>38</I>(3), 697-710. <a href="http://doi.org/10.1016/j.jas.2010.10.022" target="_blank">http://doi.org/10.1016/j.jas.2010.10.022</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327447&pid=S0123-921X201600040000900019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Colomina, I. y Molina, P. (2014). Unmanned aerial systems for photogrammetry and remote sensing: A review. <I>ISPRS Journal of Photogrammetry and Remote Sensing</I>, <I>92</I>, 79-97. <a href="http://doi.org/10.1016/j.isprsjprs.2014.02.013" target="_blank">http://doi.org/10.1016/j.isprsjprs.2014.02.013</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327449&pid=S0123-921X201600040000900020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Cramer, M. (1999). Direct Geocoding-is Aerial Triangulation Obsolete? In <I>Photogrammetric Week "99"</I> (pp. 59-70). Retrieved from <a href="http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.17.3058" target="_blank">http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.17.3058</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327451&pid=S0123-921X201600040000900021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Douterloigne, K.; Gautama, S. y Philips, W. (2009). Fully automatic and robust UAV camera calibration using chessboard patterns. <I>International Geoscience and Remote Sensing Symposium (IGARSS)</I>, <I>2</I>, 551-554. <a href="http://doi.org/10.1109/IGARSS.2009.5418141" target="_blank">http://doi.org/10.1109/IGARSS.2009.5418141</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327453&pid=S0123-921X201600040000900022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Eisenbeiss, H. (2009). <I>UAV Photogrammetry</I>. Z&uacute;rich: ETH and Institute of Geodesy and Photogrammetry.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327455&pid=S0123-921X201600040000900023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Eisenbeiss, H. y Zhang, L. (2006). Comparison of DSMs generated from mini UAV imagery and terrestrial laser scanner in a cultural heritage application. <I>International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences XXXVI-5</I>, 90-96. <a href="http://doi.org/10.1.1.221.8350" target="_blank">http://doi.org/10.1.1.221.8350</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327457&pid=S0123-921X201600040000900024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>El-Habrouk, H.; Li, X.P. y Faig, W. (1996). Determination of geometric characteristics of a Digital Camera by Self-Calibration. <I>International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXI</I>(B1), 60-64.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327459&pid=S0123-921X201600040000900025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Elaksher, A. (2008). A multi-photo least squares matching algorithm for urban area DEM refinement using breaklines. <I>International Archives of Photogrammetry, Remote Sensing, and Spatial Information Sciences 37, Part B3A</I>, <I>XXXVII</I>(B3a), 33-38. Recuperado de: <a href="http://www.isprs.org/proceedings/XXXVII/congress/3_pdf/05a.pdf" target="_blank">http://www.isprs.org/proceedings/XXXVII/congress/3_pdf/05a.pdf</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327461&pid=S0123-921X201600040000900026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Everaerts, J. (2008). The use of unmanned aerial vehicles (UAVs) for remote sensing and mapping. <I>International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXVII</I>(B1), 1187-1192. Recuperado de: <a href="http://www.isprs.org/proceedings/XXXVII/congress/1_pdf/203.pdf" target="_blank">http://www.isprs.org/proceedings/XXXVII/congress/1_pdf/203.pdf</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327462&pid=S0123-921X201600040000900027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Fischler, M.A. y Bolles, R.C. (1981). Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography. <I>CACM</I>, <I>24</I>(6), 381-395.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327464&pid=S0123-921X201600040000900028&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      ]]></body>
<body><![CDATA[<!-- ref --><p>Forstner, W. y Gulch, E. (1987). A Fast Operator for Detection and Precise Location of Distinct Points, Corners and Centres of Circular Features.pdf. En: <I>Proceedings of the ISPRS Intercommission Workshop on Fast Processing of Photogrammetric Data</I> (pp. 281-305). Interlaken, Suiza.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327466&pid=S0123-921X201600040000900029&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Furukawa, Y. y Ponce, J. (2007). Accurate, dense, and robust multiview stereopsis. In <I>IEEE Conference on Computer Vision and Pattern Recognition (CVPR)</I> (Vol. 32, pp. 1-8). Minneapolis, USA. <a href="http://doi.org/10.1109/TPAMI.2009.161" target="_blank">http://doi.org/10.1109/TPAMI.2009.161</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327468&pid=S0123-921X201600040000900030&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Gallo L., E.O.; C&aacute;ceres J., J.J. y Porras D., H. (2014). Modelos urbanos tridimensionales generados a partir de nubes de puntos de un esc&aacute;ner l&aacute;ser terrestre Three-dimensional urban models generated from point clouds. <I>Revista Tecnura</I>, <I>18</I>(41), 134-153. <a href="http://doi.org/http://dx.doi.org/10.14483/udistrital.jour.tecnura.2014.3.a10" target="_blank">http://doi.org/http://dx.doi.org/10.14483/udistrital.jour.tecnura.2014.3.a10</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327470&pid=S0123-921X201600040000900031&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Gehrke, S.; Morin, K. y Downey, M. (2010). Semi-global matching: An alternative to LIDAR for DSM generation. <I>International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>. Recuperado de: <a href="http://www.isprs.org/proceedings/xxxviii/part1/11/11_01_Paper_121.pdf" target="_blank">http://www.isprs.org/proceedings/xxxviii/part1/11/11_01_Paper_121.pdf</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327471&pid=S0123-921X201600040000900032&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Gini, R.; Pagliari, D.; Passoni, D.; Pinto, L.; Sona, G. y Dosso, P. (2013). UAV Photogrammetry&#8239;: Block Triangulation Comparisons. <I>International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XL</I>(1/W2), 157-162.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327473&pid=S0123-921X201600040000900033&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Haala, N. (2011). Multiray Photogrammetry and Dense Image Matching. En: D. Fritsch (ed.). <I>Photogrammetric Week '11</I> (pp. 185-195). Stuttgart: Wichmann.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327475&pid=S0123-921X201600040000900034&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Haala, N.; Cramer, M.; Weimer, F. y Trittler, M. (2012). Performance Test on Uav-Based Photogrammetric Data Collection. <I>ISPRS-International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXVIII</I>-<I>1/</I>, 7-12. <a href="http://doi.org/10.5194/isprsarchives-XXXVIII-1-C22-7-2011" target="_blank">http://doi.org/10.5194/isprsarchives-XXXVIII-1-C22-7-2011</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327477&pid=S0123-921X201600040000900035&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Harris, C. y Stephens, M. (1988). A Combined Corner and Edge Detector. <I>Procedings of the Alvey Vision Conference 1988</I>, 147-151. <a href="http://doi.org/10.5244/C.2.23" target="_blank">http://doi.org/10.5244/C.2.23</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327479&pid=S0123-921X201600040000900036&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Hartley, R.I. y Mundy, J.L. (1993). The relationship between photogrammetry and computer vision. En: <I>Integrating Photogrammetric Techniques With Scene Analysis and Machine Vision. SPIE Digital Library</I> (Vol. 1944, p. 14).    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327481&pid=S0123-921X201600040000900037&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Heikkila, J. y Silv&eacute;n, O. (1997). A four-step camera calibration procedure with implicit image correction. En: <I>Conference on Computer Vision and Pattern Recognition</I> (pp. 1106-1112). Recuperado de: <a href="http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=609468" target="_blank">http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=609468</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327483&pid=S0123-921X201600040000900038&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Hemayed, E.E.E.E. (2003). A survey of camera self-calibration. <I>Proceedings of the IEEE Conference on Advanced Video and Signal Based Surveillance, 2003</I>, 351-357. <a href="http://doi.org/10.1109/AVSS.2003.1217942" target="_blank">http://doi.org/10.1109/AVSS.2003.1217942</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327485&pid=S0123-921X201600040000900039&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Hirschmuller, H. (2005). Accurate and efficient stereo processing by semi-global matching and mutual information. <I>... Vision and Pattern Recognition, 2005. CVPR ...</I>. Recuperado de: <a href="http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=1467526" target="_blank">http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=1467526</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327487&pid=S0123-921X201600040000900040&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Hirschm&uuml;ller, H. (2008). Stereo processing by semiglobal matching and mutual information. <I>IEEE Transactions on Pattern Analysis and Machine Intelligence</I>, <I>30</I>(2), 328-41. <a href="http://doi.org/10.1109/TPAMI.2007.1166" target="_blank">http://doi.org/10.1109/TPAMI.2007.1166</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327489&pid=S0123-921X201600040000900041&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Hirschm&uuml;ller, H. (2011). Semi-Global Matching Motivation, Developments and Applications. <I>Photogrammetric Week</I>, 173-184. Retrieved from <a href="http://www.robotic.dlr.de/fileadmin/robotic/hirschmu/pw2011hh.pdf" target="_blank">http://www.robotic.dlr.de/fileadmin/robotic/hirschmu/pw2011hh.pdf</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327491&pid=S0123-921X201600040000900042&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Hirschm&uuml;ller, H. y Bucher, T. (2010). Evaluation of digital surface models by semi-global matching. <I>DGPF Tagungsband</I>. Recuperado de: <a href="http://www.ifp.uni-stuttgart.de/dgpf/wien/5-HirschmuellerBucher-SemiGlobalMatching.pdf" target="_blank">http://www.ifp.uni-stuttgart.de/dgpf/wien/5-HirschmuellerBucher-SemiGlobalMatching.pdf</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327493&pid=S0123-921X201600040000900043&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>H&ouml;hle, J. (2011). On the potential of new digital aerial cameras for DEM generation. <I>The Photogrammetric Journal of Finland</I>, <I>22</I>(2), 27-36. Recuperado de: <a href="http://foto.hut.fi/seura/julkaisut/pjf/pjf_e/2011/PJF2011_Hohle.pdf" target="_blank">http://foto.hut.fi/seura/julkaisut/pjf/pjf_e/2011/PJF2011_Hohle.pdf</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327495&pid=S0123-921X201600040000900044&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>ISPRS. (2004). Approved resolutions of the XXth ISPRS Congress-Istanbul 2004. En: <I>International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I> (Vol. XXXV, p. 40). Estambul, Turqu&iacute;a.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327497&pid=S0123-921X201600040000900045&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Juan, L. y Gwun, O. (2009). A comparison of sift, pca-sift and surf. <I>International Journal of Image Processing (IJIP)</I>, <I>3</I>(4), 143-152. Recuperado de: <a href="http://www.cscjournals.org/csc/manuscript/Journals/IJIP/volume3/Issue4/IJIP-51.pdf" target="_blank">http://www.cscjournals.org/csc/manuscript/Journals/IJIP/volume3/Issue4/IJIP-51.pdf</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327499&pid=S0123-921X201600040000900046&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Junqing, C.; Zongjian, L.; Xiaojing, W.; Yongrong, L. y Acquisition, A.I. (2012). Application of UAV system for low altitude photogrammetry in Shanxi. <I>International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXIX</I>(1), 351-354.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327501&pid=S0123-921X201600040000900047&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Kohoutek, T. y Eisenbeiss, H. (2012). Processing of UAV based range imaging data to generate detailed elevation models of complex natural structures. <I>International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXIX</I>, 405-410. Recuperado de: <a href="http://www.int-arch-photogramm-remote-sens-spatial-inf-sci.net/XXXIX-B1/405/2012/isprsarchives-XXXIX-B1-405-2012.pdf" target="_blank">http://www.int-arch-photogramm-remote-sens-spatial-inf-sci.net/XXXIX-B1/405/2012/isprsarchives-XXXIX-B1-405-2012.pdf</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327503&pid=S0123-921X201600040000900048&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Lei, R.; Fan, D.; Ji, S. y Zhai, H. (2008). Theory and Algorithms of DSM generation from multi-line-array images matching. <I>International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXVII</I>(B4), 337-342. Recuperado de: <a href="http://www.isprs.org/proceedings/XXXVII/congress/4_pdf/59.pdf" target="_blank">http://www.isprs.org/proceedings/XXXVII/congress/4_pdf/59.pdf</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327504&pid=S0123-921X201600040000900049&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Li, M.; Li, D. y Fan, D. (2012). A study on automatic UAV image mosaic method for paroxysmal disaster. <I>International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXIX</I>(B6), 123-128.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327505&pid=S0123-921X201600040000900050&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Li, X.; Liu, Y.; Wang, Y. y Yan, D. (2005). Computing Homography with RANSAC Algorithm: A Novel Method of Registration. En: C.-S. Li y M.M. Yeung (eds.). <I>SPIE 5637</I> (Vol. 5637, pp. 109-112). <a href="http://doi.org/10.1117/12.579121" target="_blank">http://doi.org/10.1117/12.579121</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327507&pid=S0123-921X201600040000900051&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Lingua, A.; Marenchino, D. y Nex, F. (2009a). Performance Analysis of the SIFT Operator for Automatic Feature Extraction and Matching in Photogrammetric Applications. <I>Sensors (Basel, Switzerland)</I>, <I>9</I>(5), 3745-66. <a href="http://doi.org/10.3390/s90503745" target="_blank">http://doi.org/10.3390/s90503745</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327508&pid=S0123-921X201600040000900052&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Lingua, A.; Marenchino, D. y Nex, F. (2009b). A comparison between " old and new " feature extraction and matching techniques in Photogrammetry. <I>RevCAD, Journal of Geodesy and Cadastre</I>, <I>9</I>, 43-52.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327510&pid=S0123-921X201600040000900053&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Lingua, A.; Marenchino, D. y Nex, F. (2009c). Automatic Digital Surface Model (DSM) generation procedure from images acquired by Unmanned Aerial Systems (UASs). <I>RevCAD, Journal of Geodesy and Cadastre</I>, (9), 53-64.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327512&pid=S0123-921X201600040000900054&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Lowe, D.G. (1999). Object recognition from local scale-invariant features. <I>Proceedings of the Seventh IEEE International Conference on Computer Vision</I>, <I>2</I>, 1150-1157. <a href="http://doi.org/10.1109/ICCV.1999.790410" target="_blank">http://doi.org/10.1109/ICCV.1999.790410</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327514&pid=S0123-921X201600040000900055&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      ]]></body>
<body><![CDATA[<!-- ref --><p>Lowe, D.G. (2004). Distinctive Image Features from Scale-Invariant Keypoints. <I>International Journal of Computer Vision</I>, <I>60</I>(2), 91-110. <a href="http://doi.org/10.1023/B:VISI.0000029664.99615.94" target="_blank">http://doi.org/10.1023/B:VISI.0000029664.99615.94</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327516&pid=S0123-921X201600040000900056&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Lucieer, A., Robinson, S. y Turner, D. (2011). Unmanned Aerial Vehicle (UAV) remote sensing for hyperspatial terrain mapping of Antarctic Moss beds based on Structure from Motion (SfM) point clouds. <I>Proceeding of the 34th International Symposium on Remote Sensing of Environment, Sydney, Australia</I>, (January 2008), 1-4. Recuperado de: <a href="http://www.isprs.org/proceedings/2011/ISRSE-34/211104015Final00641.pdf" target="_blank">http://www.isprs.org/proceedings/2011/ISRSE-34/211104015Final00641.pdf</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327518&pid=S0123-921X201600040000900057&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>MarcusUAV (2014). <I>Personal UAV Systems For Photography, Surveillance and More</I>. Recuperado el 5 de septiembre de 2014 de: <a href="http://www.marcusuav.com/" target="_blank">http://www.marcusuav.com/</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327520&pid=S0123-921X201600040000900058&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Marenchino, D. (2009). <I>Low-cost UAV for the environmental emergency management. Photogrammetric procedures for rapid mapping activities</I>. Ph.D Thesis Politecnico Di Torino. Recuperado de: <a href="http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.329.9625&amp;rep=rep1&amp;type=pdf" target="_blank">http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.329.9625&amp;rep=rep1&amp;type=pdf</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327522&pid=S0123-921X201600040000900059&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Microdrones (2014). <I>UAV Solutions for Mapping, Unmanned Cargo and Inspection Tasks</I>. Recuperado el 5 de septiembre de 2014 de: <a href="http://www.microdrones.com/en/home/" target="_blank">http://www.microdrones.com/en/home/</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327524&pid=S0123-921X201600040000900060&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      ]]></body>
<body><![CDATA[<!-- ref --><p>Mikolajczyk, K. y Schmid, C. (2005). Performance evaluation of local descriptors. <I>IEEE Transactions on Pattern Analysis and Machine Intelligence</I>, <I>27</I>(10), 1615-1630. <a href="http://doi.org/10.1109/TPAMI.2005.188" target="_blank">http://doi.org/10.1109/TPAMI.2005.188</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327526&pid=S0123-921X201600040000900061&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Neitzel, F. y Klonowski, J. (2011). Mobile 3D mapping with a low-cost UAV system. <I>International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXVIII</I>, 1-6. Recuperado de: <a href="http://143.93.114.105/sites/default/files/public/data/uav-g_neitzel_klonowski.pdf" target="_blank">http://143.93.114.105/sites/default/files/public/data/uav-g_neitzel_klonowski.pdf</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327528&pid=S0123-921X201600040000900062&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Nex, F. y Remondino, F. (2013). UAV for 3D mapping applications: a review. <I>Applied Geomatics</I>, <I>6</I>(1), 1-15. <a href="http://doi.org/10.1007/s12518-013-0120-x" target="_blank">http://doi.org/10.1007/s12518-013-0120-x</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327530&pid=S0123-921X201600040000900063&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Niethammer, U.; James, M.R.R.; Rothmund, S.; Travelletti, J. y Joswig, M. (2011). UAV-based remote sensing of the Super-Sauze landslide: Evaluation and results. <I>Engineering Geology</I>, <I>128</I>, 2-11. <a href="http://doi.org/10.1016/j.enggeo.2011.03.012" target="_blank">http://doi.org/10.1016/j.enggeo.2011.03.012</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327532&pid=S0123-921X201600040000900064&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Niethammer, U.; Rothmund, S.; James, M.R.; Travelletti, J. y Joswig, M. (2010). UAV-Based Remote Sensing of Landslides. <I>International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXVIII</I>(5), 496-501.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327534&pid=S0123-921X201600040000900065&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      ]]></body>
<body><![CDATA[<!-- ref --><p>Nizam T., K. y Ahmad, A. (2013). An Evaluation of Fixed Wing and Multi-Rotor UAV Images using Photogrammetric Image Processing. <I>World Academy of Science, Engineering and Technology</I>, <I>7</I>, 346-350. Recuperado de: <a href="http://waset.org/publications/11861/an-evaluation-on-fixed-wing-and-multi-rotor-uav-images-using-photogrammetric-image-processing" target="_blank">http://waset.org/publications/11861/an-evaluation-on-fixed-wing-and-multi-rotor-uav-images-using-photogrammetric-image-processing</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327536&pid=S0123-921X201600040000900066&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Pfeifer, N.; Glira, P. y Briese, C. (2012). Direct Georeferencing With on Board Navigation Components of Light Weight Uav Platforms. <I>ISPRS-International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXIX</I>-<I>B7</I>(September), 487-492. <a href="http://doi.org/10.5194/isprsarchives-XXXIX-B7-487-2012" target="_blank">http://doi.org/10.5194/isprsarchives-XXXIX-B7-487-2012</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327538&pid=S0123-921X201600040000900067&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Remondino, F. y Fraser, C. (2006). Digital camera calibration methods: Considerations and comparisons. <I>International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>36</I>(5), 266-272.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327540&pid=S0123-921X201600040000900068&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Remondino, F.; Del Pizzo, S.; Kersten, T.P. y Troisi, S. (2012). Low-Cost and Open-Source Solutions for Automated Image Orientation-A Critical Overview. En: <I>Progress in Cultural Heritage Preservation</I> (Vol. 2012, pp. 40-54). Springer Berlin Heidelberg. <a href="http://doi.org/10.1007/978-3-642-34234-9_5" target="_blank">http://doi.org/10.1007/978-3-642-34234-9_5</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327542&pid=S0123-921X201600040000900069&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Romero, A.M. y Cazorla, M. (2009). Comparativa de detectores de caracter&iacute;sticas visuales y su aplicaci&oacute;n al SLAM. <I>X Workshop de Agentes F&iacute;sicos, Septiembre 2009</I>, 55-62. Recuperado de: <a href="http://scholar.google.com/scholar?hl=en&amp;btnG=Search&amp;q=intitle:Comparativa+de+detectores+de+caractersticas+visuales+y+su+aplicaci+&acute;+on+al+SLAM#0" target="_blank">http://scholar.google.com/scholar?hl=en&amp;btnG=Search&amp;q=intitle:Comparativa+de+detectores+de+caractersticas+visuales+y+su+aplicaci+&acute;+on+al+SLAM#0</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327544&pid=S0123-921X201600040000900070&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      ]]></body>
<body><![CDATA[<!-- ref --><p>Roncella, R.; Re, C. y Forlani, G. (2011). Comparison of two structure and motion strategies. <I>International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXVIII</I>, 343-350.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327546&pid=S0123-921X201600040000900071&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Rosnell, T. y Honkavaara, E. (2012). Point cloud generation from aerial image data acquired by a quadrocopter type micro unmanned aerial vehicle and a digital still camera. <I>Sensors (Basel, Switzerland)</I>, <I>12</I>(1), 453-480. <a href="http://doi.org/10.3390/s120100453" target="_blank">http://doi.org/10.3390/s120100453</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327548&pid=S0123-921X201600040000900072&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Rumpler, M.; Wendel, A. y Bischof, H. (2013). Probabilistic Range Image Integration for DSM and True-Orthophoto Generation. En: J.-K. K&auml;m&auml;r&auml;inen y M. Koskela (eds.). <I>Image Analysis</I> (pp. 533-544). Espoo, Finlandia: Springer Berlin Heidelberg. <a href="http://doi.org/10.1007/978-3-642-38886-6_50" target="_parent">http://doi.org/10.1007/978-3-642-38886-6_50</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327550&pid=S0123-921X201600040000900073&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Salvo, G.; Caruso, L. y Scordo, A. (2014). Urban Traffic Analysis through an UAV. <I>Procedia-Social and Behavioral Sciences</I>, <I>111</I>, 1083-1091. <a href="http://doi.org/10.1016/j.sbspro.2014.01.143" target="_blank">http://doi.org/10.1016/j.sbspro.2014.01.143</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327552&pid=S0123-921X201600040000900074&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Samad, A.M.; Kamarulzaman, N.; Hamdani, M.A.; Mastor, T.A. y Hashim, K.A. (2013). The potential of Unmanned Aerial Vehicle (UAV) for civilian and mapping application. En: <I>2013 IEEE 3rd International Conference on System Engineering and Technology</I> (pp. 313-318). Shah Alam, Malaysia: IEEE. <a href="http://doi.org/10.1109/ICSEngT.2013.6650191" target="_blank">http://doi.org/10.1109/ICSEngT.2013.6650191</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327554&pid=S0123-921X201600040000900075&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      ]]></body>
<body><![CDATA[<!-- ref --><p>Sensefly (2014). Professional Mapping Drones, Flight Planning &amp; Control, Maps and 3D Models. Recuperado 5 de septiembre de: <a href="https://www.sensefly.com/home.html" target="_blank">https://www.sensefly.com/home.html</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327556&pid=S0123-921X201600040000900076&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Shi, J.; Wang, J. y Xu, Y. (2011). Object-Based Change Detection Using Georeferenced UAV Images. <I>ISPRS-International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXVIII</I>-<I>1/</I>(1/C22), 177-182. <a href="http://doi.org/10.5194/isprsarchives-XXXVIII-1-C22-177-2011" target="_blank">http://doi.org/10.5194/isprsarchives-XXXVIII-1-C22-177-2011</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327557&pid=S0123-921X201600040000900077&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Snavely, N.; Seitz, S.M. y Szeliski, R. (2007). Modeling the World from Internet Photo Collections. <I>International Journal of Computer Vision</I>, <I>80</I>(2), 189-210. <a href="http://doi.org/10.1007/s11263-007-0107-3" target="_blank">http://doi.org/10.1007/s11263-007-0107-3</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327559&pid=S0123-921X201600040000900078&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Tang, L.; Braun, J. y Debitsch, R. (1997). Automatic aerotriangulation - concept, realization and results. <I>ISPRS Journal of Photogrammetry and Remote Sensing</I>, <I>52</I>(3), 122-131. <a href="http://doi.org/10.1016/S0924-2716(97)00012-9" target="_blank">http://doi.org/10.1016/S0924-2716(97)00012-9</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327561&pid=S0123-921X201600040000900079&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Triggs, B.; McLauchlan, P.; Hartley, R. y Fitzgibbon, A. (1999). Bundle adjustment-a modern synthesis. <I>Vision Algorithms, 99</I>, 1-71. Recuperado de: <a href="http://link.springer.com/chapter/10.1007/3-540-44480-7_21" target="_blank">http://link.springer.com/chapter/10.1007/3-540-44480-7_21</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327563&pid=S0123-921X201600040000900080&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Trimble. (2014). Trimble UX5 Aerial Imaging Rover. Recuperado el 5 de septiembre de 2014, de: <a href="http://www.trimble.com/Survey/ux5.aspx" target="_blank">http://www.trimble.com/Survey/ux5.aspx</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327565&pid=S0123-921X201600040000900081&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Turner, D.; Lucieer, A. y Wallace, L. (2014). Direct Georeferencing of Ultrahigh-Resolution UAV Imagery. <I>IEEE Transactions on Geoscience and Remote Sensing</I>, <I>52</I>(5), 2738-2745. <a href="http://doi.org/10.1109/TGRS.2013.2265295" target="_blank">http://doi.org/10.1109/TGRS.2013.2265295</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327567&pid=S0123-921X201600040000900082&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Turner, D.; Lucieer, A. y Watson, C. (2012). An Automated Technique for Generating Georectified Mosaics from Ultra-High Resolution Unmanned Aerial Vehicle (UAV) Imagery, Based on Structure from Motion (SfM) Point Clouds. <I>Remote Sensing</I>, <I>4</I>(12), 1392-1410. <a href="http://doi.org/10.3390/rs4051392" target="_blank">http://doi.org/10.3390/rs4051392</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327569&pid=S0123-921X201600040000900083&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Udin, W.S. y Ahmad, A. (2011). Calibration of high resolution digital camera using self-calibration bundle adjustment method. En: <I>2011 IEEE 7th International Colloquium on Signal Processing and its Applications</I> (Vol. 1, pp. 137-141). Ieee. <a href="http://doi.org/10.1109/CSPA.2011.5759859" target="_blank">http://doi.org/10.1109/CSPA.2011.5759859</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327571&pid=S0123-921X201600040000900084&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Udin, W.S.; Hassan, A.F.; Ahmad, A. y Tahar, K. N. (2012). Digital Terrain Model extraction using digital aerial imagery of Unmanned Aerial Vehicle. <I>2012 IEEE 8th International Colloquium on Signal Processing and Its Applications</I>, 272-275. <a href="http://doi.org/10.1109/CSPA.2012.6194732" target="_blank">http://doi.org/10.1109/CSPA.2012.6194732</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327573&pid=S0123-921X201600040000900085&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Vallet, J.; Panissod, F.; Strecha, C. y Tracol, M. (2012). Photogrammetric Performance of an Ultra Light Weight Swinglet "Uav." <I>ISPRS-International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXVIII</I>-<I>1/</I>, 253-258. <a href="http://doi.org/10.5194/isprsarchives-XXXVIII-1-C22-253-2011" target="_blank">http://doi.org/10.5194/isprsarchives-XXXVIII-1-C22-253-2011</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327575&pid=S0123-921X201600040000900086&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Watts, A.C.; Ambrosia, V.G. y Hinkley, E.A. (2012). Unmanned Aircraft Systems in Remote Sensing and Scientific Research: Classification and Considerations of Use. <I>Remote Sensing</I>, <I>4</I>(12), 1671-1692. <a href="http://doi.org/10.3390/rs4061671" target="_blank">http://doi.org/10.3390/rs4061671</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327577&pid=S0123-921X201600040000900087&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Westoby, M. J., Brasington, J., Glasser, N. F., Hambrey, M. J., &amp; Reynolds, J. M. (2012). "Structure-from-Motion" photogrammetry: A low-cost, effective tool for geoscience applications. <I>Geomorphology</I>, <I>179</I>, 300-314. <a href="http://doi.org/10.1016/j.geomorph.2012.08.021" target="_parent">http://doi.org/10.1016/j.geomorph.2012.08.021</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327579&pid=S0123-921X201600040000900088&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Wiggenhagen, M. (2002). Calibration of Digital Consumer Cameras for Photogrammetric Applications. En: <I>ISPRS Commission III, Symposium 2002</I> (p. 6). Graz, Austria.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327581&pid=S0123-921X201600040000900089&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Xiang, H. y Tian, L. (2011). Development of a low-cost agricultural remote sensing system based on an autonomous unmanned aerial vehicle (UAV). <I>Biosystems Engineering</I>, <I>108</I>(2), 174-190. <a href="http://doi.org/10.1016/j.biosystemseng.2010.11.010" target="_blank">http://doi.org/10.1016/j.biosystemseng.2010.11.010</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327583&pid=S0123-921X201600040000900090&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Xie, F.; Lin, Z.; Gui, D. y Lin, H. (2012). Study on Construction of 3D Building Based on Uav Images. <I>ISPRS-International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</I>, <I>XXXIX</I>-<I>B1</I>, 469-473. <a href="http://doi.org/10.5194/isprsarchives-XXXIX-B1-469-2012" target="_blank">http://doi.org/10.5194/isprsarchives-XXXIX-B1-469-2012</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327585&pid=S0123-921X201600040000900091&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Yahyanejad, S.; Quaritsch, M. y Rinner, B. (2011). Incremental, orthorectified and loop-independent mosaicking of aerial images taken by micro UAVs. <I>2011 IEEE International Symposium on Robotic and Sensors Environments (ROSE)</I>, 137-142. <a href="http://doi.org/10.1109/ROSE.2011.6058531" target="_blank">http://doi.org/10.1109/ROSE.2011.6058531</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327587&pid=S0123-921X201600040000900092&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Zhang, Z. (2000). A Flexible New Technique for Camera Calibration. <I>IEEE Transactions on Pattern Analysis and Machine Intelligence</I>, <I>22</I>(11), 1330-1334.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327588&pid=S0123-921X201600040000900093&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>      <!-- ref --><p>Zhang, Z. (2004). Camera calibration. En: G. Medioni y S.B. Kang (eds.).<I> Emerging Topics in Computer Vision</I> (pp. 4-43). Recuperado de: <a href="http://www.inf.ethz.ch/personal/pomarc/pubs/KangMedioniBook.pdf" target="_blank">http://www.inf.ethz.ch/personal/pomarc/pubs/KangMedioniBook.pdf</a>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327590&pid=S0123-921X201600040000900094&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>Zuliani, M. (2012). <I>RANSAC for Dummies</I>. Recuperado de: <a href="http://vision.ece.ucsb.edu/~zuliani/Research/RANSAC/RANSAC.shtml" target="_blank">http://vision.ece.ucsb.edu/~zuliani/Research/RANSAC/RANSAC.shtml</a>.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=4327591&pid=S0123-921X201600040000900095&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --></p>  </font>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Adams]]></surname>
<given-names><![CDATA[S.M]]></given-names>
</name>
<name>
<surname><![CDATA[Friedland]]></surname>
<given-names><![CDATA[C.J]]></given-names>
</name>
</person-group>
<source><![CDATA[A survey of unmanned aerial vehicle (UAV) usage for imagery collection in disaster research and management]]></source>
<year>2011</year>
<conf-name><![CDATA[ 9th International Workshop on Remote Sensing for Disaster Response]]></conf-name>
<conf-loc> </conf-loc>
<page-range>8</page-range><publisher-loc><![CDATA[Stanford^eCA CA]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="">
<collab>Aerocivil</collab>
<source><![CDATA[Normas de aeronavegabilidad y operación de aeronaves]]></source>
<year>2009</year>
<page-range>660</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="">
<collab>Aerocivil</collab>
<source><![CDATA[Requisitos Generales de Aeronavegabilidad y Operaciones para RPAS]]></source>
<year>2015</year>
</nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="">
<collab>Aibotix</collab>
<source><![CDATA[Aibot X6 Multicopter for Mapping and Industry]]></source>
<year>2014</year>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Anai]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Sasaki]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Osaragi]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Yamada]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Otomo]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Otani]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<source><![CDATA[Automatic Exterior Orientation Procedure for Low-Cost Uav Photogrammetry Using Video Image Tracking Technique and Gps Information]]></source>
<year>2012</year>
<conf-name><![CDATA[ ISPRS-International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, XXXIX-B7]]></conf-name>
<conf-loc> </conf-loc>
<page-range>469-474</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Arévalo V.]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Bayona I.]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Rincón P.]]></surname>
<given-names><![CDATA[I.K]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Metodología para documentación 3D utilizando fotogrametría digital]]></article-title>
<source><![CDATA[Revista Tecnura]]></source>
<year>2015</year>
<volume>19</volume>
<page-range>113-120</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Arthur]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Al-Tahir]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Davis]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<source><![CDATA[Rapid Processing of Unmanned Aerial Vehicles Imagery for Disaster Management]]></source>
<year>2012</year>
<conf-name><![CDATA[ FIG Working Week 2012 TS04H-Measurement Applications of Unmanned Vehicles]]></conf-name>
<conf-loc> </conf-loc>
<page-range>1-10</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Arya]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Mount]]></surname>
<given-names><![CDATA[D.M]]></given-names>
</name>
<name>
<surname><![CDATA[Netanyahu]]></surname>
<given-names><![CDATA[N.S]]></given-names>
</name>
<name>
<surname><![CDATA[Silverman]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Wu]]></surname>
<given-names><![CDATA[A.Y]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An Optimal Algorithm for Approximate Nearest Neighbor Searching in Fixed Dimensions]]></article-title>
<source><![CDATA[Journal of the ACM]]></source>
<year>1998</year>
<volume>45</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>1-31</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Barazzetti]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Brumana]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Oreni]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Previtali]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Roncoroni]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[True-orthophoto generation from UAV images: Implementation of a combined photogrammetric and computer vision approach]]></article-title>
<source><![CDATA[ISPRS Annals of Photogrammetry, Remote Sensing and Spatial Information Sciences]]></source>
<year>2014</year>
<volume>II</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>57-63</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Barazzetti]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Remondino]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Scaioni]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Automation in 3D reconstruction: results on different kinds of close-range blocks]]></article-title>
<source><![CDATA[International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></source>
<year>2010</year>
<volume>XXXVIII</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>55-61</page-range></nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Barazzetti]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Remondino]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Scaioni]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Extraction of accurate tie points for automated pose estimation of close-range blocks]]></source>
<year>2010</year>
<volume>XXXVIII</volume>
<conf-name><![CDATA[ ISPRS Technical Commission III]]></conf-name>
<conf-loc> </conf-loc>
<page-range>151-156</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Barazzetti]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Scaioni]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Remondino]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Orientation and 3D modelling from markerless terrestrial images: combining accuracy with automation]]></article-title>
<source><![CDATA[The Photogrammetric Record]]></source>
<year>2010</year>
<volume>25</volume>
<numero>132</numero>
<issue>132</issue>
<page-range>356-381</page-range></nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bay]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Tuytelaars]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Van Gool]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[SURF: Speeded Up Robust Features]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Leonardis]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Bischof]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
<name>
<surname><![CDATA[Pinz]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Computer Vision - ECCV 2006]]></source>
<year>2006</year>
<page-range>404-417</page-range><publisher-loc><![CDATA[Berlín ]]></publisher-loc>
<publisher-name><![CDATA[Springer Verlag]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bendea]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Boccardo]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Tonolo]]></surname>
<given-names><![CDATA[F.G]]></given-names>
</name>
<name>
<surname><![CDATA[Marenchino]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Piras]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Low cost UAV for post-disaster assessment]]></source>
<year>2008</year>
<volume>XXXVII</volume>
<page-range>1373-1380</page-range><publisher-name><![CDATA[International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Berni]]></surname>
<given-names><![CDATA[J.A.J]]></given-names>
</name>
<name>
<surname><![CDATA[Zarco-Tejada]]></surname>
<given-names><![CDATA[P.J]]></given-names>
</name>
<name>
<surname><![CDATA[Suárez]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[González-Dugo]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
<name>
<surname><![CDATA[Fereres]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[sensing of vegetation from UAV platforms using lightweight multispectral and thermal imaging sensors]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Heipke]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
<name>
<surname><![CDATA[Jacobsen]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
<name>
<surname><![CDATA[Müller]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Sörgel]]></surname>
<given-names><![CDATA[U.]]></given-names>
</name>
</person-group>
<source><![CDATA[ISPRS Hannover Workshop 2009]]></source>
<year>2009</year>
<page-range>6</page-range><publisher-loc><![CDATA[Hannover ]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bláha]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Eisenbeiss]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Grimm]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Limpach]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Direct georeferencing of UAVs]]></article-title>
<source><![CDATA[International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></source>
<year>2011</year>
<volume>XXXVIII</volume>
<page-range>131-136</page-range></nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chen]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
<name>
<surname><![CDATA[Zhao]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
</person-group>
<source><![CDATA[An improved SIFT algorithm for image feature-matching]]></source>
<year>2011</year>
<conf-name><![CDATA[ 2011 International Conference on Multimedia Technology]]></conf-name>
<conf-loc> </conf-loc>
<page-range>197-200</page-range></nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cheng]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Xue]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Li]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
</person-group>
<source><![CDATA[A Fast Mosaic Approach for Remote Sensing Images]]></source>
<year>2007</year>
<conf-name><![CDATA[ 2007 International Conference on Mechatronics and Automation]]></conf-name>
<conf-loc> </conf-loc>
<page-range>2009-2013</page-range></nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chiabrando]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Nex]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Piatti]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Rinaudo]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[UAV and RPV systems for photogrammetric surveys in archaelogical areas: two tests in the Piedmont region (Italy)]]></article-title>
<source><![CDATA[Journal of Archaeological Science]]></source>
<year>2011</year>
<volume>38</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>697-710</page-range></nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Colomina]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[Molina]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Unmanned aerial systems for photogrammetry and remote sensing: A review]]></article-title>
<source><![CDATA[ISPRS Journal of Photogrammetry and Remote Sensing]]></source>
<year>2014</year>
<volume>92</volume>
<page-range>79-97</page-range></nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cramer]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Direct Geocoding-is Aerial Triangulation Obsolete? In Photogrammetric Week "99"]]></source>
<year>1999</year>
<page-range>59-70</page-range></nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Douterloigne]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Gautama]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Philips]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
</person-group>
<source><![CDATA[Fully automatic and robust UAV camera calibration using chessboard patterns]]></source>
<year>2009</year>
<volume>2</volume>
<conf-name><![CDATA[ International Geoscience and Remote Sensing Symposium (IGARSS)]]></conf-name>
<conf-loc> </conf-loc>
<page-range>551-554</page-range></nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Eisenbeiss]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<source><![CDATA[UAV Photogrammetry]]></source>
<year>2009</year>
<publisher-loc><![CDATA[Zúrich ]]></publisher-loc>
<publisher-name><![CDATA[ETH and Institute of Geodesy and Photogrammetry]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Eisenbeiss]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Comparison of DSMs generated from mini UAV imagery and terrestrial laser scanner in a cultural heritage application]]></article-title>
<source><![CDATA[International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences]]></source>
<year>2006</year>
<volume>XXXVI</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>90-96</page-range></nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[El-Habrouk]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Li]]></surname>
<given-names><![CDATA[X.P]]></given-names>
</name>
<name>
<surname><![CDATA[Faig]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Determination of geometric characteristics of a Digital Camera by Self-Calibration]]></article-title>
<source><![CDATA[International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></source>
<year>1996</year>
<volume>XXXI</volume>
<numero>B1</numero>
<issue>B1</issue>
<page-range>60-64</page-range></nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Elaksher]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A multi-photo least squares matching algorithm for urban area DEM refinement using breaklines]]></article-title>
<source><![CDATA[International Archives of Photogrammetry, Remote Sensing, and Spatial Information Sciences]]></source>
<year>2008</year>
<volume>37</volume>
<page-range>33-38</page-range></nlm-citation>
</ref>
<ref id="B27">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Everaerts]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The use of unmanned aerial vehicles (UAVs) for remote sensing and mapping]]></article-title>
<source><![CDATA[International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></source>
<year>2008</year>
<volume>XXXVII</volume>
<numero>B1</numero>
<issue>B1</issue>
<page-range>1187-1192</page-range></nlm-citation>
</ref>
<ref id="B28">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Fischler]]></surname>
<given-names><![CDATA[M.A]]></given-names>
</name>
<name>
<surname><![CDATA[Bolles]]></surname>
<given-names><![CDATA[R.C]]></given-names>
</name>
</person-group>
<source><![CDATA[Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography]]></source>
<year>1981</year>
<volume>24</volume>
<page-range>381-395</page-range><publisher-name><![CDATA[CACM]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B29">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Forstner]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
<name>
<surname><![CDATA[Gulch]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
</person-group>
<source><![CDATA[A Fast Operator for Detection and Precise Location of Distinct Points, Corners and Centres of Circular Features.pdf]]></source>
<year>1987</year>
<conf-name><![CDATA[ Proceedings of the ISPRS Intercommission Workshop on Fast Processing of Photogrammetric Data]]></conf-name>
<conf-loc> </conf-loc>
<page-range>281-305</page-range><publisher-loc><![CDATA[Interlaken ]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B30">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Furukawa]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Ponce]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Accurate, dense, and robust multiview stereopsis]]></source>
<year>2007</year>
<volume>32</volume>
<conf-name><![CDATA[ IEEE Conference on Computer Vision and Pattern Recognition (CVPR)]]></conf-name>
<conf-loc> </conf-loc>
<page-range>1-8</page-range><publisher-loc><![CDATA[Minneapolis ]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B31">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gallo]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Cáceres J.]]></surname>
<given-names><![CDATA[J.J.]]></given-names>
</name>
<name>
<surname><![CDATA[Porras D.]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Modelos urbanos tridimensionales generados a partir de nubes de puntos de un escáner láser terrestre Three-dimensional urban models generated from point clouds]]></article-title>
<source><![CDATA[Revista Tecnura]]></source>
<year>2014</year>
<volume>18</volume>
<numero>41</numero>
<issue>41</issue>
<page-range>134-153</page-range></nlm-citation>
</ref>
<ref id="B32">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gehrke]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Morin]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Downey]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Semi-global matching: An alternative to LIDAR for DSM generation]]></source>
<year>2010</year>
<conf-name><![CDATA[ International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></conf-name>
<conf-loc> </conf-loc>
</nlm-citation>
</ref>
<ref id="B33">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gini]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Pagliari]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Passoni]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Pinto]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Sona]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[Dosso]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[UAV Photogrammetry: Block Triangulation Comparisons]]></article-title>
<source><![CDATA[International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></source>
<year>2013</year>
<volume>XL</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>157-162</page-range></nlm-citation>
</ref>
<ref id="B34">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Haala]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[Fritsch]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<source><![CDATA[Multiray Photogrammetry and Dense Image Matching]]></source>
<year>2011</year>
<page-range>185-195</page-range><publisher-loc><![CDATA[Stuttgart ]]></publisher-loc>
<publisher-name><![CDATA[Wichmann]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B35">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Haala]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[Cramer]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Weimer]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Trittler]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Performance Test on Uav-Based Photogrammetric Data Collection]]></article-title>
<source><![CDATA[ISPRS-International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></source>
<year>2012</year>
<volume>XXXVIII</volume>
<page-range>7-12</page-range><page-range>http://doi.org/10.5194/isprsarchives-XXXVIII-1-C22-7-2011</page-range></nlm-citation>
</ref>
<ref id="B36">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Harris]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Stephens]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[A Combined Corner and Edge Detector]]></source>
<year>1988</year>
<conf-name><![CDATA[ Procedings of the Alvey Vision Conference 1988]]></conf-name>
<conf-loc> </conf-loc>
<page-range>147-151</page-range></nlm-citation>
</ref>
<ref id="B37">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hartley]]></surname>
<given-names><![CDATA[R.I]]></given-names>
</name>
<name>
<surname><![CDATA[Mundy]]></surname>
<given-names><![CDATA[J.L]]></given-names>
</name>
</person-group>
<source><![CDATA[The relationship between photogrammetry and computer vision]]></source>
<year>1993</year>
<volume>1944</volume>
<conf-name><![CDATA[ Integrating Photogrammetric Techniques With Scene Analysis and Machine Vision. SPIE Digital Library]]></conf-name>
<conf-loc> </conf-loc>
<page-range>14</page-range></nlm-citation>
</ref>
<ref id="B38">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Heikkila]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Silvén]]></surname>
<given-names><![CDATA[O]]></given-names>
</name>
</person-group>
<source><![CDATA[A four-step camera calibration procedure with implicit image correction]]></source>
<year>1997</year>
<conf-name><![CDATA[ Conference on Computer Vision and Pattern Recognition]]></conf-name>
<conf-loc> </conf-loc>
<page-range>1106-1112</page-range></nlm-citation>
</ref>
<ref id="B39">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hemayed]]></surname>
<given-names><![CDATA[E.E.E.E]]></given-names>
</name>
</person-group>
<source><![CDATA[A survey of camera self-calibration]]></source>
<year>2003</year>
<conf-name><![CDATA[ Proceedings of the IEEE Conference on Advanced Video and Signal Based Surveillance, 2003]]></conf-name>
<conf-loc> </conf-loc>
<page-range>351-357</page-range></nlm-citation>
</ref>
<ref id="B40">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hirschmuller]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<source><![CDATA[Accurate and efficient stereo processing by semi-global matching and mutual information. ... Vision and Pattern Recognition, 2005. CVPR]]></source>
<year>2005</year>
</nlm-citation>
</ref>
<ref id="B41">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hirschmüller]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<source><![CDATA[Stereo processing by semiglobal matching and mutual information]]></source>
<year>2008</year>
<volume>30</volume>
<conf-name><![CDATA[ IEEE Transactions on Pattern Analysis and Machine Intelligence]]></conf-name>
<conf-loc> </conf-loc>
<page-range>328-41</page-range></nlm-citation>
</ref>
<ref id="B42">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hirschmüller]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<source><![CDATA[Semi-Global Matching Motivation, Developments and Applications]]></source>
<year>2011</year>
<page-range>173-184</page-range><publisher-name><![CDATA[Photogrammetric Week]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B43">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hirschmüller]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Bucher]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<source><![CDATA[Evaluation of digital surface models by semi-global matching]]></source>
<year>2010</year>
<publisher-name><![CDATA[DGPF Tagungsband]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B44">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Höhle]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On the potential of new digital aerial cameras for DEM generation]]></article-title>
<source><![CDATA[The Photogrammetric Journal of Finland]]></source>
<year>2011</year>
<volume>22</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>27-36</page-range></nlm-citation>
</ref>
<ref id="B45">
<nlm-citation citation-type="confpro">
<collab>ISPRS</collab>
<source><![CDATA[Approved resolutions of the XXth ISPRS Congress-Istanbul 2004]]></source>
<year>2004</year>
<volume>XXXV</volume>
<conf-name><![CDATA[ International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></conf-name>
<conf-loc> </conf-loc>
<page-range>40</page-range><publisher-loc><![CDATA[Estambul ]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B46">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Juan]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Gwun]]></surname>
<given-names><![CDATA[O]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A comparison of sift, pca-sift and surf]]></article-title>
<source><![CDATA[International Journal of Image Processing (IJIP)]]></source>
<year>2009</year>
<volume>3</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>143-152</page-range></nlm-citation>
</ref>
<ref id="B47">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Junqing]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Zongjian]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Xiaojing]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
<name>
<surname><![CDATA[Yongrong]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Acquisition]]></surname>
<given-names><![CDATA[A.I]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Application of UAV system for low altitude photogrammetry in Shanxi]]></article-title>
<source><![CDATA[International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></source>
<year>2012</year>
<volume>XXXIX</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>351-354</page-range></nlm-citation>
</ref>
<ref id="B48">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kohoutek]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Eisenbeiss]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Processing of UAV based range imaging data to generate detailed elevation models of complex natural structures]]></article-title>
<source><![CDATA[International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></source>
<year>2012</year>
<volume>XXXIX</volume>
<page-range>405-410</page-range></nlm-citation>
</ref>
<ref id="B49">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lei]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Fan]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Ji]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Zhai]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Theory and Algorithms of DSM generation from multi-line-array images matching]]></article-title>
<source><![CDATA[International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></source>
<year>2008</year>
<volume>XXXVII</volume>
<numero>B4</numero>
<issue>B4</issue>
<page-range>337-342</page-range></nlm-citation>
</ref>
<ref id="B50">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Li]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Li]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Fan]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A study on automatic UAV image mosaic method for paroxysmal disaster]]></article-title>
<source><![CDATA[International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></source>
<year>2012</year>
<volume>XXXIX</volume>
<numero>B6</numero>
<issue>B6</issue>
<page-range>123-128</page-range></nlm-citation>
</ref>
<ref id="B51">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Li]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
<name>
<surname><![CDATA[Liu]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Yan]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Computing Homography with RANSAC Algorithm: A Novel Method of Registration]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Li]]></surname>
<given-names><![CDATA[C.-S.]]></given-names>
</name>
<name>
<surname><![CDATA[Yeung]]></surname>
<given-names><![CDATA[M.M.]]></given-names>
</name>
</person-group>
<source><![CDATA[SPIE 5637]]></source>
<year>2005</year>
<volume>5637</volume>
<page-range>109-112</page-range></nlm-citation>
</ref>
<ref id="B52">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lingua]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Marenchino]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Nex]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Performance Analysis of the SIFT Operator for Automatic Feature Extraction and Matching in Photogrammetric Applications]]></article-title>
<source><![CDATA[Sensors (Basel, Switzerland)]]></source>
<year>2009</year>
<volume>9</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>3745-66</page-range></nlm-citation>
</ref>
<ref id="B53">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lingua]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Marenchino]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Nex]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A comparison between " old and new " feature extraction and matching techniques in Photogrammetry]]></article-title>
<source><![CDATA[RevCAD, Journal of Geodesy and Cadastre]]></source>
<year>2009</year>
<volume>9</volume>
<page-range>43-52</page-range></nlm-citation>
</ref>
<ref id="B54">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lingua]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Marenchino]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Nex]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Automatic Digital Surface Model (DSM) generation procedure from images acquired by Unmanned Aerial Systems (UASs)]]></article-title>
<source><![CDATA[RevCAD, Journal of Geodesy and Cadastre]]></source>
<year>2009</year>
<numero>9</numero>
<issue>9</issue>
<page-range>53-64</page-range></nlm-citation>
</ref>
<ref id="B55">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lowe]]></surname>
<given-names><![CDATA[D.G]]></given-names>
</name>
</person-group>
<source><![CDATA[Object recognition from local scale-invariant features]]></source>
<year>1999</year>
<volume>2</volume>
<conf-name><![CDATA[ Proceedings of the Seventh IEEE International Conference on Computer Vision]]></conf-name>
<conf-loc> </conf-loc>
<page-range>1150-1157</page-range></nlm-citation>
</ref>
<ref id="B56">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lowe]]></surname>
<given-names><![CDATA[D.G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Distinctive Image Features from Scale-Invariant Keypoints]]></article-title>
<source><![CDATA[International Journal of Computer Vision]]></source>
<year>2004</year>
<volume>60</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>91-110</page-range></nlm-citation>
</ref>
<ref id="B57">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lucieer]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Robinson]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Turner]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<source><![CDATA[Unmanned Aerial Vehicle (UAV) remote sensing for hyperspatial terrain mapping of Antarctic Moss beds based on Structure from Motion (SfM) point clouds]]></source>
<year>2011</year>
<month>Ja</month>
<day>nu</day>
<conf-name><![CDATA[ Proceeding of the 34th International Symposium on Remote Sensing of Environment]]></conf-name>
<conf-loc>Sydney </conf-loc>
<page-range>1-4</page-range></nlm-citation>
</ref>
<ref id="B58">
<nlm-citation citation-type="">
<source><![CDATA[Personal UAV Systems For Photography, Surveillance and More]]></source>
<year>2014</year>
</nlm-citation>
</ref>
<ref id="B59">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Marenchino]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<source><![CDATA[Low-cost UAV for the environmental emergency management. Photogrammetric procedures for rapid mapping activities]]></source>
<year>2009</year>
</nlm-citation>
</ref>
<ref id="B60">
<nlm-citation citation-type="">
<collab>Microdrones</collab>
<source><![CDATA[UAV Solutions for Mapping, Unmanned Cargo and Inspection Tasks]]></source>
<year>2014</year>
</nlm-citation>
</ref>
<ref id="B61">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mikolajczyk]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Schmid]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Performance evaluation of local descriptors]]></article-title>
<source><![CDATA[IEEE Transactions on Pattern Analysis and Machine Intelligence]]></source>
<year>2005</year>
<volume>27</volume>
<numero>10</numero>
<issue>10</issue>
<page-range>1615-1630</page-range></nlm-citation>
</ref>
<ref id="B62">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Neitzel]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Klonowski]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Mobile 3D mapping with a low-cost UAV system]]></article-title>
<source><![CDATA[International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></source>
<year>2011</year>
<volume>XXXVIII</volume>
<page-range>1-6</page-range></nlm-citation>
</ref>
<ref id="B63">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Nex]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Remondino]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[UAV for 3D mapping applications: a review]]></article-title>
<source><![CDATA[Applied Geomatics]]></source>
<year>2013</year>
<volume>6</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>1-15</page-range></nlm-citation>
</ref>
<ref id="B64">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Niethammer]]></surname>
<given-names><![CDATA[U]]></given-names>
</name>
<name>
<surname><![CDATA[James]]></surname>
<given-names><![CDATA[M.R.R]]></given-names>
</name>
<name>
<surname><![CDATA[Rothmund]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Travelletti]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Joswig]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[UAV-based remote sensing of the Super-Sauze landslide: Evaluation and results]]></article-title>
<source><![CDATA[Engineering Geology]]></source>
<year>2011</year>
<volume>128</volume>
<page-range>2-11</page-range></nlm-citation>
</ref>
<ref id="B65">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Niethammer]]></surname>
<given-names><![CDATA[U]]></given-names>
</name>
<name>
<surname><![CDATA[Rothmund]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Travelletti]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Joswig]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[UAV-Based Remote Sensing of Landslides]]></article-title>
<source><![CDATA[International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></source>
<year>2010</year>
<volume>XXXVIII</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>496-501</page-range></nlm-citation>
</ref>
<ref id="B66">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Nizam T.]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Ahmad]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An Evaluation of Fixed Wing and Multi-Rotor UAV Images using Photogrammetric Image Processing]]></article-title>
<source><![CDATA[World Academy of Science, Engineering and Technology]]></source>
<year>2013</year>
<numero>7</numero>
<issue>7</issue>
<page-range>346-350</page-range></nlm-citation>
</ref>
<ref id="B67">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Pfeifer]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[Glira]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Briese]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Direct Georeferencing With on Board Navigation Components of Light Weight Uav Platforms]]></article-title>
<source><![CDATA[ISPRS-International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences,]]></source>
<year>2012</year>
<volume>XXXIX</volume>
<page-range>487-492</page-range></nlm-citation>
</ref>
<ref id="B68">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Remondino]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Fraser]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Digital camera calibration methods: Considerations and comparisons]]></article-title>
<source><![CDATA[International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></source>
<year>2006</year>
<volume>36</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>266-272</page-range></nlm-citation>
</ref>
<ref id="B69">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Remondino]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Del Pizzo]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Kersten]]></surname>
<given-names><![CDATA[T.P]]></given-names>
</name>
<name>
<surname><![CDATA[Troisi]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Low-Cost and Open-Source Solutions for Automated Image Orientation-A Critical Overview]]></source>
<year>2012</year>
<month>20</month>
<day>12</day>
<conf-name><![CDATA[ Progress in Cultural Heritage Preservation]]></conf-name>
<conf-loc> </conf-loc>
<page-range>40-54</page-range><publisher-name><![CDATA[Springer Berlin Heidelberg]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B70">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Romero]]></surname>
<given-names><![CDATA[A.M]]></given-names>
</name>
<name>
<surname><![CDATA[Cazorla]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Comparativa de detectores de características visuales y su aplicación al SLAM]]></source>
<year>2009</year>
<conf-name><![CDATA[ X Workshop de Agentes Físicos, Septiembre 2009]]></conf-name>
<conf-loc> </conf-loc>
<page-range>55-62</page-range></nlm-citation>
</ref>
<ref id="B71">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Roncella]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Re]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Forlani]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Comparison of two structure and motion strategies]]></article-title>
<source><![CDATA[International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></source>
<year>2011</year>
<numero>XXXVIII</numero>
<issue>XXXVIII</issue>
<page-range>343-350</page-range></nlm-citation>
</ref>
<ref id="B72">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rosnell]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Honkavaara]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Point cloud generation from aerial image data acquired by a quadrocopter type micro unmanned aerial vehicle and a digital still camera]]></article-title>
<source><![CDATA[Sensors (Basel, Switzerland)]]></source>
<year>2012</year>
<volume>12</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>453-480</page-range></nlm-citation>
</ref>
<ref id="B73">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rumpler]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Wendel]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Bischof]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Probabilistic Range Image Integration for DSM and True-Orthophoto Generation]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Kämäräinen]]></surname>
<given-names><![CDATA[J.-K.]]></given-names>
</name>
<name>
<surname><![CDATA[Koskela]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
</person-group>
<source><![CDATA[Image Analysis]]></source>
<year>2013</year>
<page-range>533-544</page-range><publisher-loc><![CDATA[Espoo ]]></publisher-loc>
<publisher-name><![CDATA[Springer Berlin Heidelberg]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B74">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Salvo]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[Caruso]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Scordo]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Urban Traffic Analysis through an UAV]]></article-title>
<source><![CDATA[Procedia-Social and Behavioral Sciences]]></source>
<year>2014</year>
<volume>111</volume>
<page-range>1083-1091</page-range></nlm-citation>
</ref>
<ref id="B75">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Samad]]></surname>
<given-names><![CDATA[A.M]]></given-names>
</name>
<name>
<surname><![CDATA[Kamarulzaman]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[Hamdani]]></surname>
<given-names><![CDATA[M.A]]></given-names>
</name>
<name>
<surname><![CDATA[Mastor]]></surname>
<given-names><![CDATA[T.A]]></given-names>
</name>
<name>
<surname><![CDATA[Hashim]]></surname>
<given-names><![CDATA[K.A]]></given-names>
</name>
</person-group>
<source><![CDATA[The potential of Unmanned Aerial Vehicle (UAV) for civilian and mapping application]]></source>
<year>2013</year>
<conf-name><![CDATA[ 2013 IEEE 3rd International Conference on System Engineering and Technology]]></conf-name>
<conf-loc> </conf-loc>
<page-range>313-318</page-range><publisher-loc><![CDATA[Shah Alam ]]></publisher-loc>
<publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B76">
<nlm-citation citation-type="">
<collab>Sensefly</collab>
<source><![CDATA[Professional Mapping Drones, Flight Planning & Control, Maps and 3D Models]]></source>
<year>2014</year>
</nlm-citation>
</ref>
<ref id="B77">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shi]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Xu]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Object-Based Change Detection Using Georeferenced UAV Images]]></article-title>
<source><![CDATA[ISPRS-International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences]]></source>
<year>2011</year>
<volume>XXXVIII</volume>
<page-range>177-182</page-range></nlm-citation>
</ref>
<ref id="B78">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Snavely]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[Seitz]]></surname>
<given-names><![CDATA[S.M]]></given-names>
</name>
<name>
<surname><![CDATA[Szeliski]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Modeling the World from Internet Photo Collections]]></article-title>
<source><![CDATA[International Journal of Computer Vision]]></source>
<year>2007</year>
<volume>80</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>189-210</page-range></nlm-citation>
</ref>
<ref id="B79">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tang]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Braun]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Debitsch]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Automatic aerotriangulation - concept, realization and results]]></article-title>
<source><![CDATA[ISPRS Journal of Photogrammetry and Remote Sensing]]></source>
<year>1997</year>
<volume>52</volume><volume>3</volume>
<page-range>122-131</page-range></nlm-citation>
</ref>
<ref id="B80">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Triggs]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[McLauchlan]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Hartley]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Fitzgibbon]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Bundle adjustment-a modern synthesis]]></source>
<year>1999</year>
<volume>99</volume>
<page-range>1-71</page-range><publisher-name><![CDATA[Vision Algorithms]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B81">
<nlm-citation citation-type="">
<collab>Trimble</collab>
<source><![CDATA[Trimble UX5 Aerial Imaging Rover]]></source>
<year>2014</year>
</nlm-citation>
</ref>
<ref id="B82">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Turner]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Lucieer]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Wallace]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Direct Georeferencing of Ultrahigh-Resolution UAV Imagery]]></article-title>
<source><![CDATA[IEEE Transactions on Geoscience and Remote Sensing]]></source>
<year>2014</year>
<volume>52</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>2738-2745</page-range></nlm-citation>
</ref>
<ref id="B83">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Turner]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Lucieer]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Watson]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An Automated Technique for Generating Georectified Mosaics from Ultra-High Resolution Unmanned Aerial Vehicle (UAV) Imagery, Based on Structure from Motion (SfM) Point Clouds]]></article-title>
<source><![CDATA[Remote Sensing]]></source>
<year>2012</year>
<volume>4</volume>
<numero>12</numero>
<issue>12</issue>
<page-range>1392-1410</page-range></nlm-citation>
</ref>
<ref id="B84">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Udin]]></surname>
<given-names><![CDATA[W.S]]></given-names>
</name>
<name>
<surname><![CDATA[Ahmad]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Calibration of high resolution digital camera using self-calibration bundle adjustment method]]></source>
<year>2011</year>
<volume>1</volume>
<conf-name><![CDATA[ 2011 IEEE 7th International Colloquium on Signal Processing and its Applications]]></conf-name>
<conf-loc> </conf-loc>
<page-range>137-141</page-range><publisher-name><![CDATA[Ieee]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B85">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Udin]]></surname>
<given-names><![CDATA[W.S]]></given-names>
</name>
<name>
<surname><![CDATA[Ahmad]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Tahar]]></surname>
<given-names><![CDATA[K. N]]></given-names>
</name>
</person-group>
<source><![CDATA[Digital Terrain Model extraction using digital aerial imagery of Unmanned Aerial Vehicle]]></source>
<year>2012</year>
<conf-name><![CDATA[ 2012 IEEE 8th International Colloquium on Signal Processing and Its Applications]]></conf-name>
<conf-loc> </conf-loc>
<page-range>272-275</page-range></nlm-citation>
</ref>
<ref id="B86">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Vallet]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Panissod]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Strecha]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Tracol]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Photogrammetric Performance of an Ultra Light Weight Swinglet "Uav]]></source>
<year>2012</year>
<conf-name><![CDATA[ ISPRS-International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, XXXVIII]]></conf-name>
<conf-loc> </conf-loc>
<page-range>253-258</page-range></nlm-citation>
</ref>
<ref id="B87">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Watts]]></surname>
<given-names><![CDATA[A.C]]></given-names>
</name>
<name>
<surname><![CDATA[Ambrosia]]></surname>
<given-names><![CDATA[V.G]]></given-names>
</name>
<name>
<surname><![CDATA[Hinkley]]></surname>
<given-names><![CDATA[E.A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Unmanned Aircraft Systems in Remote Sensing and Scientific Research: Classification and Considerations of Use]]></article-title>
<source><![CDATA[Remote Sensing]]></source>
<year>2012</year>
<volume>4</volume>
<numero>12</numero>
<issue>12</issue>
<page-range>1671-1692</page-range></nlm-citation>
</ref>
<ref id="B88">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Westoby]]></surname>
<given-names><![CDATA[M. J]]></given-names>
</name>
<name>
<surname><![CDATA[Brasington]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Glasser]]></surname>
<given-names><![CDATA[N. F]]></given-names>
</name>
<name>
<surname><![CDATA[Hambrey]]></surname>
<given-names><![CDATA[M. J]]></given-names>
</name>
<name>
<surname><![CDATA[Reynolds]]></surname>
<given-names><![CDATA[J. M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Structure-from-Motion" photogrammetry: A low-cost, effective tool for geoscience applications]]></article-title>
<source><![CDATA[Geomorphology]]></source>
<year>2012</year>
<volume>179</volume>
<page-range>300-314</page-range></nlm-citation>
</ref>
<ref id="B89">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wiggenhagen]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Calibration of Digital Consumer Cameras for Photogrammetric Applications]]></source>
<year>2002</year>
<conf-name><![CDATA[ ISPRS Commission III, Symposium 2002]]></conf-name>
<conf-loc> </conf-loc>
<page-range>6</page-range><publisher-loc><![CDATA[Graz ]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B90">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Xiang]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Tian]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Development of a low-cost agricultural remote sensing system based on an autonomous unmanned aerial vehicle (UAV)]]></article-title>
<source><![CDATA[Biosystems Engineering]]></source>
<year>2011</year>
<volume>108</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>174-190</page-range></nlm-citation>
</ref>
<ref id="B91">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Xie]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Lin]]></surname>
<given-names><![CDATA[Z]]></given-names>
</name>
<name>
<surname><![CDATA[Gui]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Lin]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Study on Construction of 3D Building Based on Uav Images]]></article-title>
<source><![CDATA[ISPRS-International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, XXXIX-B1]]></source>
<year>2012</year>
<page-range>469-473</page-range></nlm-citation>
</ref>
<ref id="B92">
<nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Yahyanejad]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Quaritsch]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Rinner]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
</person-group>
<source><![CDATA[Incremental, orthorectified and loop-independent mosaicking of aerial images taken by micro UAVs]]></source>
<year>2011</year>
<conf-name><![CDATA[ 2011 IEEE International Symposium on Robotic and Sensors Environments (ROSE)]]></conf-name>
<conf-loc> </conf-loc>
<page-range>137-142</page-range></nlm-citation>
</ref>
<ref id="B93">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[Z]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A Flexible New Technique for Camera Calibration]]></article-title>
<source><![CDATA[IEEE Transactions on Pattern Analysis and Machine Intelligence]]></source>
<year>2000</year>
<volume>22</volume>
<numero>11</numero>
<issue>11</issue>
<page-range>1330-1334</page-range></nlm-citation>
</ref>
<ref id="B94">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[Z]]></given-names>
</name>
<name>
<surname><![CDATA[Medioni]]></surname>
<given-names><![CDATA[G.]]></given-names>
</name>
<name>
<surname><![CDATA[Kang]]></surname>
<given-names><![CDATA[S.B.]]></given-names>
</name>
</person-group>
<source><![CDATA[Camera calibration]]></source>
<year>2004</year>
<page-range>4-43</page-range></nlm-citation>
</ref>
<ref id="B95">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zuliani]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[RANSAC for Dummies]]></source>
<year>2012</year>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
