<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1794-9165</journal-id>
<journal-title><![CDATA[Ingeniería y Ciencia]]></journal-title>
<abbrev-journal-title><![CDATA[ing.cienc.]]></abbrev-journal-title>
<issn>1794-9165</issn>
<publisher>
<publisher-name><![CDATA[Escuela de Ciencias y Humanidades y Escuela de Ingeniería de la Universidad EAFIT]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1794-91652013000200011</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Reconocimiento automatizado de señales bioacústicas: Una revisión de métodos y aplicaciones]]></article-title>
<article-title xml:lang="en"><![CDATA[Automated Recognition of Bioacoustic Signals: a Review of Methods and Applications]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Caycedo-Rosales]]></surname>
<given-names><![CDATA[Paula Catalina]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Ruiz-Muñoz]]></surname>
<given-names><![CDATA[José Francisco]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Orozco-Alzate]]></surname>
<given-names><![CDATA[Mauricio]]></given-names>
</name>
<xref ref-type="aff" rid="A03"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Instituto de Investigación de Recursos Biológicos Alexander von Humboldt  ]]></institution>
<addr-line><![CDATA[Bogotá ]]></addr-line>
<country>Colombia</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Nacional de Colombia  ]]></institution>
<addr-line><![CDATA[Manizales ]]></addr-line>
<country>Colombia</country>
</aff>
<aff id="A03">
<institution><![CDATA[,Universidad Nacional de Colombia  ]]></institution>
<addr-line><![CDATA[Manizales ]]></addr-line>
<country>Colombia</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>12</month>
<year>2013</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>12</month>
<year>2013</year>
</pub-date>
<volume>9</volume>
<numero>18</numero>
<fpage>171</fpage>
<lpage>195</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_arttext&amp;pid=S1794-91652013000200011&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_abstract&amp;pid=S1794-91652013000200011&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://www.scielo.org.co/scielo.php?script=sci_pdf&amp;pid=S1794-91652013000200011&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Durante la última década se ha publicado una gran cantidad de estudios de investigación y aplicaciones sobre monitoreo bioacústico automatizado; no obstante, tales estudios están dispersos en la literatura de ingeniería y ciencias biológicas. En este artículo se presentan conceptos fundamentales sobre monitoreo bioacústico automatizado; se revisan, comparan y categorizan -en una taxonomía de técnicas de DSP/PR- las contribuciones de las investigaciones y las aplicaciones publicadas; se sugieren algunas direcciones para investigaciones futuras y se resaltan los retos y las oportunidades relacionados con la instalación de esta tecnología en Colombia.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[During the past decade, numerous research studies and applications on automated bioacoustic monitoring have been published; however, such studies are scattered in the literature of engineering and life sciences. This paper presents a review on fundamental concepts of automated acoustic monitoring. Our aim is to compare and categorize -in a taxonomy of techniques DSP/PR- the contributions of published research studies and applications; in order to suggest some directions for future research and highlight challenges and opportunities related to the deployment of this technology in Colombia.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[monitoreo ambiental automatizado]]></kwd>
<kwd lng="es"><![CDATA[bioacústica]]></kwd>
<kwd lng="es"><![CDATA[procesamiento de señales acústicas]]></kwd>
<kwd lng="es"><![CDATA[reconocimiento de patrones]]></kwd>
<kwd lng="en"><![CDATA[automated enviromental monitoring]]></kwd>
<kwd lng="en"><![CDATA[bioacoustics]]></kwd>
<kwd lng="en"><![CDATA[acoustic signal processing]]></kwd>
<kwd lng="en"><![CDATA[pattern recognition]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <FONT size="2" face="Verdana, Arial, Helvetica, sans-serif">     <p align="right"><b>REVISI&Oacute;N</b></p>     <p align="center">&nbsp;</p>     <p align="center"><b><font size="4">Reconocimiento automatizado de se&ntilde;ales   bioac&uacute;sticas: Una revisi&oacute;n de m&eacute;todos y aplicaciones</font></b></p>     <p>&nbsp;</p>     <p align="center"><b><font size="3">Automated Recognition of Bioacoustic Signals: a   Review of Methods and Applications</font></b></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <p><b>Paula Catalina Caycedo-Rosales<sup>1</sup>, Jos&eacute; Francisco Ruiz-Mu&ntilde;oz<sup>2</sup> y   Mauricio Orozco-Alzate<sup>3</sup></b></p>     <p>1 Mag&iacute;ster en Ecolog&iacute;a, <a href="mailto:pcaicedo@humboldt.org.co">pcaicedo@humboldt.org.co</a>, Instituto de Investigaci&oacute;n de   Recursos Biol&oacute;gicos Alexander von Humboldt, Bogot&aacute;&#8211;Colombia.</p>     ]]></body>
<body><![CDATA[<p>2 Mag&iacute;ster en Ingenier&iacute;a, <a href="mailto:jfruizmu@unal.edu.co">jfruizmu@unal.edu.co</a>, Universidad Nacional de Colombia,   Manizales&#8211;Colombia.</p>     <p>3 Doctor en Ingenier&iacute;a Autom&aacute;tica, <a href="mailto:morozcoa@unal.edu.co">morozcoa@unal.edu.co</a>, Universidad Nacional de   Colombia, Manizales&#8211;Colombia.</p>     <p>&nbsp;</p>     <p>Recepci&oacute;n: 14-05-2013, Aceptaci&oacute;n: 30-07-2013   Disponible en l&iacute;nea: 05-11-2013 </p>     <p>PACS: 43.60.-c, 43.60.Lq, 43.80.-n</p>     <p>&nbsp;</p> <hr size="1" />     <p><b>Resumen</b></p>     <p>   Durante la &uacute;ltima d&eacute;cada se ha publicado una gran cantidad de estudios   de investigaci&oacute;n y aplicaciones sobre monitoreo bioac&uacute;stico automatizado;   no obstante, tales estudios est&aacute;n dispersos en la literatura de ingenier&iacute;a y   ciencias biol&oacute;gicas. En este art&iacute;culo se presentan conceptos fundamentales   sobre monitoreo bioac&uacute;stico automatizado; se revisan, comparan y categorizan &#8212;en una taxonom&iacute;a de t&eacute;cnicas de DSP/PR&#8212; las contribuciones de las investigaciones y las aplicaciones publicadas; se sugieren algunas direcciones para investigaciones futuras y se resaltan los retos y las oportunidades relacionados con la instalaci&oacute;n de esta tecnolog&iacute;a en Colombia.</p>     <p><b>Palabras clave:</b> monitoreo ambiental automatizado; bioac&uacute;stica; procesamiento de se&ntilde;ales ac&uacute;sticas; reconocimiento de patrones.</p>     <p> <b>Aspectos relevantes</b></p>     ]]></body>
<body><![CDATA[<p>&bull; Se expone la importancia de las se&ntilde;ales ac&uacute;sticas en los estudios de   biolog&iacute;a de la conservaci&oacute;n y la necesidad de implementar este tipo del   tecnolog&iacute;a en Colombia. &bull; Se exponen m&eacute;todos de representaci&oacute;n y clasificaci&oacute;n,   aplicaciones y listado de software comercial y libre utilizados para   el an&aacute;lisis de reconocimiento bioac&uacute;stico.</p> <hr size="1" />     <p><b>Abstract</b></p>     <p>   During the past decade, numerous research studies and applications on automated   bioacoustic monitoring have been published; however, such studies   are scattered in the literature of engineering and life sciences. This   paper presents a review on fundamental concepts of automated acoustic   monitoring. Our aim is to compare and categorize &#8212;in a taxonomy of   techniques DSP/PR&#8212; the contributions of published research studies and   applications; in order to suggest some directions for future research and   highlight challenges and opportunities related to the deployment of this   technology in Colombia.</p>     <p>   <b>Key words:</b> automated enviromental monitoring; bioacoustics; acoustic   signal processing; pattern recognition.</p> <hr size="1" />     <p>&nbsp;</p>     <p>&nbsp;</p>     <p><b><font size="3">1 Introducci&oacute;n</font></b></p>     <p>   La destrucci&oacute;n y degradaci&oacute;n de la naturaleza conduce al empobrecimiento   y, en muchos casos, a la p&eacute;rdida de los beneficios que &eacute;sta nos suministra.   Entender las consecuencias de los agentes tensionantes sobre la biodiversidad   y los servicios ecosist&eacute;micos &#8212;de los cuales dependemos&#8212; requiere   de una evaluaci&oacute;n constante de las tendencias de cambio de los patrones y   procesos ecol&oacute;gicos. Sin embargo, uno de los mayores desaf&iacute;os en ecolog&iacute;a   y biolog&iacute;a de la conservaci&oacute;n, es la evaluaci&oacute;n de la biodiversidad mediante   t&eacute;cnicas de monitoreo eficaces, que permitan abarcar amplias escalas, tanto   espaciales como temporales &#91;1&#93;. Este conocimiento debe ser la base para construir criterios m&aacute;s robustos que conlleven a un mejor manejo del territorio,   mediante un sistema de monitoreo centralizado que permita que los   investigadores, tomadores de decisi&oacute;n, o personas interesadas, tengan una   buena perspectiva general sobre los resultados arrojados por los programas   de monitoreo a escala nacional &#91;2&#93;.</p>     <p>Actualmente, el conocimiento de la gran mayor&iacute;a de los sistemas ecol&oacute;gicos   se basa en escalas espaciales y temporales muy limitadas &#91;3&#93;. Adicionalmente,   en el &aacute;mbito nacional, las tareas de monitoreo est&aacute;n altamente   descentralizadas &#8212;en el sentido de que no se cuenta con sistemas eficaces   mediante los cuales se pueda compartir la informaci&oacute;n obtenida en programas   de monitoreo aislados&#8212; lo que dificulta que los investigadores o   planificadores de conservaci&oacute;n puedan realizar an&aacute;lisis y tomar decisiones   bas&aacute;ndose en una perspectiva global &#91;2&#93;. Los programas de monitoreo &#8212;que   generalmente incluyen detecci&oacute;n, localizaci&oacute;n, clasificaci&oacute;n y conteo de los   animales en un sitio &#91;4&#93;&#8212; son fundamentales para conocer el estado y las   tendencias de la biodiversidad, identificar especies vulnerables y en riesgo   de extinci&oacute;n, evaluar el impacto de la actividad humana sobre ecosistemas   naturales, hacer seguimiento de especies invasoras y par&aacute;sitos, entre otros   &#91;2&#93;. Los m&eacute;todos tradicionales de levantamiento de informaci&oacute;n en inventarios,   caracterizaciones y monitoreo de fauna dependen del grupo de estudio;   a grandes rasgos se basan en observaciones, capturas-recapturas, trampas, huellas y registros auditivos &#91;5&#93;,&#91;6&#93;.</p>     <p><b>1.1 Importancia de las se&ntilde;ales ac&uacute;sticas en los animales de vida silvestre</b></p>     ]]></body>
<body><![CDATA[<p>   Las se&ntilde;ales ac&uacute;sticas emitidas por grupos taxon&oacute;micos como insectos, anuros,   aves, peces y mam&iacute;feros refuerzan las diferencias entre las especies,   ya que presentan caracter&iacute;sticas que permiten el reconocimiento entre individuos   &#91;7&#93;. Las funciones m&aacute;s conocidas de estas se&ntilde;ales son de car&aacute;cter   sexual, pues implican varios procesos comportamentales como la atracci&oacute;n   y selecci&oacute;n de pareja, y el mantenimiento y defensa de un territorio &#91;8&#93;;   ambos aspectos son cruciales para el flujo gen&eacute;tico, el mantenimiento espec&iacute;fico   de procesos implicados directamente en la evoluci&oacute;n y patrones de   distribuci&oacute;n de las especies &#91;9&#93;. Estudios en biolog&iacute;a de la conservaci&oacute;n han   utilizado las vocalizaciones de la fauna, ya que son muy eficientes para confirmar la presencia de una especie y mucho m&aacute;s en ambientes en donde la   visibilidad es poca, como por ejemplo en los bosques tropicales, en los sistemas   acu&aacute;ticos y en el estudio de especies nocturnas &#91;10&#93;,&#91;11&#93;,&#91;12&#93;,&#91;13&#93;,&#91;14&#93;; en   otros casos han sido empleadas para identificar el sexo, la edad e individuos   &#91;15&#93;,&#91;16&#93;.</p>     <p>En las &uacute;ltimas d&eacute;cadas, el avance en tecnolog&iacute;as que buscan automatizar   el monitoreo de la fauna &#8212;mediante el uso de unidades de grabaci&oacute;n   remota y paquetes anal&iacute;ticos de reconocimiento ac&uacute;stico automatizado de   especies&#8212; est&aacute; transformando la forma como se estudian las interacciones   de los animales y sus h&aacute;bitats &#91;17&#93;,&#91;18&#93;,&#91;19&#93;,&#91;13&#93;. Comparada con las metodolog&iacute;as   de muestreo ac&uacute;stico tradicionales, la toma de muestras automatizada   permite recolectar los ambientes sonoros en diferentes puntos de la   zona de estudio de manera simult&aacute;nea y sistematizada en escalas temporales   amplias, incrementando as&iacute; el tama&ntilde;o de la muestra y por consiguiente aumentando la representatividad del universo muestral &#91;20&#93;.</p>     <p><b>1.2 Bioac&uacute;stica y tecnolog&iacute;a</b></p>     <p>   Los avances tecnol&oacute;gicos y computacionales abren paso a nuevos enfoques   para el censo y recolecci&oacute;n de informaci&oacute;n bioac&uacute;stica a escala mundial &#91;10&#93;.   A trav&eacute;s de hardware especializado (unidades de grabaci&oacute;n remota) es posible   grabar y almacenar enormes cantidades de informaci&oacute;n &#91;21&#93;. Los datos   adquiridos se pueden transmitir, procesar y analizar usando herramientas   computacionales. Esta prometedora herramienta bioac&uacute;stica brinda la capacidad   de ampliar la escala espacio-temporal de los muestreos biol&oacute;gicos   y de realizar an&aacute;lisis que permiten el manejo de vastas cantidades de informaci&oacute;n   para el reconocimiento de especies, lo que se traduce en una   metodolog&iacute;a ideal de monitoreo de la fauna colombiana. Sin embargo, a   pesar de que la tecnolog&iacute;a se presenta como una soluci&oacute;n, existen desaf&iacute;os   que se deben enfrentar; entre ellos est&aacute;n la gran capacidad de almacenamiento   y la velocidad de procesamiento que se requiere, teniendo en cuenta   la magnitud de la informaci&oacute;n que se puede recolectar y, el desarrollo de   algoritmos precisos para la clasificaci&oacute;n y reconocimiento automatizado de   las vocalizaciones espec&iacute;ficas &#91;17&#93;,&#91;22&#93;.</p>     <p>Tradicionalmente, la tarea de la identificaci&oacute;n de especies a trav&eacute;s de sus vocalizaciones requiere de una persona con amplia experiencia. Usualmente, el uso de espectrogramas facilita la identificaci&oacute;n, ya que se emplea no s&oacute;lo la memoria auditiva, sino tambi&eacute;n la visual y de esta manera se refuerza el proceso de aprendizaje. Sin embargo, esta tarea es tit&aacute;nica si se requiere analizar el volumen de informaci&oacute;n bioac&uacute;stica obtenida por las unidades de grabaci&oacute;n remota. El procesamiento automatizado facilita la organizaci&oacute;n y b&uacute;squeda de datos ac&uacute;sticos &#91;23&#93;, mediante t&eacute;cnicas DSP/PR es posible incorporar m&eacute;todos de detecci&oacute;n y localizaci&oacute;n de vocalizaciones de fauna vocalmente activa &#91;4&#93;. Estos m&eacute;todos se pueden usar para contestar una amplia gama de preguntas de investigaci&oacute;n que abordan diferentes escalas biol&oacute;gicas, desde individuos, poblaciones, comunidades y ecosistemas hasta paisajes &#91;10&#93;,&#91;1&#93;. A pesar de que la clasificaci&oacute;n automatizada no es un concepto nuevo, s&iacute; lo es para muchas aplicaciones; la mayor&iacute;a de la investigaci&oacute;n en clasificaci&oacute;n de objetos se ha enfocado en computaci&oacute;n y rob&oacute;tica &#91;18&#93;. &Eacute;ste es un reto multidisciplinario, que requiere de la aplicaci&oacute;n de &aacute;reas relacionadas con bioac&uacute;stica, taxonom&iacute;a, sistem&aacute;tica, ecolog&iacute;a del paisaje sonoro, computaci&oacute;n y electr&oacute;nica.</p>     <p>&nbsp;</p>     <p><b><font size="3">2 Adquisici&oacute;n de informaci&oacute;n</font></b></p>     <p>El monitoreo ac&uacute;stico es un m&eacute;todo no invasivo, lo que implica que no   se requiere capturar individuos para contar con informaci&oacute;n biol&oacute;gica de   inter&eacute;s. Adem&aacute;s, se puede apoyar este tipo de monitoreo mediante el uso   de herramientas tecnol&oacute;gicas disponibles actualmente &#91;19&#93;, obteniendo una   amplia cobertura espacial y temporal, e incluso es posible reducir los costos   que implican otras t&eacute;cnicas. Los componentes b&aacute;sicos de hardware que   se usan para la adquisici&oacute;n de datos son micr&oacute;fonos, grabadoras, fuentes   de energ&iacute;a, mecanismos de inicio y final de grabaciones y cubiertas para   los equipos &#91;24&#93;. Los avances en tecnolog&iacute;a bioac&uacute;stica incluyen el desarrollo   de sistemas de grabaci&oacute;n cableados e inal&aacute;mbricos, que permiten la   recolecci&oacute;n de datos en m&uacute;ltiples lugares a lo largo del tiempo &#91;17&#93;. Los micr&oacute;fonos   utilizados dependen del organismo que se requiera estudiar; hay   micr&oacute;fonos especializados para la captura de infrasonidos (elefantes, cet&aacute;ceos)   y de ultrasonidos (murci&eacute;lagos, algunos insectos). Para la captura   de vocalizaciones de aves, ranas y algunos insectos usualmente se utilizan   micr&oacute;fonos omnidireccionales, los cuales muestrean el sonido con la misma eficiencia en todas las direcciones &#91;17&#93;. En &#91;17&#93;,&#91;18&#93;,&#91;19&#93; se encuentran consideraciones t&eacute;cnicas sobre tipos de micr&oacute;fonos, recomendaciones para la ubicaci&oacute;n de estos en los sitios de monitoreo, y especificaciones sobre equipos y protocolos de comunicaci&oacute;n.</p>     <p>Los sistemas de monitoreo bioac&uacute;stico automatizado requieren de sistemas   de grabaci&oacute;n digitales que se puedan programar, del desarrollo de   un sistema computarizado de reconocimiento y clasificaci&oacute;n de sonidos y   de una alta capacidad de almacenamiento de las grabaciones &#91;3&#93;,&#91;20&#93;; estos   equipos de grabaci&oacute;n se conocen como unidades de grabaci&oacute;n autom&aacute;tica   (ARUs por sus siglas en ingl&eacute;s). Las ARUs pueden programarse para hacer   grabaciones de audio en diferentes horas del d&iacute;a de manera autom&aacute;tica o activarse desde un tel&eacute;fono m&oacute;vil &#91;25&#93;.</p>     <p>Actualmente existe una variada oferta de tipos de equipos de grabaci&oacute;n   automatizada en el mercado, sin embargo, no todos los equipos ofrecen la   misma calidad de grabaci&oacute;n. Las diferencias entre los equipos de grabaci&oacute;n   est&aacute;n vinculadas con varias caracter&iacute;sticas como por ejemplo en la relaci&oacute;n   se&ntilde;al a ruido, en la calidad y dise&ntilde;o de los circuitos electr&oacute;nicos, la configuraci&oacute;n,   la protecci&oacute;n del equipo a las condiciones de intemperie, frecuencia   de muestreo, filtros de reducci&oacute;n de ruido de fondo y cronogramas de programaci&oacute;n   &#91;26&#93;. Las ARUs m&aacute;s utilizadas para este fin son los songmeters, sistemas de grabaci&oacute;n E3A, tel&eacute;fonos m&oacute;viles y accesorios.</p>     ]]></body>
<body><![CDATA[<p>     <blockquote>&bull; <b>Songmeter SM2-GPS</b> (Wildlife Acoustics Inc., Concord, MA, USA, <a href="http://www.wildlifeacoustics.com" target="_blank">http://www.wildlifeacoustics.com</a>): consta de dos micr&oacute;fonos omnidireccionales (respuesta     de muestreo: 20-2000 Hz). Estas unidades de grabaci&oacute;n pueden tener un     cronograma de grabaci&oacute;n de acuerdo a los requerimientos de cada investigaci&oacute;n,     adem&aacute;s est&aacute;n dise&ntilde;adas de tal forma que se pueden conectar hidr&oacute;fonos, micr&oacute;fonos     sensibles al ultrasonido e infrasonido &#91;17&#93;,&#91;27&#93;. Para estudios en donde se     desee triangular el sonido con fines de localizaci&oacute;n de individuos, los SM2 tienen     la opci&oacute;n de ser conectados a un GPS.</blockquote> </p>     <p>     <blockquote> &bull; <b>Sistemas de grabaci&oacute;n E3A</b>: las series Earthsong E3A DSS Bio-Acoustic Monitor     Kit est&aacute;n dise&ntilde;adas para grabar ambientes sonoros con una alta resoluci&oacute;n, en     est&eacute;reo. Este sistema utiliza dos micr&oacute;fonos de condensador electret CZM (<i>Compression     Zone Microphone</i>), y est&aacute; patentado por River Foks Research Corporation     (Patente # US 6,681,023 B1/20 Jan 2004), el cual incorpora una novedosa     tecnolog&iacute;a que combina las propiedades ac&uacute;sticas de un micr&oacute;fono de zona de presi&oacute;n     y un transformador ac&uacute;stico, en donde se incrementa la sensibilidad porque     el sonido se refleja desde una superficie dura, creando una zona de mayor presi&oacute;n     sonora &#91;28&#93;,&#91;29&#93;. El equipo es protegido de la intemperie por una maleta a prueba     de agua &#91;29&#93;.</blockquote> </p>     <p>     <blockquote> &bull; <b>Tel&eacute;fonos m&oacute;viles y accesorios:</b> existen sensores incorporados en tel&eacute;fonos m&oacute;viles que se programan para la captura de audio, tales como micr&oacute;fonos externos     omnidireccionales. Los datos se transmiten a trav&eacute;s de Internet o conexiones     m&oacute;viles a una central de almacenamiento de datos. La energ&iacute;a es suministrada     por paneles solares o bater&iacute;as, algunas de estas unidades tambi&eacute;n utilizan preamplificadores     reguladores de voltaje y controladores de poder<sup><a name="b1"></a><a href="#1">1</a></sup>.</blockquote> </p>     <p>Debido a las diferencias tecnol&oacute;gicas de los equipos disponibles en el   mercado, es recomendable usar un s&oacute;lo tipo de equipo para efectos comparativos   en programas de monitoreo y de esta manera reducir sesgos en la   detectabilidad. En &#91;26&#93; se recomienda que en estudios de corto a mediano   plazo se utilicen los mismos equipos por un m&aacute;ximo de cinco a&ntilde;os, por diferentes   razones primero, debido a que la tecnolog&iacute;a cambia r&aacute;pidamente,   es mejor reemplazar con nuevas versiones de equipos y as&iacute; poder gozar de   las mejoras que los fabricantes hayan realizado; segundo, las versiones antiguas   de los equipos salen del mercado y esto hace que sea casi imposible mantenerlas.</p>     <p>&nbsp;</p>     <p><b><font size="3">3 Herramientas para el reconocimiento automatizado de   se&ntilde;ales bioac&uacute;sticas</font></b></p>     <p>Los procesos de an&aacute;lisis de se&ntilde;ales ac&uacute;sticas se pueden llevar a cabo mediante   algoritmos computacionales de reconocimiento. El objetivo de ello es   tener la capacidad de analizar grandes cantidades de datos en lapsos cortos   de tiempo y, adem&aacute;s, permitir que &eacute;sto se haga de una forma sistematizada.   La tecnolog&iacute;a para el an&aacute;lisis automatizado de sonidos se ha enfocado casi   completamente en reconocimiento del habla humana; sin embargo, hay una   gran necesidad para la detecci&oacute;n automatizada y clasificaci&oacute;n de sonidos   naturales no humanos &#91;30&#93;. En procesamiento de habla se han producido   muchos avances en el an&aacute;lisis de series de tiempo, por esta raz&oacute;n, muchas de   las t&eacute;cnicas que se usan en monitoreo bioac&uacute;stico se apoyan en estas metodolog&iacute;as   &#91;4&#93;. Los modelos de reconocimiento de voz generalmente se basan   en la caracterizaci&oacute;n del vocabulario y la gram&aacute;tica. De manera similar, en   las vocalizaciones de animales ac&uacute;sticamente activos, por ejemplo en aves,   se pueden distinguir unidades b&aacute;sicas similares a los fonemas y, estructuras m&aacute;s complejas como cantos o frases &#91;31&#93;, que son la base para crear los modelos de identificaci&oacute;n automatizada &#91;32&#93;. En la <a href="#f1">Figura 1</a> se presenta un esquema de un sistema de monitoreo automatizado, se resalta que aunque este documento est&aacute; orientado particularmente a los sistemas basados en se&ntilde;ales ac&uacute;sticas, se puede adaptar f&aacute;cilmente a un esquema que incluya datos de im&aacute;genes o datos del entorno tales como ubicaci&oacute;n, condiciones atmosf&eacute;ricas, etc&eacute;tera. En un sistema automatizado se distinguen dos partes: 1) entrenamiento y 2) reconocimiento; en el entrenamiento se dise&ntilde;a el mecanismo de inferencia a partir de informaci&oacute;n <i>a priori</i>; el reconocimiento consiste en el uso del sistema para la clasificaci&oacute;n automatizada de la se&ntilde;al de entrada.</p>     ]]></body>
<body><![CDATA[<p align="center"><a name="f1"></a><img src="/img/revistas/ince/v9n18/v9n18a11f1.jpg"></p>     <p>Los sistemas de reconocimiento basados en bioac&uacute;stica generalmente se   dise&ntilde;an para segmentar grabaciones, identificar la presencia de una especie   objetivo o clasificar un segmento de canto de acuerdo a una baraja de   opciones. Estos sistemas de reconocimiento se han aplicado en diferentes casos, por ejemplo en el enriquecimiento de la informaci&oacute;n de las colecciones de sonidos de tal manera que se facilita la navegaci&oacute;n en bases de datos de audio, adicionando informaci&oacute;n de la localizaci&oacute;n en tiempo y frecuencia de las especies; esta necesidad surge porque aunque las grabaciones en archivos de sonidos de animales usualmente utilizan sistemas de catalogaci&oacute;n mediante una serie de metadatos, es poco frecuente que las grabaciones tengan todas las especies de fondo catalogadas, bien sea por desconocimiento de las vocalizaciones de &eacute;stas o porque el colector no lo menciona &#91;33&#93;.</p>     <p>La elaboraci&oacute;n de algoritmos de clasificaci&oacute;n de especies efectivos es un   paso preliminar dirigido a la extracci&oacute;n de informaci&oacute;n &uacute;til de las grabaciones   recolectadas en el campo &#91;34&#93;. Algunos de los desaf&iacute;os relacionados con   el desarrollo de software de reconocimiento son: los sonidos de animales se   graban en ambientes altamente ruidosos &#91;35&#93;, se pueden presentar distintas   vocalizaciones al mismo tiempo (traslapadas), los individuos emisores de   sonido pueden estar en movimiento (esto causa variaciones en intensidad);   en el caso del reconocimiento automatizado en aves la dificultad depende,   tambi&eacute;n, de la forma como las especies obtienen sus cantos. Las aves se   dividen en dos grandes grupos, los sub-oscines que adquieren su repertorio   de canto netamente a trav&eacute;s de mecanismos gen&eacute;ticos, es decir son 100%   innatos, mientras que otro grupo los oscines o aves cantoras adquieren su   repertorio mediante mecanismos gen&eacute;ticos y procesos de aprendizaje similares   a la adquisici&oacute;n del habla en humanos &#91;36&#93;. Como consecuencia, la   variabilidad en los cantos en individuos y poblaciones de una misma especie   es alta, y es com&uacute;n que en estas especies se presenten dialectos y variaciones   del canto debido a aislamientos geogr&aacute;ficos &#91;37&#93;. Sin embargo, estas especies   presentan llamados de corta duraci&oacute;n que no var&iacute;an sustancialmente entre   poblaciones o notas dentro del canto que tampoco var&iacute;an y que pueden utilizarse como las se&ntilde;ales clave de reconocimiento especie-espec&iacute;fico.</p>     <p><b>3.1 Estimaci&oacute;n del desempe&ntilde;o en sistemas de reconocimiento automatizado</b></p>     <p>La estimaci&oacute;n del desempe&ntilde;o de un sistema de reconocimiento automatizado   es fundamental, siendo necesario conocer la confiabilidad de los datos   etiquetados por el sistema. Una forma b&aacute;sica de estimaci&oacute;n del desempe&ntilde;o   de clasificaci&oacute;n o detecci&oacute;n es la proporci&oacute;n de los objetos etiquetados correctamente, sin embargo, esto puede no ser muy ilustrativo en el caso de problemas desbalanceados, es decir, cuando el n&uacute;mero de objetos de cada clase difiere considerablemente, de manera que un sistema que indistintamente asigne la etiqueta de la clase mayoritaria a todas las muestras, podr&iacute;a reflejar un falso buen desempe&ntilde;o. En &#91;38&#93; se describen medidas de estimaci&oacute;n de la fiabilidad de clasificadores biclase<sup><a name="b2"></a><a href="#2">2</a></sup>, como la sensibilidad y la especificidad; &eacute;stas se pueden aplicar en tareas de reconocimiento multiclase replanteando los problemas como en el caso de la t&eacute;cnica uno contra todos, es decir transformando el problema en varios problemas biclase, tomando en cada uno de ellos una clase como clase objetivo y las dem&aacute;s como no objetivo; o uno contra uno, en donde se eval&uacute;an los desempe&ntilde;os de cada par de clases &#91;21&#93;,&#91;39&#93;,&#91;32&#93;. En los problemas de clasificaci&oacute;n de datos bioac&uacute;sticos, frecuentemente se tiene una alta detecci&oacute;n de falsos positivos &#91;40&#93;. En el caso de problemas multietiqueta &#8212;en donde un objeto puede pertenecer a varias clases&#8212; por ejemplo, en problemas de etiquetado de grabaciones, donde cada una de ellas puede contener vocalizaciones de diferentes especies, existen medidas especiales de estimaci&oacute;n del desempe&ntilde;o, como <i>Hamming loss</i>, <i>Rank loss</i>, <i>One-error</i>, cobertura y <i>Micro-AUC</i> &#91;41&#93;.</p>     <p><b>3.2 Preprocesamiento</b></p>     <p>   El preprocesamiento es el conjunto de t&eacute;cnicas que se usan para mejorar   la calidad de la se&ntilde;al o adaptarla a las condiciones requeridas para procesos   posteriores como los de representaci&oacute;n o clasificaci&oacute;n. Algunos de los   tratamientos que se suelen realizar son: filtrado (atenuaci&oacute;n del ruido), normalizaci&oacute;n   (estandarizaci&oacute;n de la intensidad de la se&ntilde;al de las grabaciones)   y submuestreo (reducci&oacute;n de la cantidad de datos disminuyendo la frecuencia   de muestreo). En los siguientes trabajos se describen algunos ejemplos   de preprocesamiento: en &#91;35&#93; se submuestrean las se&ntilde;ales a 8kHz y se normalizan   en amplitud; en &#91;30&#93; se usa un algoritmo de extracci&oacute;n de se&ntilde;ales   de ruido de fondo que consiste en la aplicaci&oacute;n de filtros en donde el umbral   se ajusta dependiendo de la banda de frecuencia, considerando que el nivel   de ruido de fondo no es el mismo en cada una de ellas; en &#91;41&#93; se normalizan   los valores en el espectrograma y se aplica un filtro para aumentar el contraste de las vocalizaciones y reducir el ruido.</p>     <p><b>3.3 Segmentaci&oacute;n</b></p>     <p>Las grabaciones contienen informaci&oacute;n ac&uacute;stica que no es relevante para los   procesos de automatizaci&oacute;n del reconocimiento de especies, ya que las especies   pueden presentar picos de actividad vocal o sus vocalizaciones est&aacute;n   dispersas en el tiempo. En estos casos se requiere localizar los intervalos   de tiempo que contienen vocalizaciones de animales en la grabaci&oacute;n; este   procedimiento se conoce como segmentaci&oacute;n. Las vocalizaciones de algunos   animales se han jerarquizado, por ejemplo en las aves, &eacute;stas se dividen en   cuatro niveles: notas, s&iacute;labas, frases y cantos &#91;42&#93;; en la literatura se encuentran   varios trabajos orientados a la clasificaci&oacute;n de s&iacute;labas &#91;4&#93;, &#91;32&#93;,&#91;35&#93;,&#91;37&#93;,   &#91;42&#93;,&#91;43&#93;. Los m&eacute;todos de segmentaci&oacute;n m&aacute;s b&aacute;sicos est&aacute;n dise&ntilde;ados para   detectar las regiones con mayor energ&iacute;a &#91;44&#93;, sin embargo, en otros m&eacute;todos   m&aacute;s elaborados se busca detectar trayectorias caracter&iacute;sticas en las representaciones tiempo-frecuencia &#91;37&#93;,&#91;41&#93;,&#91;45&#93;.</p>     <p><b>3.4 M&eacute;todos de representaci&oacute;n</b></p>     ]]></body>
<body><![CDATA[<p>   La representaci&oacute;n de se&ntilde;ales ac&uacute;sticas consiste en la selecci&oacute;n de un conjunto   de variables (llamadas tambi&eacute;n atributos, descriptores o caracter&iacute;sticas)   que describan la informaci&oacute;n contenida en el sonido de una forma compacta,   de tal forma que sea procesable computacionalmente. Existe un gran   n&uacute;mero de caracter&iacute;sticas que se pueden extraer de se&ntilde;ales de audio y se   usan para m&uacute;ltiples prop&oacute;sitos: reconocimiento automatizado de voz, evaluaci&oacute;n   de informaci&oacute;n musical, segmentaci&oacute;n de audio y evaluaci&oacute;n del   sonido ambiental. En &#91;17&#93;,&#91;23&#93;,&#91;24&#93;,&#91;46&#93;,&#91;47&#93; se revisan diversos m&eacute;todos para   representar y procesar datos ac&uacute;sticos. A continuaci&oacute;n se mencionan   algunos descriptores tradicionales:</p>     <p>     <blockquote>&bull; <b>Representaciones tiempo-frecuencia:</b> Las se&ntilde;ales de audio son series de tiempo.     Para el an&aacute;lisis de patrones ac&uacute;sticos generalmente se usa la transformaci&oacute;n     de Fourier, el espacio transformado se conoce como dominio de la frecuencia cuya     unidad de medida m&aacute;s com&uacute;n es el hercio (Hz). Se conoce como espectrograma la     representaci&oacute;n que se obtiene al realizar la transformada de Fourier a intervalos     traslapados de la se&ntilde;al de audio.</blockquote> </p>     <p>     <blockquote>El an&aacute;lisis tiempo-frecuencia de las se&ntilde;ales bioac&uacute;sticas en su gran mayor&iacute;a se     hace usando el espectrograma, adem&aacute;s, &eacute;ste tiene una gran acogida por los bi&oacute;logos     como herramienta de inspecci&oacute;n visual. Sin embargo, en muchas aplicaciones     de DSP se ha usado satisfactoriamente la transformada Wavelet, la cual es una     modificaci&oacute;n de la transformada de Fourier. Esta herramienta matem&aacute;tica ofrece     informaci&oacute;n sobre la localizaci&oacute;n en tiempo y frecuencia de la se&ntilde;al y, al ser una representaci&oacute;n     bidimensional, se puede ilustrar de manera similar al espectrograma.     Algunos trabajos en bioac&uacute;stica resaltan sus propiedades en la representaci&oacute;n de     se&ntilde;ales no estacionarias, con energ&iacute;a dispersa en un amplio rango de frecuencias,     discontinuas y con picos de energ&iacute;a &#91;10&#93;,&#91;48&#93;,&#91;49&#93;.</blockquote> </p>     <p>     <blockquote> &bull; <b>Los coeficientes cepstrales en las frecuencias de Mel:</b> Estos coeficientes,     com&uacute;nmente conocidos por la sigla MFCCs (<i>Mel frequency cepstral coefficients</i>),     son una de las representaciones m&aacute;s usadas para la clasificaci&oacute;n de audio. A     diferencia de la representaci&oacute;n en el dominio de la frecuencia de Fourier, en los     MFCCs la unidad de medida son los mels, en donde la escala de frecuencia se     ubica de forma logar&iacute;tmica, con lo cual se busca que la representaci&oacute;n se acerque     mejor a la percepci&oacute;n auditiva humana &#91;34&#93;.</blockquote> </p>     <p>     <blockquote> &bull; <b>Codificaci&oacute;n predictiva lineal:</b> La codificaci&oacute;n predictiva lineal (<i>Linear predictive     coding</i>, LPC) se basa en un an&aacute;lisis auto-regresivo, en donde se usa un     predictor lineal para estimar el valor de cada muestra de una se&ntilde;al por una combinaci&oacute;n     lineal de valores anteriores. El objetivo de la LPC es estimar par&aacute;metros     b&aacute;sicos, como las frecuencias formantes &#91;47&#93;, que corresponden a las bandas de     frecuencia donde se concentra la mayor parte de la energ&iacute;a de la se&ntilde;al ac&uacute;stica.</blockquote> </p>     <p><b>3.5 M&eacute;todos de clasificaci&oacute;n</b></p>     ]]></body>
<body><![CDATA[<p>   Gracias al desarrollo de t&eacute;cnicas de aprendizaje supervisado se pueden clasificar   datos bioac&uacute;sticos de forma r&aacute;pida y precisa. La clasificaci&oacute;n de vocalizaciones   de animales tradicionalmente se ha relegado a enfoques cualitativos,   estos requieren de un gran consumo de tiempo y frecuentemente est&aacute;n   sesgados por la subjetividad &#91;21&#93;. En esta revisi&oacute;n se usa el t&eacute;rmino detecci&oacute;n   en los problemas cuyo objetivo es localizar la ubicaci&oacute;n temporal de la   emisi&oacute;n de la vocalizaci&oacute;n de una especie objetivo &#91;4&#93;,&#91;22&#93;,&#91;23&#93;,&#91;34&#93;,&#91;35&#93;,&#91;50&#93;.   El t&eacute;rmino clasificaci&oacute;n se usa para etiquetar un canto &#91;17&#93;,&#91;21&#93;,&#91;24&#93;,&#91;30&#93;, para   ello se usa un algoritmo conocido como clasificador, cuya entrada corresponde   a un conjunto de valores relacionados con atributos o caracter&iacute;sticas   del objeto; el clasificador requiere entrenarse previamente con un conjunto   de datos estad&iacute;sticamente representativos. Generalmente, en la etapa de   preprocesamiento de los problemas de clasificaci&oacute;n se requiere la aplicaci&oacute;n   de algoritmos de segmentaci&oacute;n; en &#91;4&#93;, por ejemplo, en donde se denomina como unidad de reconocimiento a cada s&iacute;laba segmentada. Un desaf&iacute;o que   no se ha estudiado a profundidad, teniendo en cuenta las variaciones temporales   y geogr&aacute;ficas de las vocalizaciones de animales, es el desarrollo de   sistemas aut&oacute;nomos adaptativos que se acomoden a nuevas circunstancias   con ninguna o poca intervenci&oacute;n humana; un trabajo que tiene en cuenta   esto es &#91;23&#93;, en donde para la clasificaci&oacute;n y detecci&oacute;n se usa una metodolog&iacute;a   llamada sistema de soporte en l&iacute;nea de memoria perceptual (MESO:   <i>Perceptual Memory to Support Online Learning in Adaptive Software</i>).</p>     <p><b>3.5.1 Algoritmos de clasificaci&oacute;n.</b> Los algoritmos de clasificaci&oacute;n se   usan para asignar etiquetas de clase a objetos ubicados en un espacio de   representaci&oacute;n o descritos por caracter&iacute;sticas &#91;51&#93;,&#91;52&#93;. Dentro del &aacute;rea de   reconocimiento de patrones, existen muchos algoritmos de clasificaci&oacute;n establecidos,   algunos de ellos se plantean como funciones matem&aacute;ticas que   mapean los valores de entrada a un conjunto con valores categ&oacute;ricos. Los   siguientes clasificadores se han usado frecuentemente en reconocimiento de   se&ntilde;ales bioac&uacute;sticas: <i>k</i> vecinos m&aacute;s cercanos <i>(k nearest neighbors</i>, kNN)   &#91;35&#93;, m&aacute;quinas de vectores de soporte (<i>Support Vector Machine</i>, SVM)   &#91;3&#93;,&#91;21&#93;,&#91;22&#93;, bosque aleatorio &#91;21&#93;,&#91;22&#93;, <i>Boosting</i> adaptativo &#91;22&#93;, funciones discriminantes &#91;3&#93;,&#91;21&#93;, redes neuronales &#91;42&#93;, entre otros.</p>     <p>Frecuentemente, los problemas de clasificaci&oacute;n se plantean en t&eacute;rminos   probabil&iacute;sticos. Particularmente en reconocimiento de audio se usa la t&eacute;cnica   conocida por la sigla en ingl&eacute;s HMMs (<i>hidden Markov models</i>). Estos   modelos son un m&eacute;todo probabil&iacute;stico que ha sido usado amplia y exitosamente   en diferentes escenarios de reconocimiento automatizado tales como   la identificaci&oacute;n de habla y hablante, la clasificaci&oacute;n de se&ntilde;ales s&iacute;smicas y   la clasificaci&oacute;n de secuencias de genes. Los HMMs resultan muy apropiados   para el an&aacute;lisis de se&ntilde;ales bioac&uacute;sticas debido a su capacidad de tratar datos   secuenciales con alta variabilidad (e, incluso, de diferentes longitudes)   &#91;34&#93;,&#91;8&#93;,&#91;32&#93;. Estos cuentan con una clara y elegante interpretaci&oacute;n bayesiana,   adem&aacute;s, se han desarrollado algoritmos r&aacute;pidos y eficientes para realizar el entrenamiento y la prueba de los modelos &#91;53&#93;.</p>     <p>&nbsp;</p>     <p><b><font size="3">4 Ejemplos de aplicaci&oacute;n de monitoreo bioac&uacute;stico   automatizado</font></b></p>     <p>   Actualmente, se est&aacute;n desarrollando redes de sensores inal&aacute;mbricos que   permiten adquirir paquetes de datos bioac&uacute;sticos y datos ambientales (luz,   velocidad del viento, humedad relativa, temperatura, precipitaci&oacute;n, etc&eacute;tera)   simult&aacute;neamente, en diferentes escalas espaciales, en conjunto producen   una recolecci&oacute;n de datos ecol&oacute;gicos muy relevantes &#91;54&#93;. Una vez recolectados,   los datos pueden ser agrupados y transmitidos a trav&eacute;s de una red   de computadores hacia un laboratorio de an&aacute;lisis bioac&uacute;stico en donde se   cuenta con la infraestructura necesaria para el almacenamiento, y capacidad   t&eacute;cnica interdisciplinaria necesaria para el an&aacute;lisis de los procesos y   patrones de la diversidad de la fauna vocalmente activa. El ciclo se cierra   en la constante divulgaci&oacute;n de la informaci&oacute;n ambiental y ecol&oacute;gica, lo cual   es la base para comunicar a aquellos responsables de tomar decisiones sobre   la conservaci&oacute;n y el manejo del medio ambiente y para una divulgaci&oacute;n   transparente para el p&uacute;blico en general. La clasificaci&oacute;n automatizada de   las vocalizaciones de diferentes especies (ya sea especies clave o un ensamble   de especies) tiene el potencial de incrementar el conocimiento sobre los   cambios de los ecosistemas debido a vectores de transformaci&oacute;n (cambios de   uso del suelo) y sus efectos sobre los patrones y procesos de la biodiversidad   &#91;23&#93;,&#91;25&#93;,&#91;55&#93;.</p>     <p><b>4.1 Reconocimiento bioac&uacute;stico de poblaciones</b></p>     <p>   Los estudios de poblaciones requieren de datos de alta calidad, y una forma   de obtenerlos es mediante el reconocimiento de individuos &#91;56&#93;. Existen   muchas t&eacute;cnicas que se han implementado para este fin, pero la mayor&iacute;a   utilizan capturas y marcaje, y a pesar de que a trav&eacute;s de ellas se obtiene   informaci&oacute;n valiosa, pueden causar cambios en el comportamiento de los   individuos y hacerlos m&aacute;s visibles ante los predadores &#91;57&#93;. La individualidad   en las vocalizaciones ha sido demostrada en diferentes especies de aves   &#91;58&#93;, as&iacute; como en cet&aacute;ceos &#91;59&#93; y elefantes. Las se&ntilde;ales ac&uacute;sticas tienen el   potencial de ser usadas como una alternativa al marcaje tradicional &#91;57&#93;. El   uso de an&aacute;lisis can&oacute;nicos discriminantes (DCA) fue efectivo para la correcta   identificaci&oacute;n de 12 individuos del ave Formicario mexicano (<i>Formicarius monilinguer</i>), en bosques h&uacute;medos tropicales de M&eacute;xico y esta t&eacute;cnica de   monitoreo permiti&oacute; mapear los territorios y monitorear la din&aacute;mica espacial   y temporal de individuos previamente marcados y posteriormente   reconocidos por sus vocalizaciones, gracias a lo cual se conocen aspectos   comportamentales sexuales, sus movimientos en el tiempo, interacciones   con el ambiente y din&aacute;micas poblacionales &#91;16&#93;.</p>     <p><b>4.2 Reconocimiento bioac&uacute;stico de comunidades</b></p>     <p>El monitoreo ac&uacute;stico puede proveer datos confiables en riqueza y composici&oacute;n   de especies. Esta t&eacute;cnica de monitoreo es un m&eacute;todo eficiente y   efectivo para evaluar la biodiversidad y sus cambios en escalas temporales y   espaciales amplias. Las grabaciones con un &uacute;nico micr&oacute;fono se han utilizado   ampliamente para medir la riqueza y composici&oacute;n de especies, en aves,   murci&eacute;lagos, ranas e insectos &#91;17&#93;. La necesidad de implementar un sistema   de monitoreo bioac&uacute;stico automatizado naci&oacute; en la d&eacute;cada de los noventa,   con estudios que buscaron evaluar la composici&oacute;n de especies de aves terrestres   migratorias que hacen sus viajes durante la noche &#91;60&#93;,&#91;61&#93;, desde   los sitios en donde se reproducen en el hemisferio norte hacia el hemisferio   sur donde se resguardan de la &eacute;poca de invierno. Muchas de estas especies   emiten cortos llamados mientras vuelan &#91;62&#93;. Estos llamados son especieespec&iacute;ficos   y se cree que son utilizados por la dificultad de la comunicaci&oacute;n   visual; as&iacute;, la bandada mantiene la ubicaci&oacute;n espacial con el fin de evitar   colisiones, mantiene tambi&eacute;n la cohesi&oacute;n durante el vuelo y puede estimar   la direcci&oacute;n del viento. Con el fin de automatizar la clasificaci&oacute;n de estos   llamados por especies, Mills &#91;60&#93; cre&oacute; un software para detectar esas vocalizaciones,   en un rango de frecuencias entre 5 y 9 kHz, de duraci&oacute;n entre los   50 y 100 ms. La detecci&oacute;n utiliz&oacute; los picos temporales de los llamados en   las bandas de energ&iacute;a, para la clasificaci&oacute;n se utilizaron redes neuronales.   Otra aproximaci&oacute;n al mismo problema utiliz&oacute; los &aacute;rboles de decisi&oacute;n. Este   sistema de reconocimiento automatizado fue probado para 138 especies migratorias   nocturnas australianas, 85% de los llamados fueron clasificadas correctamente, 4% incorrectamente y 8% incierto.</p>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p><b><font size="3">5 Proyectos de monitoreo bioac&uacute;stico automatizado</font></b></p>     <p>   Los siguientes son proyectos de monitoreo bioac&uacute;stico automatizado que   se est&aacute;n desarrollando en la actualidad. En general ellos disponen de herramientas   tecnol&oacute;gicas, hardware, software, equipos de comunicaciones y   personal especializado:</p>     <p>     <blockquote>&bull; En Estados Unidos (EEUU), el programa de investigaci&oacute;n en bioac&uacute;stica <i>BRP</i>    (Bioacoustic Research Program) <sup><a name="b3"></a><a href="#3">3</a></sup> del Laboratorio de Ornitolog&iacute;a de la Universidad     Cornell, en Ithaca Nueva York, desarrolla equipos de grabaci&oacute;n y software     que usan cient&iacute;ficos alrededor del mundo para estudiar la comunicaci&oacute;n entre animales     y monitorear la salud de las poblaciones de vida silvestre. Este laboratorio     tiene dos ramas de investigaci&oacute;n una de ellas en comunicaci&oacute;n animal, en donde     se llevan a cabo varios proyectos sobre monitoreo bioac&uacute;stico y movimientos de     varias especies, investigaciones que est&aacute;n en la vanguardia en la comprensi&oacute;n de     patrones de migraci&oacute;n y comunicaci&oacute;n. La segunda rama de investigaci&oacute;n es sobre     algoritmos para desarrollo de software y m&eacute;todos para el procesamiento de     se&ntilde;ales, con el fin de detectar, reconocer, localizar y hacer estudios comparativos     de los sonidos de los animales.</blockquote> </p>     <p>     <blockquote> &bull; En Puerto Rico, el proyecto <i>ARBIMON</i> (Automated Remote BIodiversity MONitoring     Network)<sup><a name="b4"></a><a href="#4">4</a></sup> cuenta con estaciones temporales y permanentes de grabaci&oacute;n     y transmisi&oacute;n de archivos de audio, software para el manejo de base de datos y la     clasificaci&oacute;n autom&aacute;tica de especies. Adem&aacute;s, se desarrolla investigaci&oacute;n orientada     a la recolecci&oacute;n de informaci&oacute;n ambiental mediante im&aacute;genes satelitales.</blockquote> </p>     <p>     <blockquote> &bull; En Europa, el proyecto <i>AMIBIO</i> (Automatic acoustic Monitoring and Inventorying     of BIOdiversity)<sup><a name="b5"></a><a href="#5">5</a></sup> desarrolla estaciones aut&oacute;nomas con m&uacute;ltiples sensores en     la regi&oacute;n de Himeto (Grecia). Las estaciones de monitoreo se alimentan mediante     p&aacute;neles solares y se usan para grabar y transmitir se&ntilde;ales de audio y datos     clim&aacute;ticos. Los objetivos del proyecto son: evaluar la biodiversidad, estimar la     densidad de animales, detectar la presencia o ausencia de especies raras o en     peligro en &aacute;reas de dif&iacute;cil acceso, estimar la salud de ciertas especies, advertir     la presencia de sonidos at&iacute;picos tales como la presencia de cazadores y detectar     posibles desastres naturales inducidos por la actividad humana.</blockquote> </p>     <p>     ]]></body>
<body><![CDATA[<blockquote> &bull; El Laboratorio de Evaluaci&oacute;n Ambiental Remota <i>REAL</i> (Remote Environmental     Assessment Laboratory)<sup><a name="b6"></a><a href="#6">6</a></sup> de la Universidad del Estado de Michigan estableci&oacute;     un observatorio ecol&oacute;gico a trav&eacute;s de sensores para monitorear el ambiente de     manera automatizada mediante una red de sensores que recolectan los datos de     forma programada. Los paisajes sonoros son analizados en tiempo real con el fin de identificar las especies bas&aacute;ndose en las vocalizaciones que emiten. Esta     informaci&oacute;n es la base para las investigaciones bioac&uacute;sticas e &iacute;ndices ecol&oacute;gicos.     Toda esta informaci&oacute;n se almacena en una base de datos que se puede consultar     por Internet.</blockquote> </p>     <p>&nbsp;</p>     <p><b><font size="3">6 Software comercial o libre</font></b></p>     <p>Los siguientes son programas computacionales que poseen herramientas   de tratamiento de se&ntilde;ales de audio y que se han usado para el an&aacute;lisis y reconocimiento bioac&uacute;stico:</p>     <p>     <blockquote>&bull; Avisoft (<a href="http://www.avisoft.com/" target="_blank">http://www.avisoft.com/</a>): herramienta para el an&aacute;lisis, edici&oacute;n y clasificaci&oacute;n     de sonidos. Software comercial, posee una versi&oacute;n ''lite'' para descargar.</blockquote> </p>     <p>     <blockquote> &bull; PAMGUARD (<a href="http://www.pamguard.org/" target="_blank">http://www.pamguard.org/</a>): software especializado en la detecci&oacute;n,     localizaci&oacute;n y clasificaci&oacute;n de mam&iacute;feros marinos. C&oacute;digo abierto.</blockquote> </p>     <p>     <blockquote> &bull; Raven (<a href="http://www.birds.cornell.edu/brp/raven/RavenOverview.html" target="_blank">http://www.birds.cornell.edu/brp/raven/RavenOverview.html</a>): software     de an&aacute;lisis de sonidos del BRP de la Universidad Cornell. Software disponible     en versiones comercial y libre.</blockquote> </p>     ]]></body>
<body><![CDATA[<p>     <blockquote> &bull; Song Scope (<a href="http://www.wildlifeacoustics.com/products/song-scope-overview" target="_blank">http://www.wildlifeacoustics.com/products/song-scope-overview</a>):     herramienta de an&aacute;lisis y reconocimiento de sonidos. Software comercial, tiene una     versi&oacute;n de prueba de 15 d&iacute;as.</blockquote> </p>     <p>     <blockquote> &bull; SoundID (<a href="http://www.soundid.net/" target="_blank">http://www.soundid.net/</a>): herramienta de detecci&oacute;n y reconocimiento     de sonidos. Software comercial, tiene una versi&oacute;n de prueba de 30 d&iacute;as.</blockquote> </p>     <p>     <blockquote> &bull; XBAT (<a href="http://www.birds.cornell.edu/brp/software" target="_blank">http://www.birds.cornell.edu/brp/software</a>): herramienta de an&aacute;lisis     de sonidos desarrollada con el software de an&aacute;lisis matem&aacute;tico MATLAB. C&oacute;digo     abierto (MATLAB tiene licencia comercial).</blockquote> </p>     <p>     <blockquote> &bull; SonoBat (<a href="http://www.sonobat.com/" target="_blank">http://www.sonobat.com/</a>): herramienta de an&aacute;lisis y reconocimiento     de vocalizaciones de murci&eacute;lagos. Software comercial y versi&oacute;n de prueba.</blockquote> </p>     <p>&nbsp;</p>     <p><b><font size="3">7 Retos y oportunidades para Colombia</font></b></p>     ]]></body>
<body><![CDATA[<p>   Colombia es un pa&iacute;s rico en biodiversidad y fauna vocalmente activa, cuenta   con m&aacute;s de 1.860 especies de aves &#91;5&#93;, 763 especies de anfibios, 479   especies de mam&iacute;feros, 2.000 especies de peces marinos y 1.435 especies de   peces dulceacu&iacute;colas<sup><a name="b7"></a><a href="#7">7</a></sup>. Las aves son un grupo que ha sido utilizado como   indicador de cambios en la naturaleza, est&aacute;n distribuidas ampliamente, son f&aacute;ciles de detectar por sus sonidos y, en comparaci&oacute;n con otros grupos de   animales, se cuenta con gran conocimiento de la biolog&iacute;a de la mayor&iacute;a de   las especies. En Colombia existen cerca de 20 asociaciones de ornitolog&iacute;a   dispersas por el territorio nacional, las cuales pueden presentar inter&eacute;s en   este tipo de monitoreo. A escala global, la contribuci&oacute;n de asociaciones ornitol&oacute;gicas   y de observadores de aves ha incrementado el conocimiento de   las tendencias poblacionales de las aves, especialmente en Europa y Norte   Am&eacute;rica. En Colombia, desde 1987, se han realizado censos anuales de aves,   los cuales han contribuido con el incremento del conocimiento y la cohesi&oacute;n   de las asociaciones ornitol&oacute;gicas; el m&eacute;todo de muestreo empleado en   estos censos anuales es puntos de conteo. Si las asociaciones ornitol&oacute;gicas   implementaran un sistema de monitoreo ac&uacute;stico automatizado, bajo un   dise&ntilde;o experimental sistematizado podr&iacute;an operar no s&oacute;lo por una vez al   a&ntilde;o, sino tener datos a escalas temporales y espaciales m&aacute;s amplias y de   esta manera, contar con informaci&oacute;n a diferentes niveles, de comunidades   y poblaciones.</p>     <p>Es cada vez m&aacute;s creciente el inter&eacute;s de diferentes entidades ante este   tipo de aproximaci&oacute;n a la biodiversidad, como por ejemplo fundaciones y   organizaciones no gubernamentales (ONGs), instancias acad&eacute;micas en diferentes   zonas de Colombia, quienes en conjunto podr&iacute;an realizar nodos de   monitoreo, bajo un sistema estandarizado de toma de datos en campo e   identificaci&oacute;n de especies en laboratorio. El Instituto Humboldt cuenta con   dos soportes ideales para el desarrollo de un sistema de monitoreo bioac&uacute;stico:   la Colecci&oacute;n de Sonidos Ambientales y el Laboratorio de Biogeograf&iacute;a   Aplicada y Bioac&uacute;stica. La Colecci&oacute;n de Sonidos tiene la capacidad para   ser el centro de almacenamiento de los espec&iacute;menes bioac&uacute;sticos; de esta   manera, se garantiza su protecci&oacute;n a largo plazo, y en conjunto con entidades   acad&eacute;micas con experiencia en ingenier&iacute;a electr&oacute;nica, ciencias de   la computaci&oacute;n e inform&aacute;tica y/o bioac&uacute;stica nacionales e internacionales,   podr&iacute;an ofrecer las herramientas para la automatizaci&oacute;n del reconocimiento   de las especies de fauna vocalmente activa, publicar esta informaci&oacute;n de   manera gratuita y tener un sistema de informaci&oacute;n en l&iacute;nea sobre este tipo de monitoreo.</p>     <p>El monitoreo bioac&uacute;stico automatizado es una herramienta llamativa en   diferentes contextos, por ejemplo para el turismo ornitol&oacute;gico en Colombia, ya que es posible el desarrollo de aplicaciones para tel&eacute;fonos m&oacute;viles, y de esta manera se facilita el reconocimiento de las especies en campo. El uso de sonidos de la fauna en sistemas educativos mediante textos escolares multimedia concientizar&iacute;a a un p&uacute;blico infantil sobre la alta biodiversidad del pa&iacute;s. Adicionalmente, incrementar el conocimiento de este tipo de monitoreo en Colombia permitir&aacute; que empresas privadas tengan sistemas de monitoreo confiables y eficaces, con un soporte f&iacute;sico de la evidencia de la presencia de las especies en sus zonas de acci&oacute;n, ideal para estudios de impacto y planes de manejo ambiental que la Autoridad Nacional de Licencias Ambientales (ANLA) exige.</p>     <p>En cuanto al dise&ntilde;o e implementaci&oacute;n de un sistema de reconocimiento   automatizado, hay tres cuellos de botella: a) recolecci&oacute;n de un n&uacute;mero   estad&iacute;sticamente suficiente de ejemplos de vocalizaciones de las especies   objetivo y no objetivo; b) segmentaci&oacute;n de las grabaciones para extraer   las vocalizaciones y descartar porciones de audio que no sean de inter&eacute;s;   c) transformaci&oacute;n de un sistema prototipo a uno definitivo, esto se refiere   al desarrollo de interfaces de usuario, manuales, legalizaci&oacute;n de licencias y   en general todo lo que se debe adicionar al sistema para ponerlo en funcionamiento.   Las tareas a) y b) requieren m&aacute;s que experiencia t&eacute;cnica en   inform&aacute;tica y electr&oacute;nica, la colaboraci&oacute;n de expertos en ecolog&iacute;a, esto se   puede llevar a cabo a trav&eacute;s de convenios de cooperaci&oacute;n entre grupos o   instituciones con personal capacitado en ciencia y tecnolog&iacute;a. Una vez se   cuenta con un conjunto de ejemplos para la generaci&oacute;n de un prototipo de   reconocimiento automatizado, la transformaci&oacute;n a uno definitivo y la instalaci&oacute;n   son actividades que implican inversi&oacute;n en personal y, en la compra de equipos y software.</p>     <p>&nbsp;</p>     <p><b><font size="3">8 Conclusiones</font></b></p>     <p>Las herramientas tecnol&oacute;gicas disponibles actualmente, de adquisici&oacute;n, almacenamiento   y procesamiento de informaci&oacute;n, se pueden usar como apoyo   a actividades de recolecci&oacute;n ambiental facilitando tareas como: conteo de   especies, evaluaci&oacute;n r&aacute;pida de la biodiversidad con amplia cobertura espacial   y temporal, enriquecimiento de la informaci&oacute;n en los estudios de ecolog&iacute;a   y conservaci&oacute;n, desarrollo de actividades de monitoreo automatizado, monitoreo de especies raras o en peligro, detecci&oacute;n de especies invasoras, estimaci&oacute;n del impacto del cambio clim&aacute;tico, an&aacute;lisis de los efectos de la actividad antropog&eacute;nica, entre otras &#91;19&#93;.</p>     <p>Las se&ntilde;ales ac&uacute;sticas ambientales no se pueden adquirir en condiciones   controladas, de manera que los sistemas automatizados de reconocimiento   deben contar con m&eacute;todos robustos al ruido, a las variaciones en intensidad   y deben ser r&aacute;pidos (teniendo en cuenta la gran cantidad de datos que se   requiere inspeccionar). Adem&aacute;s, considerando la naturaleza aleatoria y no   estacionaria de las se&ntilde;ales bioac&uacute;sticas (variaciones temporales y espaciales   de sus par&aacute;metros), estos sistemas deber&iacute;an permitir la inclusi&oacute;n peri&oacute;dica de correcciones sugeridas por expertos.</p>     <p>El monitoreo bioac&uacute;stico tiene el potencial de suplir informaci&oacute;n en   tiempo real de varios grupos taxon&oacute;micos simult&aacute;neamente, de manera sistematizada,   abarcando amplias escalas tanto espaciales como temporales.   Mediante este tipo de monitoreo se puede contar con informaci&oacute;n precisa   sobre el comportamiento de las din&aacute;micas de la naturaleza ante factores   de cambio, tensores que est&aacute;n asociados al desarrollo de la sociedad, por   ejemplo la miner&iacute;a, la agricultura, la infraestructura, as&iacute; como factores derivados   del desarrollo humano, como el cambio clim&aacute;tico. El uso de esta   novedosa t&eacute;cnica de monitoreo permite crear sistemas de alerta temprana   con alta eficacia, de tal manera que da un soporte con base en datos contempor&aacute;neos, a los tomadores de decisiones ambientales.</p>     <p>En el mundo se han desarrollado exitosamente investigaciones y proyectos   sobre monitoreo de la biodiversidad usando este tipo de herramientas   tecnol&oacute;gicas. La cooperaci&oacute;n entre instituciones facilitar&aacute; la implementaci&oacute;n   y el uso de esta tecnolog&iacute;a en el pa&iacute;s; un esquema de monitoreo   bioac&uacute;stico automatizado est&aacute;ndar permite unificar esfuerzos aislados de   investigaciones relacionadas con el tema. Siendo Colombia un pa&iacute;s megadiverso,   con alto n&uacute;mero de especies, end&eacute;micas, amenazadas y ecosistemas   estrat&eacute;gicos se justifican los esfuerzos por implementar este tipo de sistemas de monitoreo de nuestra biodiversidad.</p>     ]]></body>
<body><![CDATA[<p>&nbsp;</p> <hr size="1" />     <p><b><font size="3">Notas al pie</font></b></p>     <p><a name="1"></a><a href="#b1">1</a> <a href="http://arbimon.com/arbimon/index.php/products-acoustics" target="_blank">http://arbimon.com/arbimon/index.php/products-acoustics</a></p>     <p><a name="2"></a><a href="#b2">2</a> Problema de clasificaci&oacute;n con dos clases en donde los objetos pueden pertenecer a   una clase denominada como clase positiva u objetivo o a otra denominada como negativa o no objetivo.</p>     <p><a name="3"></a><a href="#b3">3</a> <a href="http://www.birds.cornell.edu/brp/" target="_blank">http://www.birds.cornell.edu/brp/</a></p>     <p>   <a name="4"></a><a href="#b4">4</a> <a href="http://arbimon.com/" target="_blank">http://arbimon.com/</a> </p>     <p><a name="5"></a><a href="#b5">5</a> <a href="http://www.amibio-project.eu/" target="_blank">http://www.amibio-project.eu/</a> </p>     <p><a name="6"></a><a href="#b6">6</a> <a href="http://www.real.msu.edu/" target="_blank">http://www.real.msu.edu/</a></p>     <p><a name="7"></a><a href="#b7">7</a> <a href="https://www.siac.gov.co/contenido/contenido.aspx?conID=1252&catID=52" target="_blank">https://www.siac.gov.co/contenido/contenido.aspx?conID=1252&amp;catID=52</a></p> <hr size="1" />     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p>&nbsp; </p>     <p><b><font size="3">Agradecimientos</font></b></p>     <p>   Esta revisi&oacute;n se realiz&oacute; en el marco del convenio de cooperaci&oacute;n no. 12-   020 celebrado entre el Instituto de Investigaci&oacute;n de Recursos Biol&oacute;gicos ''Alexander von Humboldt'' y la Universidad Nacional de Colombia - Sede   Manizales.</p>     <p>&nbsp;</p>     <p><b><font size="3">Referencias </font></b></p>     <!-- ref --><p>&#91;1&#93; M. Depraetere, S. Pavoine, F. Jiguet, A. Gasc, S. Duvail, and J. Sueur, ''Monitoring   animal diversity using acoustic indices: Implementation in a temperate woodland,''   <i>Ecological Indicators</i>, vol. 13, no. 1, pp. 46 &#8211; 54, 2012.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000138&pid=S1794-9165201300020001100001&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 172, 175</p>     <!-- ref --><p>&#91;2&#93; D. M. Marsh and P. C. Trenham, ''Current trends in plant and animal population   monitoring,'' <i>Conservation Biology</i>, vol. 22, no. 3, pp. 647&#8211;655, 2008.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000140&pid=S1794-9165201300020001100002&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 173</p>     <!-- ref --><p>&#91;3&#93; M. A. Acevedo, C. J. Corrada-Bravo, H. Corrada-Bravo, L. J. Villanueva-Rivera,   and T. M. Aide, ''Automated classification of bird and amphibian calls using machine   learning: A comparison of methods,'' <i>Ecological Informatics</i>, vol. 4, no. 4, pp.   206 &#8211; 214, 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000142&pid=S1794-9165201300020001100003&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 173, 176, 183</p>     <!-- ref --><p>&#91;4&#93; C.-H. Lee, C.-C. Han, and C.-C. Chuang, ''Automatic classification of bird species   from their sounds using two-dimensional cepstral coefficients,'' <i>IEEE Transactions   on Audio, Speech, and Language Processing</i>, vol. 16, no. 8, pp. 1541 &#8211;1550, Nov.   2008.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000144&pid=S1794-9165201300020001100004&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 173, 175, 177, 181, 182</p>     <!-- ref --><p>&#91;5&#93; J. E. Botero, D. Arbel&aacute;ez, and G. M. Lentijo, ''M&eacute;todos para estudiar las aves,''   <i>Biocarta</i>, no. 8, pp. 1&#8211;4, Jul. 2005. &#91;Online&#93;. Available: <a href="http://www.rnoa.org/sco/pdf/Biocarta008.pdf" target="_blank">http://www.rnoa.org/sco/pdf/Biocarta008.pdf</a> 173,    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000146&pid=S1794-9165201300020001100005&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 187</p>     <!-- ref --><p>&#91;6&#93; W. J. Sutherland, <i>Ecological census techniques: a handbook</i>, 2nd ed. Cambridge   University Press, 2006.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000148&pid=S1794-9165201300020001100006&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 173</p>     <!-- ref --><p>&#91;7&#93; C. Ten Cate, ''Birdsong and Evolution,'' in <i>Nature's music: the science of birdsong</i>,   2004, ch. 10, pp. 296&#8211;317.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000150&pid=S1794-9165201300020001100007&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 173</p>     <!-- ref --><p>&#91;8&#93; W. Chu and D. T. Blumstein, ''Noise robust bird song detection using syllable   pattern-based hidden Markov models,'' in <i>IEEE International Conference on Acoustics,   Speech and Signal Processing (ICASSP)</i>, 2011, may 2011, pp. 345 &#8211;348.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000152&pid=S1794-9165201300020001100008&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 173,   183</p>     <!-- ref --><p>&#91;9&#93; B. R. Grant and P. R. Grant, ''Hybridization and speciation in darwin's finches: the   role of sexual imprinting on a culturally transmitted trait,'' <i>Endless Forms: Species   and Speciation</i>, pp. 404&#8211;422, 1998.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000154&pid=S1794-9165201300020001100009&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 173</p>     <!-- ref --><p>&#91;10&#93; R. Bardeli, D. Wolff, F. Kurth, M. Koch, K. H. Tauchert, and K.-H. Frommolt,   ''Detecting bird sounds in a complex acoustic environment and application to bioacoustic   monitoring,'' <i>Pattern Recognition Letters</i>, vol. 31, no. 12, pp. 1524&#8211;1534,   Sep. 2010.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000156&pid=S1794-9165201300020001100010&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 174, 175, 182</p>     <!-- ref --><p>&#91;11&#93; D. C. Cugler, C. B. Medeiros, and L. F. Toledo, ''Managing animal sounds-some   challenges and research directions,'' in <i>Proceedings V eScience Workshop-XXXI Brazilian Computer Society Conference</i>, 2011.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000158&pid=S1794-9165201300020001100011&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 174</p>     <!-- ref --><p>&#91;12&#93; A. Farnsworth and R. W. Russell, ''Monitoring flight calls of migrating birds from   an oil platform in the northern gulf of mexico,'' <i>Journal of Field Ornithology</i>, vol. 78,   no. 3, pp. 279&#8211;289, 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000160&pid=S1794-9165201300020001100012&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 174</p>     <!-- ref --><p>&#91;13&#93; D. Mennill and S. Vehrencamp, ''Context-dependent functions of avian duets revealed   through microphone array recordings and multi-speaker playback,'' <i>Current   Biology</i>, vol. 18, pp. 1314&#8211;1319, 2008.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000162&pid=S1794-9165201300020001100013&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 174</p>     <!-- ref --><p>&#91;14&#93; K. J. Odom and D. J. Mennill, ''A quantitative description of the vocalizations and   vocal activity of the barred owl,'' <i>The Condor</i>, vol. 112, no. 3, pp. 549&#8211;560, 2010.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000164&pid=S1794-9165201300020001100014&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->   174</p>     <!-- ref --><p>&#91;15&#93; S. Gaunt and A. McCallum, ''Birdsong and Conservation,'' in <i>Nature's music: the   science of birdsong</i>, 2004, ch. 12, pp. 343&#8211;362.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000166&pid=S1794-9165201300020001100015&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 174</p>     <!-- ref --><p>&#91;16&#93; A. Kirschel, M. Cody, Z. Harlow, V. Promponas, E. Vallejo, and C. Taylor, ''Territorial   dynamics of mexican ant-thrushes formicarius moniliger revealed by individual   recognition of their songs,'' <i>Ibis</i>, vol. 153, no. 2, pp. 255&#8211;268, 2011.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000168&pid=S1794-9165201300020001100016&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 174, 185</p>     <!-- ref --><p>&#91;17&#93; D. T. Blumstein, D. J. Mennill, P. Clemins, L. Girod, K. Yao, G. Patricelli, J. L.   Deppe, A. H. Krakauer, C. Clark, K. A. Cortopassi, S. F. Hanser, B. McCowan,   A. M. Ali, and A. N. G. Kirschel, ''Acoustic monitoring in terrestrial environments   using microphone arrays: applications, technological considerations and prospectus,''   <i>Journal of Applied Ecology</i>, vol. 48, no. 3, pp. 758&#8211;767, 2011.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000170&pid=S1794-9165201300020001100017&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 174, 175, 176,   181, 182, 185</p>     <!-- ref --><p>&#91;18&#93; D. Chesmore, ''The automated identification of taxa: Concepts and applications,'' in   <i>Automated Taxon Identification in Systematics: Theory, Approaches and Applications</i>,   ser. Systematics Association special volumes, N. MacLeod, Ed. Boca Raton,   FL: CRC Press, 2008, vol. 74, ch. 6, pp. 83&#8211;100.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000172&pid=S1794-9165201300020001100018&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 174, 175</p>     <!-- ref --><p>&#91;19&#93; D. Chesmore, K.-H. Frommolt, D. Wolff, R. Bardeli, and S. Huebner, ''Computational   bioacoustics: New tools for assessing biological diversity,'' May 2008, side Event   at the ninth meeting of the Conference of the Parties (COP 9). Bonn, Germany.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000174&pid=S1794-9165201300020001100019&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->   174, 175, 190 </p>     <!-- ref --><p>&#91;20&#93; M. A. Acevedo and L. J. Villanueva-Rivera, ''Using automated digital recording   systems as effective tools for the monitoring of birds and amphibians,'' <i>Wildlife   Society Bulletin</i>, vol. 34, pp. 211 &#8211; 214, 2006.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000176&pid=S1794-9165201300020001100020&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 174, 176</p>     <!-- ref --><p>&#91;21&#93; D. W. Armitage and H. K. Ober, ''A comparison of supervised learning techniques   in the classification of bat echolocation calls,'' <i>Ecological Informatics</i>, vol. 5, no. 6,   pp. 465 &#8211; 473, 2010.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000178&pid=S1794-9165201300020001100021&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 174, 180, 182, 183</p>     <!-- ref --><p>&#91;22&#93; F. Briggs, X. Fern, and R. Raich, ''Acoustic classification of bird species from syllables:   an empirical study,'' Oregon State University, Tech. Rep., 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000180&pid=S1794-9165201300020001100022&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 174, 182,   183 </p>     <!-- ref --><p>&#91;23&#93; E. P. Kasten, P. K. McKinley, and S. H. Gage, ''Ensemble extraction for classification   and detection of bird species,'' <i>Ecological Informatics</i>, vol. 5, no. 3, pp. 153 &#8211; 166, 2010.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000182&pid=S1794-9165201300020001100023&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 175, 181, 182, 183, 184</p>     <!-- ref --><p>&#91;24&#93; T. S. Brandes, ''Automated sound recording and analysis techniques for bird surveys   and conservation,'' <i>Bird Conservation International</i>, vol. 18, no. S1, pp. S163&#8211;S173,   2008.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000184&pid=S1794-9165201300020001100024&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 175, 181, 182</p>     <!-- ref --><p>&#91;25&#93; R. Mason, P. Roe, M. Towsey, J. Zhang, J. Gibson, and S. Gage, ''Towards an   acoustic environmental observatory,'' in <i>eScience, 2008. eScience '08. IEEE Fourth   International Conference on</i>, 2008, pp. 135&#8211;142.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000186&pid=S1794-9165201300020001100025&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 176, 184</p>     <!-- ref --><p>&#91;26&#93; R. S. Rempel, C. M. Francis, J. N. Robinson, and M. Campbell, ''Comparison   of audio recording system performance for detecting and monitoring songbirds,''   <i>Journal of Field Ornithology</i>, vol. 84, no. 1, pp. 86&#8211;97, 2013.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000188&pid=S1794-9165201300020001100026&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 176, 177</p>     <!-- ref --><p>&#91;27&#93; D. Mennill, M. Battiston, D. R. Wilson, J. R. Foote, and S. M. Doucet, ''Field   test of an affordable, portable, wireless microphone array for spatial monitoring   of animal ecology and behaviour,'' <i>Methods in Ecology and Evolution</i>, vol. 3, pp.   704&#8211;712, 2012.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000190&pid=S1794-9165201300020001100027&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 176</p>     <!-- ref --><p>&#91;28&#93; K. A. Hobson, R. S. Rempel, H. Greenwood, B. Turnbull, and S. L. Van Wilgenburg,   ''Acoustic surveys of birds using electronic recordings: new potential from an   omnidirectional microphone system,'' <i>Wildlife Society Bulletin</i>, pp. 709&#8211;720, 2002.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000192&pid=S1794-9165201300020001100028&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->   176</p>     <!-- ref --><p>&#91;29&#93; L. A. Venier, S. B. Holmes, G. W. Holborn, K. A. Mcilwrick, and G. Brown, ''Evaluation   of an automated recording device for monitoring forest birds,'' <i>Wildlife Society   Bulletin</i>, vol. 36, no. 1, pp. 30&#8211;39, 2012.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000194&pid=S1794-9165201300020001100029&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 176</p>     <!-- ref --><p>&#91;30&#93; T. S. Brandes, ''Feature vector selection and use with hidden Markov models to   identify frequency-modulated bioacoustic signals amidst noise,'' <i>IEEE Transactions   on Audio, Speech, and Language Processing</i>, vol. 16, no. 6, pp. 1173 &#8211;1180, aug   2008.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000196&pid=S1794-9165201300020001100030&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 177, 180, 182</p>     <!-- ref --><p>&#91;31&#93; P. Caycedo-Rosales, ''Estudio comparativo del canto entre poblaciones del soterrey   de apolinar (cistothorus apolinari, troglodytidae) presentes en la cordillera oriental   de los andes colombianos,'' Universidad Nacional de Colombia, 2000, tesis de   pregrado.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000198&pid=S1794-9165201300020001100031&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 177 </p>     <!-- ref --><p>&#91;32&#93; B. Lakshminarayanan, R. Raich, and X. Fern, ''A syllable-level probabilistic framework   for bird species identification,'' in <i>Proceedings of the Fourth International   Conference on Machine Learning and Applications</i>. Los Alamitos, CA, USA: IEEE   Computer Society, Dec. 2009, pp. 53&#8211;59.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000200&pid=S1794-9165201300020001100032&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 178, 180, 181, 183</p>     <!-- ref --><p>&#91;33&#93; R. Bardeli, ''Similarity search in animal sound databases,'' <i>IEEE Transactions on   Multimedia</i>, vol. 11, no. 1, pp. 68 &#8211;76, jan 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000202&pid=S1794-9165201300020001100033&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 179</p>     <!-- ref --><p>&#91;34&#93; F. Briggs, R. Raich, and X. Z. Fern, ''Audio classification of bird species: A statistical   manifold approach,'' in <i>Proceedings of the Ninth IEEE International Conference on   Data Mining</i>. Los Alamitos, CA, USA: IEEE Computer Society, Dec. 2009, pp.   51&#8211;60.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000204&pid=S1794-9165201300020001100034&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 179, 182, 183</p>     <!-- ref --><p>&#91;35&#93; C.-J. Huang, Y.-J. Yang, D.-X. Yang, and Y.-J. Chen, ''Frog classification using   machine learning techniques,'' <i>Expert Systems with Applications</i>, vol. 36, no. 2, pp.   3737&#8211;3743, 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000206&pid=S1794-9165201300020001100035&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 179, 180, 181, 182, 183</p>     <!-- ref --><p>&#91;36&#93; D. Todt, ''From birdsong to speech: a plea for comparative approaches,'' <i>Anais da   Academia Brasileira de Ci&ecirc;ncias</i>, vol. 76, no. 2, pp. 201&#8211;208, 2004.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000208&pid=S1794-9165201300020001100036&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 179</p>     <!-- ref --><p>&#91;37&#93; L. Ranjard and H. A. Ross, ''Unsupervised bird song syllable classification using   evolving neural networks,'' <i>Journal of the Acoustical Society of America</i>, vol. 123,   no. 6, pp. 4358 &#8211; 4368, 2008.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000210&pid=S1794-9165201300020001100037&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 179, 181</p>     <!-- ref --><p>&#91;38&#93; M. Bramer, <i>Principles of Data Mining</i>. Springer, 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000212&pid=S1794-9165201300020001100038&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 180</p>     <!-- ref --><p>&#91;39&#93; S. Fagerlund, ''Bird species recognition using support vector machines,'' <i>EURASIP   Journal on Advances in Signal Processing</i>, vol. 2007, no. 1, pp. 64&#8211;64, 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000214&pid=S1794-9165201300020001100039&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 180</p>     <!-- ref --><p>&#91;40&#93; I. Urazghildiiev, C. Clark, T. Krein, and S. Parks, ''Detection and Recognition of   North Atlantic Right Whale Contact Calls in the Presence of Ambient Noise,'' <i>IEEE   Journal of Oceanic Engineering</i>, vol. 34, no. 3, pp. 358&#8211;368, Jul. 2009.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000216&pid=S1794-9165201300020001100040&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 180</p>     <!-- ref --><p>&#91;41&#93; F. Briggs, B. Lakshminarayanan, L. Neal, X. Z. Fern, R. Raich, S. J. K. Hadley,   A. S. Hadley, and M. G. Betts, ''Acoustic classification of multiple simultaneous bird   species: A multi-instance multi-label approach,'' <i>Journal of the Acoustical Society   of America</i>, vol. 131, no. 6, pp. 4640&#8211;4650, Oct. 2012.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000218&pid=S1794-9165201300020001100041&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 180, 181</p>     <!-- ref --><p>&#91;42&#93; C.-H. Chou, P.-H. Liu, and B. Cai, ''On the studies of syllable segmentation and   improving MFCCs for automatic birdsong recognition,'' in <i>Proceedings of the 2008   IEEE Asia-Pacific Services Computing Conference</i>. Washington, DC, USA: IEEE   Computer Society, 2008, pp. 745&#8211;750.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000220&pid=S1794-9165201300020001100042&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 181, 183</p>     <!-- ref --><p>&#91;43&#93; A. H&auml;rm&auml;, ''Automatic identification of bird species based on sinusoidal modeling   of syllables,'' in <i>Proceedings of the IEEE International Conference on Acoustics,   Speech, and Signal Processing, ICASSP '03</i>, vol. 5, Apr. 2003, pp. 545&#8211;548.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000222&pid=S1794-9165201300020001100043&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 181</p>     <!-- ref --><p>&#91;44&#93; D. Stowell and M. D. Plumbley, ''Birdsong and C4DM: A survey of UK birdsong   and machine recognition for music researchers,'' Centre for Digital Music, Queen   Mary, University of London, London, UK, Tech. Rep. C4DM-TR-09-12, Jul. 2011.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000224&pid=S1794-9165201300020001100044&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->   181 </p>     <!-- ref --><p>&#91;45&#93; L. Neal, F. Briggs, R. Raich, and X. Z. Fern, ''Time-frequency segmentation of   bird song in noisy acoustic environments,'' in <i>IEEE International Conference on   Acoustics, Speech and Signal Processing (ICASSP)</i>, 2011, May 2011, pp. 2012 &#8211;   2015.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000226&pid=S1794-9165201300020001100045&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 181</p>     <!-- ref --><p>&#91;46&#93; C.-H. Lee, S.-B. Hsu, J.-L. Shih, and C.-H. Chou, ''Continuous Birdsong Recognition   Using Gaussian Mixture Modeling of Image Shape Features,'' <i>IEEE Transactions   on Multimedia</i>, vol. 15, pp. 454&#8211;464, 2013.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000228&pid=S1794-9165201300020001100046&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 181</p>     <!-- ref --><p>&#91;47&#93; D. Mitrovic, M. Zeppelzauer, and C. Breiteneder, ''Features for content-based audio   retrieval,'' in <i>Advances in Computers: Improving the Web</i>, ser. Advances in Computers,   M. V. Zelkowitz, Ed. Elsevier, 2010, vol. 78, pp. 71 &#8211; 150.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000230&pid=S1794-9165201300020001100047&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 181, 182</p>     <!-- ref --><p>&#91;48&#93; S. Ntalampiras, I. Potamitis, and N. Fakotakis, ''Probabilistic Novelty Detection   for Acoustic Surveillance Under Real-World Conditions,'' <i>IEEE Transactions on   Multimedia</i>, vol. 13, no. 4, pp. 713&#8211;719, Aug. 2011.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000232&pid=S1794-9165201300020001100048&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 182</p>     <!-- ref --><p>&#91;49&#93; A. Selin, J. Turunen, and J. T. Tanttu, ''Wavelets in recognition of bird sounds,''   <i>EURASIP J. Appl. Signal Process</i>., vol. 2007, no. 1, pp. 141&#8211;141, Jan. 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000234&pid=S1794-9165201300020001100049&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 182</p>     <!-- ref --><p>&#91;50&#93; J. L. Goyette, R. W. Howe, A. T. Wolf, and W. D. Robinson, ''Detecting tropical   nocturnal birds using automated audio recordings,'' <i>Journal of Field Ornithology</i>,   vol. 82, no. 3, pp. 279&#8211;287, 2011.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000236&pid=S1794-9165201300020001100050&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 182</p>     <!-- ref --><p>&#91;51&#93; C. M. Bishop, <i>Pattern Recognition and Machine Learning (Information Science and   Statistics)</i>, 1st ed. Springer, 2007.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000238&pid=S1794-9165201300020001100051&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 183</p>     <!-- ref --><p>&#91;52&#93; R. Duda, P. Hart, and D. Stork, <i>Pattern Classification</i>. Wiley, 2001. 183&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000240&pid=S1794-9165201300020001100052&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --><!-- ref --><p>&#91;53&#93; L. R. Rabiner, ''A tutorial on hidden Markov models and selected applications in   speech recognition,'' <i>Proceedings of the IEEE</i>, vol. 77, no. 2, pp. 257 &#8211;286, May   1989.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000241&pid=S1794-9165201300020001100053&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 183</p>     ]]></body>
<body><![CDATA[<!-- ref --><p>&#91;54&#93; D. Chesmore, ''Automated bioacoustic identification of species,'' <i>Anais da Academia   Brasileira de Ci&ecirc;ncias</i>, vol. 76, no. 2, pp. 436&#8211;440, 2004.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000243&pid=S1794-9165201300020001100054&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 184</p>     <!-- ref --><p>&#91;55&#93; J. Wimmer, M. Towsey, B. Planitz, P. Roe, and I. Williamson, ''Scaling acoustic   data analysis through collaboration and automation,'' in <i>e-Science (e-Science), 2010   IEEE Sixth International Conference on</i>. IEEE, 2010, pp. 308&#8211;315.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000245&pid=S1794-9165201300020001100055&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 184</p>     <!-- ref --><p>&#91;56&#93; W. J. Sutherland, <i>From individual behaviour to population ecology</i>. Oxford University   Press Inc., 1996.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000247&pid=S1794-9165201300020001100056&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 184</p>     <!-- ref --><p>&#91;57&#93; P. K. McGregor, T. M. Peake, and G. Gilbert, ''Communication behaviour and   conservation,'' in <i>Behaviour and Conservation</i>. Cambridge University Press, 2000.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000249&pid=S1794-9165201300020001100057&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref -->   184</p>     <!-- ref --><p>&#91;58&#93; H. Slabbekoorn, ''Singing in the wild: the ecology of birdsong,'' in <i>Nature's music:   the science of birdsong</i>, 2004, ch. 1, pp. 178&#8211;2005.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000251&pid=S1794-9165201300020001100058&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 184</p>     ]]></body>
<body><![CDATA[<!-- ref --><p>&#91;59&#93; V. Deecke, J. Ford, and P. Spong, ''Quantifying complex patterns of bioacoustic   variation: use of a neural network to compare killer whale (orcinus orca) dialects,''   <i>The Journal of the Acoustical Society of America</i>, vol. 105, p. 2499, 1999.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000253&pid=S1794-9165201300020001100059&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 184</p>     <!-- ref --><p>&#91;60&#93; H. Mills, ''Automatic detection and classification of nocturnal migrant bird calls,''   <i>The Journal of the Acoustical Society of America</i>, vol. 97, p. 3370, 1995.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000255&pid=S1794-9165201300020001100060&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 185</p>     <!-- ref --><p>   &#91;61&#93; A. Taylor, ''Bird flight call discrimination using machine learning,'' <i>The Journal of   the Acoustical Society of America</i>, vol. 97, p. 3370, 1995.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000257&pid=S1794-9165201300020001100061&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 185</p>     <!-- ref --><p>   &#91;62&#93; W. M. Tyler, ''The call-notes of some nocturnal migrating birds,'' <i>The Auk</i>, pp.   132&#8211;141, 1916.    &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;[&#160;<a href="javascript:void(0);" onclick="javascript: window.open('/scielo.php?script=sci_nlinks&ref=000259&pid=S1794-9165201300020001100062&lng=','','width=640,height=500,resizable=yes,scrollbars=1,menubar=yes,');">Links</a>&#160;]<!-- end-ref --> 185</p>     <p>&nbsp;</p> </font>     ]]></body><back>
<ref-list>
<ref id="B1">
<label>&#091;1</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Depraetere]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Pavoine]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Jiguet]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Gasc]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Duvail]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Sueur]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Monitoring animal diversity using acoustic indices: Implementation in a temperate woodland]]></article-title>
<source><![CDATA[Ecological Indicators]]></source>
<year>2012</year>
<volume>13</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>46 - 54</page-range></nlm-citation>
</ref>
<ref id="B2">
<label>&#091;2</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Marsh]]></surname>
<given-names><![CDATA[D M]]></given-names>
</name>
<name>
<surname><![CDATA[Trenham]]></surname>
<given-names><![CDATA[P C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Current trends in plant and animal population monitoring]]></article-title>
<source><![CDATA[Conservation Biology]]></source>
<year>2008</year>
<volume>22</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>647-655</page-range></nlm-citation>
</ref>
<ref id="B3">
<label>&#091;3</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Acevedo]]></surname>
<given-names><![CDATA[M A]]></given-names>
</name>
<name>
<surname><![CDATA[Corrada-Bravo]]></surname>
<given-names><![CDATA[C J]]></given-names>
</name>
<name>
<surname><![CDATA[Corrada-Bravo]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Villanueva-Rivera]]></surname>
<given-names><![CDATA[L J]]></given-names>
</name>
<name>
<surname><![CDATA[Aide]]></surname>
<given-names><![CDATA[T M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Automated classification of bird and amphibian calls using machine learning: A comparison of methods]]></article-title>
<source><![CDATA[Ecological Informatics]]></source>
<year>2009</year>
<volume>4</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>206 - 214</page-range></nlm-citation>
</ref>
<ref id="B4">
<label>&#091;4</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lee]]></surname>
<given-names><![CDATA[C-H]]></given-names>
</name>
<name>
<surname><![CDATA[Han]]></surname>
<given-names><![CDATA[C-C]]></given-names>
</name>
<name>
<surname><![CDATA[Chuang]]></surname>
<given-names><![CDATA[C-C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Automatic classification of bird species from their sounds using two-dimensional cepstral coefficients]]></article-title>
<source><![CDATA[IEEE Transactions on Audio, Speech, and Language Processing]]></source>
<year>Nov </year>
<month>20</month>
<day>08</day>
<volume>16</volume>
<numero>8</numero>
<issue>8</issue>
<page-range>1541 -1550</page-range></nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Botero]]></surname>
<given-names><![CDATA[J. E]]></given-names>
</name>
<name>
<surname><![CDATA[Arbeláez]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Lentijo]]></surname>
<given-names><![CDATA[G. M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Métodos para estudiar las aves]]></article-title>
<source><![CDATA[Biocarta]]></source>
<year>2005</year>
<numero>8</numero>
<issue>8</issue>
<page-range>1-4</page-range></nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sutherland]]></surname>
<given-names><![CDATA[W. J]]></given-names>
</name>
</person-group>
<source><![CDATA[Ecological census techniques: handbook]]></source>
<year>2006</year>
<edition>2</edition>
<publisher-name><![CDATA[Cambridge University Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ten Cate]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Birdsong and Evolution]]></article-title>
<source><![CDATA[Nature's music: the science of birdsong]]></source>
<year>2004</year>
<page-range>296-317</page-range></nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chu]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
<name>
<surname><![CDATA[Blumstein]]></surname>
<given-names><![CDATA[D. T]]></given-names>
</name>
</person-group>
<source><![CDATA[Noise robust bird song detection using syllable pattern-based hidden Markov models]]></source>
<year>2011</year>
<conf-name><![CDATA[ IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2011]]></conf-name>
<conf-loc> </conf-loc>
<page-range>345 -348</page-range></nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Grant]]></surname>
<given-names><![CDATA[B. R]]></given-names>
</name>
<name>
<surname><![CDATA[Grant]]></surname>
<given-names><![CDATA[P. R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Hybridization and speciation in darwin's finches: the role of sexual imprinting on a culturally transmitted trait]]></article-title>
<source><![CDATA[Endless Forms: Species and Speciation]]></source>
<year>1998</year>
<page-range>404-422</page-range></nlm-citation>
</ref>
<ref id="B10">
<label>&#091;10</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bardeli]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Wolff]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Kurth]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Koch]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Tauchert]]></surname>
<given-names><![CDATA[K H]]></given-names>
</name>
<name>
<surname><![CDATA[Frommolt]]></surname>
<given-names><![CDATA[K-H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Detecting bird sounds in a complex acoustic environment and application to bioacoustic monitoring]]></article-title>
<source><![CDATA[Pattern Recognition Letters]]></source>
<year>Sep </year>
<month>20</month>
<day>10</day>
<volume>31</volume>
<numero>12</numero>
<issue>12</issue>
<page-range>1524-1534</page-range></nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cugler]]></surname>
<given-names><![CDATA[D. C]]></given-names>
</name>
<name>
<surname><![CDATA[Medeiros]]></surname>
<given-names><![CDATA[C. B]]></given-names>
</name>
<name>
<surname><![CDATA[Toledo]]></surname>
<given-names><![CDATA[L. F]]></given-names>
</name>
</person-group>
<source><![CDATA[Managing animal sounds-some challenges and research directions]]></source>
<year></year>
<conf-name><![CDATA[V eScience Workshop-XXXI Brazilian Computer Society Conference]]></conf-name>
<conf-date>2011</conf-date>
<conf-loc> </conf-loc>
</nlm-citation>
</ref>
<ref id="B12">
<label>&#091;12</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Farnsworth]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Russell]]></surname>
<given-names><![CDATA[R W]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Monitoring flight calls of migrating birds from an oil platform in the northern gulf of mexico]]></article-title>
<source><![CDATA[Journal of Field Ornithology]]></source>
<year>2007</year>
<volume>78</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>279-289</page-range></nlm-citation>
</ref>
<ref id="B13">
<label>&#091;13</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mennill]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Vehrencamp]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Context-dependent functions of avian duets revealed through microphone array recordings and multi-speaker playback]]></article-title>
<source><![CDATA[Current Biology]]></source>
<year>2008</year>
<volume>18</volume>
<page-range>1314-1319</page-range></nlm-citation>
</ref>
<ref id="B14">
<label>&#091;14</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Odom]]></surname>
<given-names><![CDATA[K J]]></given-names>
</name>
<name>
<surname><![CDATA[Mennill]]></surname>
<given-names><![CDATA[D J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A quantitative description of the vocalizations and vocal activity of the barred owl]]></article-title>
<source><![CDATA[The Condor]]></source>
<year>2010</year>
<volume>112</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>549-560</page-range></nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gaunt]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[McCallum]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Birdsong and Conservation: Nature's music: the science of birdsong]]></source>
<year>2004</year>
<page-range>343-362</page-range></nlm-citation>
</ref>
<ref id="B16">
<label>&#091;16</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kirschel]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Cody]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Harlow]]></surname>
<given-names><![CDATA[Z]]></given-names>
</name>
<name>
<surname><![CDATA[Promponas]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
<name>
<surname><![CDATA[Vallejo]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Taylor]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Territorial dynamics of mexican ant-thrushes formicarius moniliger revealed by individual recognition of their songs]]></article-title>
<source><![CDATA[Ibis]]></source>
<year>2011</year>
<volume>153</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>255-268</page-range></nlm-citation>
</ref>
<ref id="B17">
<label>&#091;17</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Blumstein]]></surname>
<given-names><![CDATA[D T]]></given-names>
</name>
<name>
<surname><![CDATA[Mennill]]></surname>
<given-names><![CDATA[D J]]></given-names>
</name>
<name>
<surname><![CDATA[Clemins]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Girod]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Yao]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Patricelli]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[Deppe]]></surname>
<given-names><![CDATA[J L]]></given-names>
</name>
<name>
<surname><![CDATA[Krakauer]]></surname>
<given-names><![CDATA[A H]]></given-names>
</name>
<name>
<surname><![CDATA[Clark]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Cortopassi]]></surname>
<given-names><![CDATA[K A]]></given-names>
</name>
<name>
<surname><![CDATA[Hanser]]></surname>
<given-names><![CDATA[S F]]></given-names>
</name>
<name>
<surname><![CDATA[McCowan]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Ali]]></surname>
<given-names><![CDATA[A M]]></given-names>
</name>
<name>
<surname><![CDATA[Kirschel]]></surname>
<given-names><![CDATA[A N G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Acoustic monitoring in terrestrial environments using microphone arrays: applications, technological considerations and prospectus]]></article-title>
<source><![CDATA[Journal of Applied Ecology]]></source>
<year>2011</year>
<volume>48</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>758-767</page-range></nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chesmore]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The automated identification of taxa: Concepts and applications]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[MacLeod]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
</person-group>
<source><![CDATA[Automated Taxon Identification in Systematics: Theory, Approaches and Applications, ser]]></source>
<year>2008</year>
<volume>74</volume>
<page-range>83-100</page-range><publisher-loc><![CDATA[Boca Raton ]]></publisher-loc>
<publisher-name><![CDATA[CRC Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chesmore]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Frommolt]]></surname>
<given-names><![CDATA[K.-H]]></given-names>
</name>
<name>
<surname><![CDATA[Wolff]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Bardeli]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Huebner]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Computational bioacoustics: New tools for assessing biological diversity]]></source>
<year></year>
<conf-name><![CDATA[ Event at the ninth meeting of the Conference of the Parties (COP 9)]]></conf-name>
<conf-loc> </conf-loc>
<publisher-loc><![CDATA[Bonn ]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B20">
<label>&#091;20</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Acevedo]]></surname>
<given-names><![CDATA[M A]]></given-names>
</name>
<name>
<surname><![CDATA[Villanueva-Rivera]]></surname>
<given-names><![CDATA[L J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Using automated digital recording systems as effective tools for the monitoring of birds and amphibians]]></article-title>
<source><![CDATA[Wildlife Society Bulletin]]></source>
<year>2006</year>
<volume>34</volume>
<page-range>211 - 214</page-range></nlm-citation>
</ref>
<ref id="B21">
<label>&#091;21</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Armitage]]></surname>
<given-names><![CDATA[D W]]></given-names>
</name>
<name>
<surname><![CDATA[K. Ober]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A comparison of supervised learning techniques in the classification of bat echolocation calls]]></article-title>
<source><![CDATA[Ecological Informatics]]></source>
<year>2010</year>
<volume>5</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>465 - 473</page-range></nlm-citation>
</ref>
<ref id="B22">
<label>22</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Briggs]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Fern]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
<name>
<surname><![CDATA[Raich]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[Acoustic classification of bird species from syllables: an empirical study]]></source>
<year>2009</year>
<publisher-name><![CDATA[Oregon State University]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B23">
<label>&#091;23</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kasten]]></surname>
<given-names><![CDATA[E P]]></given-names>
</name>
<name>
<surname><![CDATA[McKinley]]></surname>
<given-names><![CDATA[P K]]></given-names>
</name>
<name>
<surname><![CDATA[Gage]]></surname>
<given-names><![CDATA[S H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Ensemble extraction for classification and detection of bird species]]></article-title>
<source><![CDATA[Ecological Informatics]]></source>
<year>2010</year>
<volume>5</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>153 - 166</page-range></nlm-citation>
</ref>
<ref id="B24">
<label>&#091;24</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Brandes]]></surname>
<given-names><![CDATA[T S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Automated sound recording and analysis techniques for bird surveys and conservation]]></article-title>
<source><![CDATA[Bird Conservation International]]></source>
<year>2008</year>
<volume>18</volume>
<numero>S1</numero>
<issue>S1</issue>
<page-range>S163-S173</page-range></nlm-citation>
</ref>
<ref id="B25">
<label>25</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mason]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Roe]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Towsey]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Gibson]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Gage]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Towards an acoustic environmental observatory]]></source>
<year>2008</year>
<conf-name><![CDATA[ in eScience, 2008. eScience '08. IEEE Fourth International Conference on]]></conf-name>
<conf-loc> </conf-loc>
<page-range>135-142</page-range></nlm-citation>
</ref>
<ref id="B26">
<label>&#091;26</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rempel]]></surname>
<given-names><![CDATA[R S]]></given-names>
</name>
<name>
<surname><![CDATA[Francis]]></surname>
<given-names><![CDATA[C M]]></given-names>
</name>
<name>
<surname><![CDATA[Robinson]]></surname>
<given-names><![CDATA[J N]]></given-names>
</name>
<name>
<surname><![CDATA[Campbell]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Comparison of audio recording system performance for detecting and monitoring songbirds]]></article-title>
<source><![CDATA[Journal of Field Ornithology]]></source>
<year>2013</year>
<volume>84</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>86-97</page-range></nlm-citation>
</ref>
<ref id="B27">
<label>&#091;27</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mennill]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Battiston]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Wilson]]></surname>
<given-names><![CDATA[D R]]></given-names>
</name>
<name>
<surname><![CDATA[Foote]]></surname>
<given-names><![CDATA[J R]]></given-names>
</name>
<name>
<surname><![CDATA[Doucet]]></surname>
<given-names><![CDATA[S M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Field test of an affordable, portable, wireless microphone array for spatial monitoring of animal ecology and behaviour]]></article-title>
<source><![CDATA[Methods in Ecology and Evolution]]></source>
<year>2012</year>
<volume>3</volume>
<page-range>704-712</page-range></nlm-citation>
</ref>
<ref id="B28">
<label>28</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hobson]]></surname>
<given-names><![CDATA[K. A]]></given-names>
</name>
<name>
<surname><![CDATA[Rempel]]></surname>
<given-names><![CDATA[R. S]]></given-names>
</name>
<name>
<surname><![CDATA[Greenwood]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Turnbull]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Van Wilgenburg]]></surname>
<given-names><![CDATA[S. L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Acoustic surveys of birds using electronic recordings: new potential from an omnidirectional microphone system]]></article-title>
<source><![CDATA[Wildlife Society Bulletin]]></source>
<year>2002</year>
<page-range>709-720</page-range></nlm-citation>
</ref>
<ref id="B29">
<label>&#091;29</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Venier]]></surname>
<given-names><![CDATA[L A]]></given-names>
</name>
<name>
<surname><![CDATA[Holmes]]></surname>
<given-names><![CDATA[S B]]></given-names>
</name>
<name>
<surname><![CDATA[Holborn]]></surname>
<given-names><![CDATA[G W]]></given-names>
</name>
<name>
<surname><![CDATA[Mcilwrick]]></surname>
<given-names><![CDATA[K A]]></given-names>
</name>
<name>
<surname><![CDATA[Brown]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Evaluation of an automated recording device for monitoring forest birds]]></article-title>
<source><![CDATA[Wildlife Society Bulletin]]></source>
<year>2012</year>
<volume>36</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>30-39</page-range></nlm-citation>
</ref>
<ref id="B30">
<label>&#091;30</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Brandes]]></surname>
<given-names><![CDATA[T S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Feature vector selection and use with hidden Markov models to identify frequency-modulated bioacoustic signals amidst noise]]></article-title>
<source><![CDATA[IEEE Transactions on Audio, Speech, and Language Processing]]></source>
<year>aug </year>
<month>20</month>
<day>08</day>
<volume>16</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>1173 -1180</page-range></nlm-citation>
</ref>
<ref id="B31">
<label>31</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Caycedo-Rosales]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<source><![CDATA[Estudio comparativo del canto entre poblaciones del soterrey de apolinar (cistothorus apolinari, troglodytidae) presentes en la cordillera oriental de los andes colombianos]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B32">
<label>32</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lakshminarayanan]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Raich]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Fern]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
</person-group>
<source><![CDATA[A syllable-level probabilistic framework for bird species identification]]></source>
<year>2009</year>
<conf-name><![CDATA[Fourth International Conference on Machine Learning and Applications]]></conf-name>
<conf-loc>Los Alamitos </conf-loc>
<page-range>53-59</page-range></nlm-citation>
</ref>
<ref id="B33">
<label>&#091;33</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bardeli]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Similarity search in animal sound databases]]></article-title>
<source><![CDATA[IEEE Transactions on Multimedia]]></source>
<year>jan </year>
<month>20</month>
<day>09</day>
<volume>11</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>68 -76</page-range></nlm-citation>
</ref>
<ref id="B34">
<label>34</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Briggs]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Raich]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Fern]]></surname>
<given-names><![CDATA[X. Z]]></given-names>
</name>
</person-group>
<source><![CDATA[Audio classification of bird species: A statistical manifold approach]]></source>
<year>2009</year>
<conf-name><![CDATA[ IEEE International Conference on Data Mining]]></conf-name>
<conf-loc>Los Alamitos </conf-loc>
<page-range>51-60</page-range></nlm-citation>
</ref>
<ref id="B35">
<label>&#091;35</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Huang]]></surname>
<given-names><![CDATA[C-J]]></given-names>
</name>
<name>
<surname><![CDATA[Yang]]></surname>
<given-names><![CDATA[Y-J]]></given-names>
</name>
<name>
<surname><![CDATA[Yang]]></surname>
<given-names><![CDATA[D-X]]></given-names>
</name>
<name>
<surname><![CDATA[Chen]]></surname>
<given-names><![CDATA[Y-J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Frog classification using machine learning techniques]]></article-title>
<source><![CDATA[Expert Systems with Applications]]></source>
<year>2009</year>
<volume>36</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>3737-3743</page-range></nlm-citation>
</ref>
<ref id="B36">
<label>&#091;36</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Todt]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[From birdsong to speech: a plea for comparative approaches]]></article-title>
<source><![CDATA[Anais da Academia Brasileira de Ciências]]></source>
<year>2004</year>
<volume>76</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>201-208</page-range></nlm-citation>
</ref>
<ref id="B37">
<label>&#091;37</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ranjard]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Ross]]></surname>
<given-names><![CDATA[H A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Unsupervised bird song syllable classification using evolving neural networks]]></article-title>
<source><![CDATA[Journal of the Acoustical Society of America]]></source>
<year>2008</year>
<volume>123</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>4358 - 4368</page-range></nlm-citation>
</ref>
<ref id="B38">
<label>38</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bramer]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Principles of Data Mining]]></source>
<year>2007</year>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B39">
<label>&#091;39</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Fagerlund]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Bird species recognition using support vector machines]]></article-title>
<source><![CDATA[EURASIP Journal on Advances in Signal Processing]]></source>
<year>2007</year>
<volume>2007</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>64-64</page-range></nlm-citation>
</ref>
<ref id="B40">
<label>&#091;40</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Urazghildiiev]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[Clark]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Krein]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Parks]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Detection and Recognition of North Atlantic Right Whale Contact Calls in the Presence of Ambient Noise]]></article-title>
<source><![CDATA[IEEE Journal of Oceanic Engineering]]></source>
<year>Jul </year>
<month>20</month>
<day>09</day>
<volume>34</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>358-368</page-range></nlm-citation>
</ref>
<ref id="B41">
<label>&#091;41</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Briggs]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Lakshminarayanan]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Neal]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Fern]]></surname>
<given-names><![CDATA[X Z]]></given-names>
</name>
<name>
<surname><![CDATA[Raich]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Hadley]]></surname>
<given-names><![CDATA[S J K]]></given-names>
</name>
<name>
<surname><![CDATA[Hadley]]></surname>
<given-names><![CDATA[A S]]></given-names>
</name>
<name>
<surname><![CDATA[Betts]]></surname>
<given-names><![CDATA[M G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Acoustic classification of multiple simultaneous bird species: A multi-instance multi-label approach]]></article-title>
<source><![CDATA[Journal of the Acoustical Society of America]]></source>
<year>Oct </year>
<month>20</month>
<day>12</day>
<volume>131</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>4640-4650</page-range></nlm-citation>
</ref>
<ref id="B42">
<label>42</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chou]]></surname>
<given-names><![CDATA[C.-H]]></given-names>
</name>
<name>
<surname><![CDATA[Liu]]></surname>
<given-names><![CDATA[P.-H]]></given-names>
</name>
<name>
<surname><![CDATA[Cai]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
</person-group>
<source><![CDATA[On the studies of syllable segmentation and improving MFCCs for automatic birdsong recognition]]></source>
<year>2008</year>
<conf-name><![CDATA[2008 IEEE Asia-Pacific Services Computing Conference]]></conf-name>
<conf-loc>Washington </conf-loc>
<page-range>745-750</page-range></nlm-citation>
</ref>
<ref id="B43">
<label>43</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Härmä]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Automatic identification of bird species based on sinusoidal modeling of syllables]]></source>
<year>2003</year>
<volume>5</volume>
<conf-name><![CDATA[ Proceedings of the IEEE International Conference on Acoustics, Speech, and Signal Processing, ICASSP '03]]></conf-name>
<conf-loc> </conf-loc>
<page-range>545-548</page-range></nlm-citation>
</ref>
<ref id="B44">
<label>44</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Stowell]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Plumbley]]></surname>
<given-names><![CDATA[M. D]]></given-names>
</name>
</person-group>
<source><![CDATA[Birdsong and C4DM: A survey of UK birdsong and machine recognition for music researchers]]></source>
<year>2011</year>
<publisher-loc><![CDATA[London ]]></publisher-loc>
<publisher-name><![CDATA[Centre for Digital Music, Queen Mary, University of London]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B45">
<label>45</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Neal]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Briggs]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Raich]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Fern]]></surname>
<given-names><![CDATA[X. Z]]></given-names>
</name>
</person-group>
<source><![CDATA[Time-frequency segmentation of bird song in noisy acoustic environments]]></source>
<year>2011</year>
<conf-name><![CDATA[ IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)]]></conf-name>
<conf-loc> </conf-loc>
<page-range>2012 - 2015</page-range></nlm-citation>
</ref>
<ref id="B46">
<label>&#091;46</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lee]]></surname>
<given-names><![CDATA[C-H]]></given-names>
</name>
<name>
<surname><![CDATA[Hsu]]></surname>
<given-names><![CDATA[S-B]]></given-names>
</name>
<name>
<surname><![CDATA[Shih, and C-H. Chou]]></surname>
<given-names><![CDATA[J-L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Continuous Birdsong Recognition Using Gaussian Mixture Modeling of Image Shape Features]]></article-title>
<source><![CDATA[IEEE Transactions on Multimedia]]></source>
<year>2013</year>
<volume>15</volume>
<page-range>454-464</page-range></nlm-citation>
</ref>
<ref id="B47">
<label>47</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mitrovic]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Zeppelzauer]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Breiteneder]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Features for content-based audio retrieval]]></article-title>
<person-group person-group-type="editor">
<name>
<surname><![CDATA[Zelkowitz]]></surname>
<given-names><![CDATA[M. V]]></given-names>
</name>
</person-group>
<source><![CDATA[Advances in Computers: Improving the Web: ser. Advances in Computers]]></source>
<year>2010</year>
<volume>78</volume>
<page-range>71 - 150</page-range><publisher-name><![CDATA[Elsevier]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B48">
<label>&#091;48</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ntalampiras]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Potamitis]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[Fakotakis]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Probabilistic Novelty Detection for Acoustic Surveillance Under Real-World Conditions]]></article-title>
<source><![CDATA[IEEE Transactions on Multimedia]]></source>
<year>Aug </year>
<month>20</month>
<day>11</day>
<volume>13</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>713-719</page-range></nlm-citation>
</ref>
<ref id="B49">
<label>&#091;49</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Selin]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Turunen]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Tanttu]]></surname>
<given-names><![CDATA[J T]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Wavelets in recognition of bird sounds]]></article-title>
<source><![CDATA[EURASIP J. Appl. Signal Process.]]></source>
<year>Jan </year>
<month>20</month>
<day>07</day>
<volume>2007</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>141-141</page-range></nlm-citation>
</ref>
<ref id="B50">
<label>&#091;50</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Goyette]]></surname>
<given-names><![CDATA[J L]]></given-names>
</name>
<name>
<surname><![CDATA[Howe]]></surname>
<given-names><![CDATA[R W]]></given-names>
</name>
<name>
<surname><![CDATA[Wolf]]></surname>
<given-names><![CDATA[A T]]></given-names>
</name>
<name>
<surname><![CDATA[Robinson]]></surname>
<given-names><![CDATA[W D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Detecting tropical nocturnal birds using automated audio recordings]]></article-title>
<source><![CDATA[Journal of Field Ornithology]]></source>
<year>2011</year>
<volume>82</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>279-287</page-range></nlm-citation>
</ref>
<ref id="B51">
<label>51</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bishop]]></surname>
<given-names><![CDATA[C. M]]></given-names>
</name>
</person-group>
<source><![CDATA[Pattern Recognition and Machine Learning (Information Science and Statistics)]]></source>
<year>2007</year>
<edition>1</edition>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B52">
<label>52</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Duda]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Hart]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Stork]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<source><![CDATA[Pattern Classification]]></source>
<year>2001</year>
<publisher-name><![CDATA[Wiley]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B53">
<label>&#091;53</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rabiner]]></surname>
<given-names><![CDATA[L R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A tutorial on hidden Markov models and selected applications in speech recognition]]></article-title>
<source><![CDATA[Proceedings of the IEEE]]></source>
<year>May </year>
<month>19</month>
<day>89</day>
<volume>77</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>257 -286</page-range></nlm-citation>
</ref>
<ref id="B54">
<label>&#091;54</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chesmore]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Automated bioacoustic identification of species]]></article-title>
<source><![CDATA[Anais da Academia Brasileira de Ciências]]></source>
<year>2004</year>
<volume>76</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>436-440</page-range></nlm-citation>
</ref>
<ref id="B55">
<label>55</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wimmer]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Towsey]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Planitz]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Roe]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Williamson]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
</person-group>
<source><![CDATA[Scaling acoustic data analysis through collaboration and automation]]></source>
<year></year>
<conf-name><![CDATA[ e-Science (e-Science)]]></conf-name>
<conf-date>2010</conf-date>
<conf-loc> </conf-loc>
<page-range>308-315</page-range></nlm-citation>
</ref>
<ref id="B56">
<label>56</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sutherland]]></surname>
<given-names><![CDATA[W. J]]></given-names>
</name>
</person-group>
<source><![CDATA[From individual behaviour to population ecology]]></source>
<year>1996</year>
<publisher-name><![CDATA[Oxford University Press Inc]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B57">
<label>57</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[McGregor]]></surname>
<given-names><![CDATA[P. K]]></given-names>
</name>
<name>
<surname><![CDATA[Peake]]></surname>
<given-names><![CDATA[T. M]]></given-names>
</name>
<name>
<surname><![CDATA[Gilbert]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Communication behaviour and conservation]]></article-title>
<source><![CDATA[Behaviour and Conservation]]></source>
<year>2000</year>
<publisher-name><![CDATA[Cambridge University Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B58">
<label>58</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Slabbekoorn]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Singing in the wild: the ecology of birdsong]]></article-title>
<source><![CDATA[Nature's music: the science of birdsong]]></source>
<year>2004</year>
<page-range>178-2005</page-range></nlm-citation>
</ref>
<ref id="B59">
<label>&#091;59</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Deecke]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
<name>
<surname><![CDATA[Ford]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Spong]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Quantifying complex patterns of bioacoustic variation: use of a neural network to compare killer whale (orcinus orca) dialects]]></article-title>
<source><![CDATA[The Journal of the Acoustical Society of America]]></source>
<year>1999</year>
<volume>105</volume>
<page-range>2499</page-range></nlm-citation>
</ref>
<ref id="B60">
<label>&#091;60</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mills]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Automatic detection and classification of nocturnal migrant bird calls]]></article-title>
<source><![CDATA[The Journal of the Acoustical Society of America]]></source>
<year>1995</year>
<volume>97</volume>
<page-range>3370</page-range></nlm-citation>
</ref>
<ref id="B61">
<label>&#091;61</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Taylor]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Bird flight call discrimination using machine learning]]></article-title>
<source><![CDATA[The Journal of the Acoustical Society of America]]></source>
<year>1995</year>
<volume>97</volume>
<page-range>3370</page-range></nlm-citation>
</ref>
<ref id="B62">
<label>62</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tyler]]></surname>
<given-names><![CDATA[W. M]]></given-names>
</name>
</person-group>
<source><![CDATA[The call-notes of some nocturnal migrating birds]]></source>
<year>1916</year>
<page-range>132-141</page-range><publisher-name><![CDATA[The Auk]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
