SciELO - Scientific Electronic Library Online

 
vol.30 número1Un sistema de fusión de datos para la simulación de escenarios críticos y la toma de decisionesIdentificación de actores en un desastre a través de Twitter: caso de estudio Sinabung 2018 índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • En proceso de indezaciónCitado por Google
  • No hay articulos similaresSimilares en SciELO
  • En proceso de indezaciónSimilares en Google

Compartir


Ciencia e Ingeniería Neogranadina

versión impresa ISSN 0124-8170versión On-line ISSN 1909-7735

Resumen

GONZALEZ, Edwin; VILLAMIZAR LUNA, Walter D.  y  FAJARDO ARIZA, Carlos Augusto. Acelerador en hardware para la inferencia de una red neuronal convolucional. Cienc. Ing. Neogranad. [online]. 2020, vol.30, n.1, pp.107-116.  Epub 16-Ago-2020. ISSN 0124-8170.  https://doi.org/10.18359/rcin.4194.

Las redes neuronales convolucionales cada vez son más populares en aplicaciones de aprendizaje profundo, como por ejemplo en clasificación de imágenes, reconocimiento de voz, medicina, entre otras. Sin embargo, estas redes son computacionalmente costosas y requieren altos recursos de memoria. En este trabajo se propone un acelerador en hardware para el proceso de inferencia de la red Lenet-5, un esquema de coprocesamiento hardware/software. El objetivo de la implementación es reducir el uso de recursos de hardware y obtener el mejor rendimiento computacional posible durante el proceso de inferencia. El diseño fue implementado en la tarjeta de desarrollo Digilent Arty Z7-20, la cual está basada en el System on Chip (SoC) Zynq-7000 de Xilinx. Nuestra implementación logró una precisión del 97,59 % para la base de datos MNIST utilizando tan solo 12 bits en el formato de punto fijo. Los resultados muestran que el esquema de co-procesamiento, el cual opera a una velocidad de 100 MHz, puede identificar aproximadamente 441 imágenes por segundo, que equivale aproximadamente a un 17% más rápido que una implementación de software a 650 MHz. Es difícil comparar nuestra implementación con otras implementaciones similares, porque las implementaciones encontradas en la literatura no son exactamente como la que realizó en este trabajo. Sin embargo, algunas comparaciones, en relación con el uso de recursos lógicos y la precisión, sugieren que nuestro trabajo supera a trabajos previos.

Palabras clave : CNN; FPGA; acelerador en hardware; MNIST, Zynq.

        · resumen en Inglés     · texto en Inglés     · Inglés ( pdf )