Clasificación de frutas basadas en redes neuronales convolucionales

 

Classification of fruits based on convolutional neural networks

 

Classificação de frutos com base em redes neurais convolucionais

                                                                                                                                    

 

 

Jonathan Victor Aguilar-Alvarado  

ajonathanv@psg.ucacue.edu.ec

https://orcid.org/0000-0003-0137-2618

 

Milton Alfredo Campoverde-Molina

mcampoverde@ucacue.edu.ec

https://orcid.org/0000-0001-5647-5150

 

 

 

 

Correspondencia: ajonathanv@psg.ucacue.edu.ec

 

Ciencias de la ingeniería

Artículo de investigación

 

*Recibido: 05 de noviembre de 2019 *Aceptado: 30 de diciembre de 2019 * Publicado: 17 de enero 2020

 

  1. Magíster en Docencia y Gerencia en Educación Superior, Ingeniero de Sistemas, Tecnólogo Analista de Sistemas, Jefatura de Posgrados Universidad Católica de Cuenca, Cuenca, Ecuador.
  2. Magíster en Docencia Universitaria, Magíster en Evaluación y Auditoria de Sistemas Tecnológicos, Ingeniero de Sistemas, Tecnólogo Analista de Sistemas, Docente de la Unidad Académica de Tecnologías de la Información y la Comunicación (TIC), Jefatura de Posgrados Universidad Católica de Cuenca, Cuenca, Ecuador.

Resumen

La clasificación de frutas mediante la inteligencia artificial ha sido un factor muy importante en la optimización de procesos industriales en el sector alimentario. En la presente investigación se muestra el proceso de entrenamiento de una red neuronal convolucional profunda (CNN) del proyecto Mobile Net de TensorFlow, determinado en los siguientes pasos: captura de imágenes de frutas, procesamiento de las imágenes, entrenamiento de la red neuronal y validación del modelo entrenado. El entrenamiento se basa en 13 categorías de frutas: banana, cereza, frutilla, limón, mandarina, mango manzana, mora, naranja, papaya, pera, piña y uva. Las imágenes son obtenidas en diferentes ambientes mediante una cámara digital, se las procesa etiquetándolas y segmentándolas por calidad de resolución, para que sean utilizadas en el entrenamiento. La validación se realiza midiendo los tiempos de respuesta y aciertos que se obtengan en la predicción del modelo de red neuronal. Finalmente, se determina la eficiencia de la red neuronal. Esta investigación es importante porque permite enmarcar el punto inicial para el desarrollo de sistemas autónomos usando visión artificial con pocos recursos computacionales, cuyo objetivo es entrenar un modelo de visión artificial utilizando una red neuronal convolucional para la clasificación de frutas.

Palabras clave: Aprendizaje de máquina; inteligencia artificial; mobilenet; redesneuronales convolucionales; tensorflow.

Abstract

The classification of fruits through artificial intelligence has been a very important factor in the optimization of industrial processes in the food sector. In the present investigation, the training process of a deep convolutional neuronal network (CNN) of the TensorFlowMobileNet project is shown, determined in the following steps: capture of fruit images, processing of the images, training of the neural network and validation of the trained model The training is based on 13 fruit categories: banana, cherry, strawberry, lemon, tangerine, mango, blackberry, orange, papaya, pear, pineapple and grape. The images are shown in the different media by means of a digital camera, the labels are processed and segmented by the quality of resolution, so that they are useful in training. The validation is carried out through the response times and successes obtained in the prediction of the neuronal red model. Finally, the efficiency of the neural network will be determined. This research is important because it allows me to frame the starting point for the development of autonomous systems using artificial information with computer resources and whose objective is the model of artificial vision using a convolutional red neuronal for the classification of fruits.

Keywords: Machine learning; artificial intelligence; mobilenet; convolutional neural network; tensorflow

Resumo

A classificação de frutas por inteligência artificial tem sido um fator muito importante na otimização de processos industriais no setor de alimentos. Esta pesquisa mostra o processo de treinamento de uma rede neural convolucional profunda (CNN) do projeto TensorFlow Mobile Net, determinada nas seguintes etapas: captura de imagens de frutas, processamento de imagens, treinamento e validação de redes neurais do modelo treinado. O treinamento é baseado em 13 categorias de frutas: banana, cereja, morango, limão, tangerina, manga maçã, amora, laranja, mamão, pêra, abacaxi e uva. As imagens são obtidas em diferentes ambientes por meio de uma câmera digital, são processadas rotulando e segmentando-as para obter qualidade de resolução, para que sejam utilizadas em treinamento. A validação é feita medindo os tempos de resposta e os sucessos obtidos na predição do modelo de rede neural. Finalmente, a eficiência da rede neural é determinada. Esta pesquisa é importante porque permite enquadrar o ponto de partida para o desenvolvimento de sistemas autônomos, utilizando visão artificial com poucos recursos computacionais, cujo objetivo é treinar um modelo de visão artificial utilizando uma rede neural convolucional para a classificação de frutos.

Palavras-chave: Aprendizado de máquina; inteligência artificial; mobilenet; redes neurais convolucionais; fluxo tensorial.

Introducción

En este documento se aborda el entrenamiento de una red neuronal convolucional computacional para la clasificación de frutas, lo que demuestra la eficiencia de este tipo de técnica al momento de procesar imágenes. El tipo de red neuronal convolucional (CNN) adquiere mecanismos de entrada- salida y son utilizadas para la detección o categorización de imágenes. (Loncomilla, 2016).

El reconocimiento de imágenes basado en redes neuronales ha evolucionado el campo de la visión artificial. En ese marco referencial, el sector alimentario se ha beneficiado considerablemente porque esta evolución tecnológica ha permitido que se automaticen eficientemente los recursos industriales para la categorización de imágenes, lo cual resulta relevante desde el punto de vista temporal, tecnológico e industrial.

Un identificador autónomo de frutas debe manejar tres parámetros importantes que definen el valor y competitividad en el mercado, éstos son: la forma, el tamaño y el color (Constante, Chang, Pruna, & Escobar, 2016). Actualmente, se está trabajando mucho en la aplicación de la inteligencia artificial para construir identificadores autónomos que puedan reconocer estos parámetros básicos con efectividad y rapidez.

En este sentido, valga referir que, existen investigaciones que permiten medir el estado de maduración del café utilizando una red neuronal de base radial, empleando el sistema denominado “Neural Network Toolbox” de Mat Lab, con cuyo uso se logró la obtención de resultados óptimos como clasificador. (Sáenz, 2016). Las imágenes utilizadas fueron procesadas a escalas grises obteniendo un rendimiento del 95 %.

Desde la perspectiva de lo beneficioso que resulta el uso de esta tecnología, se precisa que Figueredo (Ávila, 2016) planteó el uso de una Red Neuronal Backpropagation (BPNN) utilizando para el entrenamiento 4.200 imágenes. Las pruebas de reconocimiento realizadas en ese año permitieron obtener resultados óptimos aplicando el algoritmo Gradiente Conjugado Escalado.

Por su parte, en otra investigación realizada también en ese mismo año, de 2016, P. Constante, O. Chang, E. Pruna, y I. Escobar (2016) utilizaron una red neuronal con 10.000 entradas, 37 neuronas escondidas y 22 neuronas de salida usadas en 50 imágenes. Los resultados fueron altamente satisfactorios en la detección de fresas y concluyen que el sistema es lo suficientemente capaz de operar en un ambiente sin mayores controles ambientales.

Aunado a ello, también en el año 2014, Cortez, Montoya y Chávez (Montoya Holguín, Cortés Osorio, & Chaves Osorio, 2014) utilizaron la técnicas K Nearest Neighbors (KNN) y bayesiano, con una efectividad hasta el 90 % en el reconocimiento de 9 categorías de frutas manzana verde, manzana roja, mango tommy, naranja tangelo, maracuyá, granadilla, kiwi, guayaba y banano. La investigación permitió la construcción de una báscula electrónica capaz de clasificar frutas de productos agrícolas en los supermercados.

Por su parte, en la investigación realizada por Herrera, Medina, Beleño y Gualdrón, (2016) manejaron la técnica bayesiana utilizando imágenes en escala de grises para la detección del café con una efectividad del 87 %. Dados estos resultados, los autores llegaron a determinar que la efectividad no fue muy alta debido a los problemas de iluminación y el algoritmo presentados durante la ejecución del proceso.

En 2017, Diego Heras (Heras, 2017) presenta la extracción del “Histograma 3D RGB” y la aplicación de la máquina de aprendizaje supervisado “Random Forest” en 4 clases de frutas: manzana verde, roja, banana y naranja con un total de 83 imágenes obtenidas, en las cuales utilizaron el 70 % para el entrenamiento y el 30 % para pruebas. Del resultado que se obtuvo, se llegó a determinar que el mismo puede considerarse como aceptable, sin embargo, se observa que poseen ciertas limitaciones al momento de entrenar dos clases de imágenes de frutas diferentes con colores muy cercanos entre sí, lo cual puede generar confusiones e imprecisiones innecesarias, lo cual deja que desear de este procedimiento en particular.

Desde este marco referencial, es preciso tener en cuenta que (Ramírez, Durán, Morales, Yépez, & Ledesma, 2017) demostraron que para la detección de imágenes nítidas y absolutamente confiables, se puede utilizar un algoritmo Canny y operaciones morfológica matemáticas en MatLab procesando 407 imágenes. El resultado de este procedimiento generó la creación de un prototipo que permite obtener un color en cada canal del espacio RGB para que una computadora pueda identificar una cereza.

Este procedimiento es muy relevante, dado que es preciso llegar a lograr controles óptimos de la clasificación de frutas porque esto permite una mayor productividad y eficiencia en su proceso de distribución y reduce el margen de error humano. Por lo tanto, se hace necesario hoy día el alcance de la implementación de un sistema tecnológico e inteligente adaptable a los requerimientos de este sector en particular.

Lo anteriormente expuesto pone en evidencia que esta investigación es importante puesto que es el punto inicial para el desarrollo de sistemas autónomos usando visión artificial. Además de ello, se considera que estos sistemas funcionen en ambientes tecnológicos y equipos móviles tales como smartphone, computadoras y tablet ponderando la portabilidad y las características y condiciones que los hagan compatibles entre sí.

Por otra parte, es consideración de los autores asumir que existe un deficiente manejo de clasificación de frutas y ello incide en la disminución de su clasificación efectiva y un consecuente retardo en los mecanismos de distribución de manera eficaz, como corresponde en estos casos. Desde este marco contextual, vale destacar que el objetivo de esta investigación se circunscribe a entrenar un modelo de visión artificial utilizando una red neuronal convolucional para la clasificación de 13 clases de frutas.

El presente artículo se encuentra organizado de la siguiente manera: se presentan estudios anteriores relacionados con la investigación. Luego, se presenta la metodología empleada en la investigación. Posteriormente, se muestran los resultados obtenidos en la investigación. Y, finalmente, se derivan y establecen las conclusiones de la investigación.

Desarrollo

En el año 2019, se presentó una investigación que permitió clasificar las plantas medicinales como mecanismo de transferencia, utilizando para ello las redes neuronales convolucionales, de lo cual se generó la cifra de 2.300 imágenes en el área del Sur de Vietnam. Los autores llegaron a la conclusión de que la metodología de transferencia propuesta funcionó bien y permitió ayudar a los seres humanos en una clasificación e identificación de plantas medicinales en el mundo real, considerándolo como una tarea esencial en la investigación médica (Duong-Trung, Quach, Nguyen, & Nguyen, 2019).

Otra de las investigaciones presentadas en el año 2019 sobre esta materia permitió la detección en tiempo real, del texto en el entorno natural mediante una red neuronal convolucional, en la cual se obtuvo un total 122.453 imágenes, alcanzando con ello una efectividad de 99,31 % en 110 ms. Los autores llegaron a determinar que el modelo fue efectivo, dado que alcanzó la capacidad de trabajar de forma independiente, sin ninguna ayuda de Internet para fines de detección. (Francis & Sreenath, 2019).

Por su parte, en el año de 2018, se efectuó una investigación presentada sobre una adaptación de MobileNets para la estimación de la postura del cuerpo superior basada en dispositivos móviles, de lo cual se obtuvo la generación y clasificación 5.003 imágenes, siendo 3.987 para entrenamiento y 1.016 para pruebas. De ello se adaptaron para MobileNet en orden de basar las posturas en el reloj de arena, el modelo se evaluó en un conjunto de datos denominado FLIC, obteniendo respuesta muy rápida y llegando a reducir el exceso de ajuste. (Debnath, Orbrien, Yamaguchi, & Behera, 2019).

Aunado a los estudios anteriores, también se adosa una investigación realizada en este mismo año de 2018, el estudio versó sobre transferencia de aprendizaje para la clasificación de la hoja con redes neuronales convolucionales, en las cuales se establecieron 10 clases de ellas, llegando a generar y clasificar un total de 80 a 90 imágenes por cada categoría. Los autores obtienen una precisión del 97,75 % y concluyen que sin mucho conocimiento en el procesamiento de imágenes, la clasificación de la hoja se logra utilizando la técnica de aprendizaje por transferencia (Esmaeili & Phoka, 2018).

Finalmente, se incluye además, un estudio presentado en el año 2018 sobre la clasificación de plantas en la naturaleza: el mismo constituyó un enfoque de aprendizaje por transferencia utilizando una red neuronal convolucional, a partir del cual se generaron aproximadamente 260.000 imágenes de plantas que pertenecen a 10.000 especies con una efectividad de 78,76 %. Los autores plantean extender el conjunto de datos para incluir más clases de variantes y así cubrir más especies de plantas. (Al-Qurran, Al-Ayyoub, & Shatnawi, 2018).

Metodología

En esta investigación se llevó a efecto el siguiente procedimiento a saber:

1)         Captura de imágenes de frutas, se obtienen imágenes mediante dispositivos digitales y descargas desde el internet con buena calidad de resolución.

2)         Procesamiento de las imágenes, se utilizan herramientas de gestión de imágenes como Photoshop, herramientas online y se implementa un etiquetado masivo de los archivos, jerarquizando por carpetas.

3)         Entrenamiento de la red neuronal, se utiliza el modelo MobileNet compilado en Python con la librería TensorFlow para el aprendizaje de la red neuronal convolucional.

4)         Validación del modelo entrenado, se usa una base de datos de imágenes para validar el funcionamiento del modelo entrenado, se analiza el porcentaje de eficiencia y velocidad de respuesta.

Análisis y discusión de Resultados

El procesamiento del aprendizaje de la CNN se ejecuta mediante el lenguaje Python y los resultados se muestran mediante la herramienta TensorFlow y MatLab.

1.         Captura de imágenes de frutas.

Figura 1. Imágenes por clases de frutas.

Las imágenes de las 13 categorías como se muestra en la figura 1: banana, cereza, frutilla, limón, mandarina, mango manzana, mora, naranja, papaya, pera, piña y uva, se las obtuvo mediante una cámara digital de 13 megapíxeles ZEISS y almacenadas en una tarjeta SD de 64 Gb, así como también, se adquirieron imágenes descargadas del internet en ImageNet y otros recursos online. Las imágenes fueron capturadas en diferentes escenarios como: supermercados, ferias de frutas, cultivos y en diferentes tipos de iluminación.

Las imágenes obtenidas deben tener una extensión JPG o JPEG para que puedan ser utilizadas en el entrenamiento. Luego se crea una base de datos con un total de 13.516 imágenes divididas en 13 categorías como se muestra en la tabla 1.

Tabla 1. Tamaño de las clases de imágenes.

Categoría

Muestra

Porcentaje

Banana

1.067

7,89

Cereza

1.001

7,41

Frutilla

1.004

7,43

Limón

1.029

7,61

Mandarina

1.005

7,44

Mango

1.013

7,49

Manzana

1.032

7,64

Mora

1.086

8,03

Naranja

1.038

7,68

Papaya

1.026

7,59

Pera

1.070

7,92

Piña

1.018

7,53

Uva

1.127

8,34

2.         Procesamiento de las imágenes

Las imágenes fueron procesadas redimensionándolas (sin perder su calidad) y categorizándolas utilizando herramientas como Photoshop y herramientas web online. En ese orden, es importante referir, que dependiendo del tamaño de la imagen (resolución) se obtendrán mejores resultados de aprendizaje, en esta investigación se implementa imágenes desde 500 x 500 hasta 3120 x 4160 pixeles.

Además, se crean subcarpetas con los nombres respectivos a las categorías que se va a entrenar la CNN, este proceso es imprescindible porque permite definir la etiqueta del entrenamiento de la red neuronal convolucional. Se utiliza el modelo MobileNetV1 para realizar el entrenamiento.

 

3.         Entrenamiento de la red neuronal convolucional

Para el entrenamiento utilizaremos MobileNetV1 basado en Tensor Flow para realizar el aprendizaje de las 13 categorías de frutas. El aprendizaje es ejecutado en un computador i5-2.5GHZ-7G, 8GB RAM, 500GB HD.

El proceso de entrenamiento de la red inicia con un análisis de todas las imágenes que existen en nuestra categoría debidamente etiquetas, luego realiza un cálculo de cuellos de botella (bottleneck) para cada imagen con el objetivo de comprimir las representaciones de las características de las imágenes y obtener mejor pérdida en el entrenamiento. Al finalizar, se presenta el porcentaje del entrenamiento y validación. En la figura 2 se muestra el modelo MobileNetV1.

Figura 2. Modelo de entrenamiento MobileNetV1.

Los porcentajes del entrenamiento cambian en cada aprendizaje, esto se debe al hecho de que la red neuronal convolucional selecciona en bloques 10 imágenes aleatoriamente y las procesa. El entrenamiento se configura para que se realice en 4.000 pasos (step) y otorga resultados de efectividad, validación y entropía cruzada.

En el proceso de entrenamiento, la capa superior recibe como entrada un vector de 1.001 dimensiones para cada imagen. Si la capa contiene N etiquetas, esto corresponde al aprendizaje de N + 1001 * N parámetros del modelo correspondientes a los sesgos y pesos aprendidos.

4.         Validación del modelo de la red neuronal convolucional

Se utiliza el lenguaje de programación Python 3.7 para la ejecución de la red neuronal entrenada y se utiliza 1.300 imágenes que contienen frutas correspondientes a las 13 categorías definidas en esta investigación. Se utiliza el comando de la figura 3 para validar la efectividad del entrenamiento de la referida red neuronal convolucional.

Figura 3. Comando que permite la detección de frutas en una imagen.

 

En la figura 3 se muestra la comprobación de verificación de una imagen en el lenguaje Python. En el comando se otorgan dos parámetros, el primero definir la referencia del modelo entrenado y el segundo la imagen a reconocer.

Figura 4. Evaluación de la imagen utilizando el modelo neuronal entrenado.

 

Como se observa en la figura 4 la red neuronal entrega resultados sobre similitud del contenido de la imagen con relación a las categorías de modelo entrenado entre los valores de 0 a 1 y a su vez el tiempo que tardó el proceso de verificación. Aunado a eso, los tiempos del proceso de reconocimiento de la red dependen de las características del computador, no obstante, este modelo de red está adecuado para funcionar correctamente en dispositivos de bajos recursos. Para mostrar los resultados mediante gráficos se utiliza Tensor Board y Mat Lab.

Figura 5. Entrenamiento de la red neuronal convolucional.

 

En la figura 5 se muestra el resultado del entrenamiento de la red neuronal convolucional relacionando la cantidad de pasos (step) y el porcentaje de exactitud del entrenamiento (accuracy). La precisión del entrenamiento se basó en el porcentaje de imágenes al azar utilizadas en el lote de capacitación y que se etiquetaron con la clase, si el porcentaje es mayor entonces se está realizando un buen entrenamiento.

Figura 6. Validación del entrenamiento de la red neuronal convolucional.

En la figura 6 se muestra el resultado de la validación del entrenamiento de la red, obteniendo relación entre el número de pasos (step) y el porcentaje de validación. El objetivo es acercase en lo máximo posible a uno (1), la validación permite determinar la precisión, porcentaje de imágenes correctamente etiquetadas en imágenes seleccionadas al azar de un conjunto de datos.

 

 

Figura 7. Entropía cruzada del entrenamiento.

En la figura 7 se mide el rendimiento del entrenamiento (trazo zig-zag color naranja) vs validación (trazo zig-zag color azul), el objetivo de esto es lograr acercase lo más posible a cero para que este modelo entrenado sea eficiente. Si la precisión del entrenamiento es alta, pero la precisión de la validación sigue siendo baja, el significado es que la red está demasiado ajustada y conserva las características específicas de las imágenes (Gavai, Jakhade, Tribhuvan, & Bhattad, 2018). A esto se adosa que las capas de entrada, oculta y salida determinan los resultados mediante el manejo de pesos. Ésta intensidad de sinapsis es procesada por la CNN como se muestra en la Figura 8

.

Figura 8. Manejo de los pesos en el entrenamiento de la red neuronal.

En el proceso de validación se llegan a utilizar hasta cien imágenes por categoría, para un total de mil trecientas imágenes obtenidas desde la web y fotografiada en diferentes lugares y luminosidad. Se determina la cantidad de predicciones que realiza el modelo, ponderándolas en porcentajes y así obtener una visualización gráfica, como se observa a renglón seguido:

Figura 9. Resultados de la validación de las imágenes.

En la figura 9 se muestran los resultados obtenidos en la validación, de color azul se n la predicciones afirmativas y naranja las negativas, podemos resaltar que obtuvimos una buena eficiencia de reconocimiento en las categorías de banana, cereza, frutilla, mandarina, mora, papaya, piña y uva. Sin embargo, en las categorías mango, manzana, naranja y pera obtuvimos una efectividad regular y a su vez, en la categoría limón tuvimos una deficiente validación.

Figura 10. Tiempo promedio de respuesta de reconocimiento de imágenes del modelo MobileNetV1.

La figura 10 muestra el tiempo promedio de espera en el proceso de detección de la imagen relacionando entre velocidad en segundos y categoría de frutas. El resultado se establece con un máximo de 0,463 segundos como la respuesta más lenta y un mínimo 0,406 segundos como la respuesta más rápida.

Conclusiones

Para la obtención de un buen promedio de eficiencia del modelo neuronal, deben utilizarse imágenes con buena resolución. Se logró obtener un 87 % de eficiencia en esta investigación. Desde esta perspectiva y luego de la revisión bibliográfica, los estudios previos y la puesta en práctica del entrenamiento y todo el procedimiento metodológico, se puede derivar las siguientes conclusiones a saber:

·         Si se reducen todas las imágenes a un tamaño de 224 x 224 pixeles la eficiencia aprendizaje disminuye, llegando hasta un máximo de 65 % de eficiencia, esto da a entender que la resolución de las imágenes es relativo a la efectividad del aprendizaje.

·         En frutas con mucha similitud se debe utilizar una gran cantidad de imágenes y con buena resolución para un correcto reconocimiento. Sin embargo, el uso excesivo de imágenes puede llegar a que el modelo de CNN memorice y no aprenda.

·         Se obtienen velocidades muy buenas en el proceso de reconocimiento de la fruta y se lo considera como un modelo ligero. La mejor velocidad promedio fue de 0,406 segundos.

·         Para procesar el entrenamiento de la red neuronal convolucional no es necesario usar altos recursos computacionales. Así mismo, se determina que el modelo entrenado se ejecuta correctamente en Smartphone.

·         Para que un modelo CNN de MobileNetV1 sea altamente eficiente, debe lograrse que el entrenamiento alcance una efectividad promedio mayor al 86 %.

Referencias

1.      Al-Qurran, R., Al-Ayyoub, M., & Shatnawi, A. (2018). Plant Classification in the Wild: A Transfer Learning Approach. In 2018 International Arab Conference on Information Technology (ACIT) (pp. 1–5).

2.      Avila, G. A. F. (2016). Clasificación de la manzana royal gala usando visión artificial y redes neuronales artificiales. Research in Computing Science, 114, 23–32.

3.      Constante, P., Chang, O., Pruna, E., & Escobar, I. (2016). Artificial Vision Techniques for Strawberry ’ s Industrial Classification. Ieee Latin America Transactions. https://doi.org/10.1109/TLA.2016.7555221

4.      Debnath, B., Orbrien, M., Yamaguchi, M., & Behera, A. (2019). Adapting MobileNets for mobile based upper body pose estimation. In Proceedings of AVSS 2018 - 2018 15th IEEE International Conference on Advanced Video and Signal-Based Surveillance. https://doi.org/10.1109/AVSS.2018.8639378

5.      Duong-Trung, N., Quach, L.-D., Nguyen, M.-H., & Nguyen, C.-N. (2019). A Combination of Transfer Learning and Deep Learning for Medicinal Plant Classification. In Proceedings of the 2019 4th International Conference on Intelligent Information Technology (pp. 83–90).

6.      Esmaeili, H., & Phoka, T. (2018). Transfer Learning for Leaf Classification with Convolutional Neural Networks. In 2018 15th International Joint Conference on Computer Science and Software Engineering (JCSSE) (pp. 1–6).

7.      Francis, L. M., & Sreenath, N. (2019). Live detection of text in the natural environment using Convolutional Neural Network. Future Generation Computer Systems, 98, 444–455. https://doi.org/10.1016/j.future.2019.03.054

8.      Gavai, N. R., Jakhade, Y. A., Tribhuvan, S. A., & Bhattad, R. (2018). MobileNets for flower classification using TensorFlow. In 2017 International Conference on Big Data, IoT and Data Science, BID 2017. https://doi.org/10.1109/BID.2017.8336590

9.      Heras, D. (2017). Clasificador de imágenes de frutas basado en inteligencia artificial. Killkana Técnica. https://doi.org/10.26871/killkana_tecnica.v1i2.79

10.  Herrera, J. C., Medina, S. M., Beleño, K., & Gualdrón, O. E. (2016). Diseño de un sistema automático de selección de frutos de café mediante técnicas de visión artificial. Revista UIS Ingenierías. https://doi.org/10.18273/revuin.v15n1-2016001

11.  Loncomilla, P. (2016). Deep learning: Redes convolucionales. Recuperado de https://ccc. inaoep. mx/~ pgomez/deep/presentations.

12.  Montoya Holguín, C., Cortés Osorio, J. A., & Chaves Osorio, J. A. (2014). Sistema automático de reconocimiento de frutas basado en visión por computador. Ingeniare. Revista Chilena de Ingeniería. https://doi.org/10.4067/s0718-33052014000400006

13.  Ramírez, W. A. M., Durán, M. T., Morales, R. A. L., Yépez, E. C., & Ledesma, L. M. C. (2017). Determinación del estado de madurez de una cereza aplicando procesamiento de imágenes. Jóvenes en la ciencia, 3(2), 2685–2689.

14.  Sáenz, K. D. J. B. (2016). Clasificación de los frutos de café según su estado de maduración y detección de la broca mediante técnicas de procesamiento de imágenes. Prospectiva. https://doi.org/10.15665/rp.v14i1.640

References

1.      Al-Qurran, R., Al-Ayyoub, M., & Shatnawi, A. (2018). Plant Classification in the Wild: A Transfer Learning Approach. In 2018 International Arab Conference on Information Technology (ACIT) (pp. 1–5).

2.      Avila, G. A. F. (2016). Classification of the royal gala apple using artificial vision and artificial neural networks. Research in Computing Science, 114, 23–32.

3.      Constante, P., Chang, O., Pruna, E., & Escobar, I. (2016). Artificial Vision Techniques for Strawberry’s Industrial Classification. Ieee Latin America Transactions. https://doi.org/10.1109/TLA.2016.7555221

4.      Debnath, B., Orbrien, M., Yamaguchi, M., & Behera, A. (2019). Adapting MobileNets for mobile based upper body pose estimation. In Proceedings of AVSS 2018 - 2018 15th IEEE International Conference on Advanced Video and Signal-Based Surveillance. https://doi.org/10.1109/AVSS.2018.8639378

5.      Duong-Trung, N., Quach, L.-D., Nguyen, M.-H., & Nguyen, C.-N. (2019). A Combination of Transfer Learning and Deep Learning for Medicinal Plant Classification. In Proceedings of the 2019 4th International Conference on Intelligent Information Technology (pp. 83–90).

6.      Esmaeili, H., & Phoka, T. (2018). Transfer Learning for Leaf Classification with Convolutional Neural Networks. In 2018 15th International Joint Conference on Computer Science and Software Engineering (JCSSE) (pp. 1–6).

7.      Francis, L. M., & Sreenath, N. (2019). Live detection of text in the natural environment using Convolutional Neural Network. Future Generation Computer Systems, 98, 444–455. https://doi.org/10.1016/j.future.2019.03.054

8.      Gavai, N. R., Jakhade, Y. A., Tribhuvan, S. A., & Bhattad, R. (2018). MobileNets for flower classification using TensorFlow. In 2017 International Conference on Big Data, IoT and Data Science, IDB 2017. https://doi.org/10.1109/BID.2017.8336590

9.      Heras, D. (2017). Fruit image classifier based on artificial intelligence. Technical Killkana https://doi.org/10.26871/killkana_tecnica.v1i2.79

10.  Herrera, J. C., Medina, S. M., Beleño, K., & Gualdrón, O. E. (2016). Design of an automatic system for selecting coffee fruits using artificial vision techniques. UIS Engineering Magazine. https://doi.org/10.18273/revuin.v15n1-2016001

11.  Loncomilla, P. (2016). Deep learning: Convolutional networks. Recovered from https: // ccc. inaoep. mx / ~ pgomez / deep / presentations.

12.  Montoya Holguin, C., Cortés Osorio, J. A., & Chaves Osorio, J. A. (2014). Automatic fruit recognition system based on computer vision. I will engineer. Chilean Engineering Magazine. https://doi.org/10.4067/s0718-33052014000400006

13.  Ramírez, W. A. ​​M., Durán, M. T., Morales, R. A. L., Yépez, E. C., & Ledesma, L. M. C. (2017). Determination of the state of maturity of a cherry applying image processing. Young people in science, 3 (2), 2685–2689.

14.  Saenz, K. D. J. B. (2016). Classification of coffee fruits according to their state of ripening and detection of the drill using image processing techniques. Prospective https://doi.org/10.15665/rp.v14i1.640

Referências

1.      . Al-Qurran, R., Al-Ayyoub, M., & Shatnawi, A. (2018). Classificação de plantas na natureza: uma abordagem de aprendizado por transferência. Em 2018, Conferência Árabe Internacional sobre Tecnologia da Informação (ACIT) (pp. 1-5).

2.      Avila, G. A. F. (2016). Classificação da maçã de gala real usando visão artificial e redes neurais artificiais. Pesquisa em Ciência da Computação, 114, 23–32.

3.      Constante, P., Chang, O., Pruna, E., & Escobar, I. (2016). Técnicas de visão artificial para a classificação industrial de morango. Ieee Transações na América Latina. https://doi.org/10.1109/TLA.2016.7555221

4.      Debnath, B., Orbrien, M., Yamaguchi, M. e Behera, A. (2019). A adaptação das MobileNets para a parte superior do corpo baseada em dispositivos móveis representa uma estimativa. Nos procedimentos da AVSS 2018 - 2018, 15ª.Conferência Internacional IEEE sobre Vigilância Avançada em Vídeo e em Sinal. https://doi.org/10.1109/AVSS.2018.8639378

5.      Duong-Trung, N., Quach, L.-D., Nguyen, M.-H. & Nguyen, C.-N. (2019). Uma combinação de transferência de aprendizagem e aprendizagem profunda para classificação de plantas medicinais. Em Anais da 4ª Conferência Internacional de 2019 sobre Tecnologia da Informação Inteligente (pp. 83-90).

6.      Esmaeili, H., & Phoka, T. (2018). Transferência de aprendizado para classificação de folhas com redes neurais convolucionais. Em 2018, 15ª Conferência Conjunta Internacional de Ciência da Computação e Engenharia de Software (JCSSE) (pp. 1-6).

7.      Francis, L.M. & Sreenath, N. (2019). Detecção ao vivo de texto no ambiente natural usando a Rede Neural Convolucional. Future Generation Computer Systems, 98, 444–455. https://doi.org/10.1016/j.future.2019.03.054

8.      Gavai, N. R., Jakhade, Y. A., Tribhuvan, S. A., & Bhattad, R. (2018). Redes móveis para classificação de flores usando o TensorFlow. Em 2017, Conferência Internacional sobre Big Data, IoT e Ciência de Dados, BID 2017. https://doi.org/10.1109/BID.2017.8336590

9.      Heras, D. (2017). Classificador de imagens de frutas baseado em inteligência artificial. Killkana Técnico https://doi.org/10.26871/killkana_tecnica.v1i2.79

10.  Herrera, J. C., Medina, S. M., Beleño, K., & Gualdrón, O. E. (2016). Projeto de um sistema automático para seleção de frutas de café utilizando técnicas de visão artificial. Revista de Engenharia UIS. https://doi.org/10.18273/revuin.v15n1-2016001

11.  Loncomilla, P. (2016). Aprendizagem profunda: redes convolucionais. Recuperado de https: // ccc. inaoep. mx / ~ pgomez / deep / apresentações.

12.  Montoya Holguin, C., Cortés Osório, J. A. e Chaves Osório, J. A. (2014). Sistema automático de reconhecimento de frutas baseado em visão computacional. Eu vou engenheiro. Revista de Engenharia do Chile. https://doi.org/10.4067/s0718-33052014000400006

13.  Ramírez, W. A. ​​M., Durán, M. T., Morales, R. A. L., Yépez, E. C., & Ledesma, L. M. C. (2017). Determinação do estado de maturidade de uma cereja aplicando processamento de imagem. Jovens na ciência, 3 (2), 2685–2689.

14.  Saenz, K. D. J. B. (2016). Classificação dos frutos do café de acordo com seu estado de maturação e detecção da broca utilizando técnicas de processamento de imagem. Prospectivo https://doi.org/10.15665/rp.v14i1.640

 

 

 

 

©2019 por los autores. Este artículo es de acceso abierto y distribuido según los términos y condiciones de la licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional (CC BY-NC-SA 4.0) (https://creativecommons.org/licenses/by-nc-sa/4.0/).

Enlaces de Referencia

  • Por el momento, no existen enlaces de referencia
';





Polo del Conocimiento              

Revista Científico-Académica Multidisciplinaria

ISSN: 2550-682X

Casa Editora del Polo                                                 

Manta - Ecuador       

Dirección: Ciudadela El Palmar, II Etapa,  Manta - Manabí - Ecuador.

Código Postal: 130801

Teléfonos: 056051775/0991871420

Email: polodelconocimientorevista@gmail.com / director@polodelconocimiento.com

URL: https://www.polodelconocimiento.com/