Evaluación comparativa de modelos de clasificación de imágenes del medio ambiente con TensorFlow y el dataset Plant Seedlings
DOI:
https://doi.org/10.24054/raaas.v16i1.3716Palabras clave:
Modelos computaciones, procesamiento de imágenes, medio ambiente, aprendizaje profundoResumen
El presente artículo compara el desempeño de cuatro modelos de aprendizaje profundo en la tarea de clasificación de imágenes de plántulas vegetales capturadas en condiciones naturales. Se utilizaron una red neuronal convolucional (CNN) personalizada y tres arquitecturas preentrenadas: MobileNetV2, ResNet50 y EfficientNetB0. El conjunto de datos empleado fue el Plant Seedlings Dataset, que contiene más de 4.700 imágenes de doce especies diferentes. La metodología incluyó preprocesamiento de imágenes, aumento de datos, entrenamiento en Google Colab y evaluación con métricas como exactitud, F1-score macro y matrices de confusión. Los resultados muestran que los modelos basados en transferencia de aprendizaje superan significativamente a la CNN personalizada en precisión y capacidad de generalización. EfficientNetB0 obtuvo el mejor desempeño global (98.51% de precisión), mientras que MobileNetV2 destacó por su eficiencia computacional (5 ms por predicción). ResNet50 logró una precisión competitiva (98.11%), aunque con mayores costos de entrenamiento e inferencia. Este trabajo demuestra que las arquitecturas modernas permiten clasificaciones precisas incluso en escenarios visualmente complejos, y ofrece una guía comparativa para la selección de modelos según necesidades de precisión y recursos disponibles. Los hallazgos son relevantes para aplicaciones de inteligencia artificial en ecología, monitoreo ambiental y agricultura de precisión.
Descargas
Citas
Alajrami, M. A., & Abu-Naser, S. S. (2019). Type of Tomato Classification Using Deep Learning. International Journal of Academic Pedagogical Research. www.ijeais.org/ijapr
Beck, M. A., Liu, C. Y., Bidinosti, C. P., Henry, C. J., Godee, C. M., & Ajmani, M. (2020). An embedded system for the automated generation of labeled plant images to enable machine learning applications in agriculture. PLoS ONE, 15(12 December). https://doi.org/10.1371/journal.pone.0243923
Chauhan, R., Ghanshala, K. K., & Joshi, R. C. (2018). Convolutional Neural Network (CNN) for Image Detection and Recognition. ICSCCC 2018 - 1st International Conference on Secure Cyber Computing and Communications, 278–282. https://doi.org/10.1109/ICSCCC.2018.8703316
Colmer, J., O’Neill, C. M., Wells, R., Bostrom, A., Reynolds, D., Websdale, D., Shiralagi, G., Lu, W., Lou, Q., Le Cornu, T., Ball, J., Renema, J., Flores Andaluz, G., Benjamins, R., Penfield, S., & Zhou, J. (2020). SeedGerm: a cost-effective phenotyping platform for automated seed imaging and machine-learning based phenotypic analysis of crop seed germination. New Phytologist, 228(2), 778–793. https://doi.org/10.1111/nph.16736
Cremers, D., Reid, I., Saito, H., & Yang, M. H. (2014). Computer Vision-ACCV 2014:12th Asian Conference on Computer Vision Singapore, Singapore, November 1–5, 2014 Revised Selected Papers, Part I. Lecture Notes in Computer Science (Including Subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 9003(April). https://doi.org/10.1007/978-3-319-16865-4
de Medeiros, A. D., Capobiango, N. P., da Silva, J. M., da Silva, L. J., da Silva, C. B., & dos Santos Dias, D. C. F. (2020). Interactive machine learning for soybean seed and seedling quality classification. Scientific Reports, 10(1). https://doi.org/10.1038/s41598-020-68273-y
Genze, N., Bharti, R., Grieb, M., Schultheiss, S. J., & Grimm, D. G. (2020). Accurate machine learning-based germination detection, prediction and quality assessment of three grain crops. Plant Methods, 16(1). https://doi.org/10.1186/s13007-020-00699-x
Liu, J., & Wang, X. (2021). Plant diseases and pests detection based on deep learning: a review. In Plant Methods (Vol. 17, Issue 1). BioMed Central Ltd. https://doi.org/10.1186/s13007-021-00722-9
Mikolajczyk, A., & Grochowski, M. (2019). Data augmentation for improving deep learning in image classification problem. 2019 International Interdisciplinary PhD Workshop, IIPhDW 2019, 117–122.
Moghadam, M. H., Saadatmand, M., Borg, M., Bohlin, M., & Lisper, B. (2018). Learning-based response time analysis in real-time embedded systems: A simulation-based approach. Proceedings - International Conference on Software Engineering, 21–24. https://doi.org/10.1145/3194095.3194097
Ramírez-Arias, J. L., Rubiano-Fonseca, A., & Jiménez-Moreno, R. (2020). Object Recognition Through Artificial Intelligence Techniques. Revista Facultad de Ingeniería, 29(54), e10734. https://doi.org/10.19053/01211129.v29.n54.2020.10734
Sae-Lim, W., Wettayaprasit, W., & Aiyarak, P. (2019). Convolutional Neural Networks Using MobileNet for Skin Lesion Classification. JCSSE 2019 - 16th International Joint Conference on Computer Science and Software Engineering: Knowledge Evolution Towards Singularity of Man-Machine Intelligence, 242–247. https://doi.org/10.1109/JCSSE.2019.8864155
Sharma, P., Berwal, Y. P. S., & Ghai, W. (2020). Performance analysis of deep learning CNN models for disease detection in plants using image segmentation. Information Processing in Agriculture, 7(4), 566–574. https://doi.org/10.1016/j.inpa.2019.11.001
Shorten, C., & Khoshgoftaar, T. M. (2019). A survey on Image Data Augmentation for Deep Learning. Journal of Big Data, 6(1), 1–48. https://doi.org/10.1186/s40537-019-0197-0
Tan, S., Liu, J., Lu, H., Lan, M., Yu, J., Liao, G., Wang, Y., Li, Z., Qi, L., & Ma, X. (2022). Machine Learning Approaches for Rice Seedling Growth Stages Detection. Frontiers in Plant Science, 13. https://doi.org/10.3389/fpls.2022.914771
Yamashita, R., Nishio, M., Gian-Do, R. K., & Togashi, K. (2018). Convolutional neural networks: an overview and application in radiology. Insights into Imaging, 9(4), 611–629. https://doi.org/10.1007/s13244-018-0639-9
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2025 REVISTA AMBIENTAL AGUA, AIRE Y SUELO

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial 4.0.