DOSIER CÍTRICOS La Figura 4 ilustra con claridad la segmentación y clasificación efectiva de las copas de los árboles. Los datos iniciales indican un nivel de precisión del 94.3% y una sensibilidad del Figura 4. Segmentación y clasificación de Phytophthora spp. en la banda Red Edge. AGRADECIMIENTO Este trabajo está siendo posible gracias al proyecto DRONFRUIT 2, “Servicio de vigilancia fitosanitaria de cítricos mediante drones e inteligencia artificial”, expediente GOPG-SE-20-0007, proyecto financiado por la Medida 16 del Programa de Desarrollo Rural de Andalucía 2014-2020, incluidas en el funcionamiento de los Grupos Operativos de la Asociación Europea de la Innovación (AEI) en materia de productividad y sostenibilidad agrícola (operación 16.1.2) cofinanciada por la Unión Europea a través del fondo FEADER (90%) y la Junta de Andalucía (10%). 87.1%, con un mAP50 del 68.6% en las operaciones de segmentación y clasificación. Estos valores vislumbran una buena capacidad del sistema para discriminar de manera fiable entre árboles sanos y los infectados por el patógeno Phytophthora spp., reafirmando la eficacia del método para la identificación y el seguimiento del estado fitosanitario de los cultivos. Nos encontramos con resultados preliminares en el desarrollo de un servicio pionero a nivel de cooperativas, diseñado para asistir a los técnicos de campo. Este servicio promete aumentar la precisión en la toma de decisiones sobre intervenciones fitosanitarias, permitiendo actuar proactivamente antes de que los síntomas de afección sean visiblemente detectables en las plantas. n REFERENCIAS • Apolo-Apolo, O. E., Martínez-Guanter, J., Egea, G., Raja, P., & Pérez-Ruiz, M. (2020). Deep learning techniques for estimation of the yield and size of citrus fruits using a UAV. European Journal of Agronomy, 115, 126030. • Deng, L., Mao, Z., Li, X., Hu, Z., Duan, F., & Yan, Y. (2018). UAV-based multispectral remote sensing for precision agriculture: A comparison between different cameras. ISPRS journal of photogrammetry and remote sensing, 146, 124-136. • FAO, 2017. El future de la alimentación y la agricultura: Tendencias y desafíos. https://www.fao.org/3/i6583e/ i6583e.pdf • Hinton, G. E., Osindero, S., & Teh, Y. W. (2006). A fast-learning algorithm for deep belief nets. Neural computation, 18(7), 1527-1554. • LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. nature, 521(7553), 436-444. • MAPA, 2022. Encuesta sobre Superficies y Rendimientos Cultivos (ESYRCE). Encuesta de Marco de Áreas de España. https://www.mapa.gob.es/es/estadistica/temas/estadisticas-agrarias/agricultura/esyrce/ • McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (2006). A proposal for the dartmouth summer research project on artificial intelligence, august 31, 1955. AI magazine, 27(4), 12-12. • Nguyen, C., Sagan, V., Maimaitiyiming, M., Maimaitijiang, M., Bhadra, S., & Kwasniewski, M. T. (2021). Early detection of plant viral disease using hyperspectral imaging and deep learning. Sensors, 21(3), 742. • ONU, 2023. Informe de los Objetivos de Desarrollo Sostenible 2023: Edición especial. https://www.un.org/sustainabledevelopment/es/ • Talaviya, T., Shah, D., Patel, N., Yagnik, H., & Shah, M. (2020). Implementation of artificial intelligence in agriculture for optimisation of irrigation and application of pesticides and herbicides. Artificial Intelligence in Agriculture, 4, 58-73. 29
RkJQdWJsaXNoZXIy Njg1MjYx