IA, VISIÓN ARTIFICIAL, REALIDAD AUMENTADA 62 nalización, sino que también fomentan la colaboración y la transparencia en el desarrollo de soluciones tecnológicas. La implementación de plataformas que ejecuten la detección en tiempo real de anomalías se facilita mediante el empleo de herramientas de código abierto, tal como se ejemplifica en la figura 3. La arquitectura de esta plataforma se ha desarrollado utilizando herramientas ‘open source’ del ecosistema Apache. Cabe destacar que se está abordando específicamente un flujo de datos que se origina en el centro de mecanizado monitorizado y culmina en una representación visual. Los componentes de software se implementan en distintas máquinas virtuales, conformando una arquitectura de sistema distribuido. Estas máquinas constituyen un clúster Kafka que opera de manera distribuida, encargándose del almacenamiento, recepción y envío de mensajes entre sus diversos brokers. La gestión y coordinación de los brokers recae en Zookeeper, que también asigna un broker para desempeñar el rol de líder. Como se observa en la figura 3, en el inicio del proceso, se adquiere un conjunto de variables de un centro de mecanizado a través de OPC-UA, utilizando el software de la plataforma como cliente OPC y el PLC del centro como servidor OPC. La frecuencia de captura de OPC-UA se ajusta para monitorizar un conjunto específico de variables críticas de la máquina. Seguidamente, NiFi lleva a cabo la extracción y transformación de estas variables, configurando dos procesadores personalizados para establecer un flujo de datos entre el Servidor OPC y NiFi, obteniendo los valores del PLC de la máquina de mecanizado. Posteriormente, los datos se envían a un sistema de colas, como Kafka, que retiene los datos hasta que PySpark los consume, asegurando la secuencia de entrega mediante el método FIFO. PySpark, en su modalidad Streaming, procesa y analiza el conjunto de datos utilizando DataFrames, comparándolos con lecturas históricas para supervisar el estado actual de cada variable y detectar posibles anomalías. En cuanto al almacenamiento y persistencia de datos, se opta por InfluxDB como base de datos no relacional, donde los datos de series temporales se almacenan y ordenan según las marcas de tiempo. La visualización de estos datos se realiza a través de Grafana, que efectúa consultas a InfluxDB y presenta los resultados en un cuadro de mandos mediante paneles, facilitando la interpretación intuitiva de los valores para los trabajadores de la fábrica. PRUEBAS Y RESULTADOS En esta sección, abordamos pruebas que examinan el rendimiento de 3 de los protocolos industriales mencionados anteriormente, centrándonos en la tasa de muestreo y el uso de CPU y RAM como aspectos clave. Al evaluar la tasa de muestreo, buscamos determinar la eficiencia de los protocolos en la transmisión y recepción de datos. Asimismo, la evaluación del uso de CPU y RAM proporciona perspectivas sobre el impacto de estos protocolos en los recursos computacionales del sistema. Figura 3. Plataforma de detección de anomalías en tiempo real.
RkJQdWJsaXNoZXIy Njg1MjYx