El ciclo de vida de los datos en vivo

enero 6

El ciclo de vida de los datos en vivo

Con miras a la integración de dispositivos integrados con la nube, el director de tecnología de Raima, Wayne Warren, distingue entre información en vivo y procesable y datos con valor continuo, y argumenta que para darse cuenta del verdadero poder de la nube, las empresas deben utilizar el poder de la recopilación y el control. computadoras en el borde de la red.

El ciclo de vida de los datos en vivo

El auge de la nube ha presentado a las empresas de todos los tamaños nuevas oportunidades para almacenar, administrar y analizar datos, de manera fácil, efectiva y a bajo costo. La gestión de datos en la nube ha permitido a estas empresas reducir los costos y la complejidad de sus sistemas internos, al tiempo que obtienen una mayor visibilidad de la planta y los procesos. Al mismo tiempo, han surgido organizaciones de servicios de terceros que brindan paneles de datos que brindan a las empresas 'control en tiempo real' de sus activos, a menudo desde ubicaciones remotas, así como análisis de tendencias históricas.

Considere, por ejemplo, una empresa en una ubicación central con un activo clave en una ubicación completamente diferente o aislada. Puede ser ventajoso monitorear los datos operativos clave para asegurarse de que el equipo en sí no tenga una tendencia hacia una falla catastrófica, y algunos datos de rendimiento para garantizar que la salida sea óptima. Eso podría ser relativamente pocos sensores en total, y quizás algunos comentarios de diagnóstico de los sistemas de control a bordo. Pero acceder a esos datos directamente podría significar configurar servidores web integrados o establecer algún tipo de telemetría, y luego llevar esos datos al software de administración y entregarlos de una manera que permita actuar sobre ellos.

¿Qué tan fácil es simplemente proporcionar esos mismos resultados a un proveedor de administración de datos basado en la nube y luego iniciar sesión en un tablero personalizado que brinda visualización y control, completo con alarmas, acciones, informes y más? Y todo por una tarifa mensual nominal. Además, con un almacenamiento prácticamente ilimitado en la nube, todos los datos se pueden almacenar, extraer, analizar y difundir como informes que proporcionan niveles de trazabilidad sin precedentes (importante para muchos sectores de la industria) y análisis de tendencias a largo plazo que realmente pueden ayudar a las empresas a mejorar el rendimiento. y, en última instancia, mejorar la rentabilidad.

A medida que aumenta nuestra producción de datos, podría parecer razonable esperar que la calidad de la información que se devuelve desde la nube también mejore, lo que nos permitirá tomar mejores decisiones operativas que mejoren aún más el rendimiento. Y hasta cierto punto, esto es cierto. Pero también existe un peligro en ese camino, porque a medida que nos adentramos en una era de 'big data', es cada vez más difícil extraer 'información procesable' significativa del ruido de fondo.

Donde alguna vez un analista de datos podría haber estado interesado simplemente en las cuotas de la línea de producción y el enlace a la planta o el tiempo de actividad de los activos, hoy también puede estar interesado en acceder a los datos generados por la gran cantidad de dispositivos automatizados a lo largo de la línea de producción, porque esos datos sin procesar pueden Bien, tenemos la clave para aumentar la productividad, reducir el consumo de energía, eliminar el desperdicio, reducir el tiempo de inactividad, mejorar la efectividad general del equipo y, en última instancia, un mejor resultado final.

Y realmente estamos hablando de enormes cantidades de datos. El auge de la 'Internet de las cosas' y las comunicaciones de máquina a máquina (M2M), combinadas con las últimas redes GSM que ofrecen transferencia bidireccional de alta velocidad sin las limitaciones de alcance, potencia, tamaño de datos e infraestructura de red que contenidas las soluciones telemáticas tradicionales, ha visto un aumento exponencial de la transmisión de datos en los últimos años. A partir de 2012, en todo el mundo se creaban más de 2,5 exabytes (2,5x10exp18) de datos todos los días, y ciertamente no es inusual que las empresas individuales generen cientos de gigabytes de datos.

Es importante destacar que los diferentes tipos de datos tendrán diferentes ciclos de vida, y esto afecta la forma en que se deben administrar esos datos. Los dispositivos de medición de fasores, por ejemplo, las variables de monitoreo en la red eléctrica que resaltan cambios en la frecuencia, potencia, voltaje, etc., podrían generar quizás unos pocos terabytes de información por mes. Ciertamente, se trata de una gran cantidad de datos y tiene una mezcla de ciclos de vida; información a largo plazo indicativa de tendencias y datos en vivo que pueden señalar una falla inmediata. Una prueba de producto compleja, por el contrario, podría generar el mismo volumen de información en una hora o menos, pero nuevamente habrá una mezcla de ciclos de vida de datos; la información compleja que proporciona una salida de aprobado / reprobado para la prueba debe estar disponible de inmediato para optimizar los ciclos de producción, pero no tiene valor posteriormente, mientras que la información general puede ser importante para almacenar por razones de trazabilidad.

Sin embargo, el hilo conductor son las grandes cantidades de datos que se generan. De hecho, esta es tanta información que ya no tiene sentido medir los datos de hoy en términos de la cantidad de registros, sino más bien por la velocidad del flujo. Los datos en vivo, es decir, los datos capturados sobre algo que está sucediendo en este momento, están disponibles en grandes cantidades y a bajo costo. Los sensores de las computadoras integradas y en tiempo real pueden capturar información a una velocidad que excede nuestra capacidad para usarla. Eso significa que el momento en el que cualquier volumen de datos tiene un valor real puede ir y venir más rápido de lo que realmente podemos explotarlo.

Si nuestra única respuesta es simplemente enviar todos esos datos a la nube, sin tener en cuenta el ciclo de vida de los datos, entonces la nube se convierte en poco más que un vertedero de datos que pueden no tener un valor continuo. Por lo tanto, es vital considerar el ciclo de vida de los datos en vivo y cómo esos datos se distribuyen mejor entre los dispositivos integrados y la nube. Para que los recursos de la nube estén realmente optimizados y, al mismo tiempo, se puedan tomar decisiones operativas significativas a nivel local, en el momento, se debe aprovechar al máximo el poder de los sistemas integrados en el borde de la red. Solo mediante la delegación de responsabilidades para la recopilación de datos, el filtrado y la toma de decisiones a las computadoras cada vez más poderosas desplegadas dentro del 'Internet de las cosas' podemos tener una gestión eficaz de los datos desde su inicio hasta su eliminación.

La industria de las bases de datos integradas ha respondido a este requisito con productos de gestión de datos que ofrecen el rendimiento y la disponibilidad necesarios en productos que son fácilmente escalables. Estos productos de administración de datos pueden tomar los datos capturados en vivo, procesarlos (agregando y simplificando los datos según sea necesario) y luego distribuirlos para brindar la visualización y el análisis que permitirán tomar decisiones significativas. La capacidad de hacer todo esto localmente dentro de sistemas integrados, actuando sobre datos que solo tienen un valor real en el momento, tiene un gran impacto en el rendimiento de la planta y los activos, mientras que los datos que tienen un valor continuo se pueden clasificar y enviar a la nube.

Considere, por ejemplo, las pruebas de productos de consumo donde la forma en que el producto suena o se siente se toma como un indicador de su calidad. Dichas pruebas de calidad son comunes en una gran cantidad de productos domésticos y automotrices, que poseen características intrínsecas de vibración y sonido que pueden usarse como indicadores de integridad mecánica. Una pieza bajo prueba puede estar sujeta a un período de operación controlada mientras se miden millones de puntos de datos. Es necesario aplicar una multitud de métricas y algoritmos a estos datos para crear una "firma", que determina si el producto pasa o no el control de calidad.

Raima participó en una aplicación de este tipo, en un mercado donde los tiempos de ciclo de producción eran críticos y donde se generaban nuevos conjuntos de datos cada dos segundos. Se tuvo que actuar sobre los datos en vivo en tiempo real para que coincidieran con el tiempo del ciclo de producción requerido y, al mismo tiempo, proporcionar información confiable de pasa / falla. Al mismo tiempo, es importante agregar, administrar y almacenar la información de prueba esencial a largo plazo para que, en caso de una falla operativa o una queja del cliente, el número de serie del producto se pueda comparar rápidamente con el historial de pruebas. Es importante poder reprocesar los datos históricos al considerar los costos de garantía o quizás incluso la necesidad de retirar un lote de productos.

Esta es una diferenciación muy clara de los ciclos de vida de los datos: datos históricos que se pueden agregar, clasificar y luego almacenar a largo plazo (ideal para la nube) y datos en vivo que impactan directamente en el rendimiento de la producción.

Cuando hablamos de rendimiento, no necesariamente tenemos que pensar en la respuesta en 'tiempo real' en un sentido determinista para la transmisión de datos, pero debemos tener una respuesta en 'tiempo real en vivo' que sea lo suficientemente rápida para trabajar con información en vivo que aparece rápidamente. y tiene un ciclo de vida corto. Es posible que la base de datos deba poder mantenerse al día con velocidades de datos que pueden medir miles de eventos por minuto, con velocidades de ráfagas muchas veces más altas, y debe poder generar alarmas o activar acciones adicionales cuando se cumplan condiciones particulares. Esas condiciones pueden implicar la presencia o ausencia de datos en la base de datos, por lo que se deben realizar búsquedas rápidas. También pueden depender de las conexiones entre los registros de la base de datos, por lo que el sistema de la base de datos debe poder mantener asociaciones y búsquedas que se puedan crear o consultar rápidamente.

Los procesadores de alta velocidad en los sistemas informáticos modernos desempeñan un papel, pero el cumplimiento cada vez mayor de los requisitos de rendimiento depende de la escalabilidad, que proviene de la capacidad de distribuir las operaciones de la base de datos entre múltiples CPU y múltiples núcleos de procesador. Esto no solo hace un mejor uso de los recursos disponibles, sino que también abre posibilidades para el acceso a datos en paralelo, lo que permite un rendimiento muy rápido.

Considere el ejemplo del control de turbinas eólicas, donde los operadores necesitan monitorear constantemente variables como la velocidad del viento, la vibración y la temperatura. Debido a que las turbinas eólicas a menudo se encuentran en ubicaciones remotas y no están tripuladas, se requiere una base de datos que pueda almacenar grandes cantidades de datos, quizás del orden de terabytes por día, y que continuará funcionando de manera confiable las 24 horas del día, los 7 días de la semana sin intervención. Por lo tanto, el sistema de almacenamiento de datos debe admitir la replicación (desde los controladores de la turbina hasta el controlador del parque eólico), así como el acceso remoto y seguro.

La base de datos es fundamental en varios niveles diferentes. En primer lugar, es fundamental para el control del parque eólico, controlando las turbinas a través de la base de datos de control de la turbina eólica en la que se inserta una fila que establece el estado operativo de la turbina y describe las condiciones actuales del viento y se replica en cada uno de los programas de control de la turbina. Esto se basa en datos en vivo con un ciclo de vida muy corto. Luego está el monitoreo de condición en la propia turbina, que brinda información crítica sobre el funcionamiento del activo y permite, por ejemplo, un mantenimiento programado o preventivo rentable que maximiza el tiempo de actividad. El flujo de datos está en vivo, con grandes volúmenes de datos, pero debe agregarse y analizarse para producir salidas de tendencia y alarmas. Finalmente, está el almacenamiento y monitoreo de datos históricos que permitirán el desarrollo de aerogeneradores de próxima generación que sean más robustos y más tolerantes a fallas. Estos datos tienen muy poco valor en este momento, pero tienen un ciclo de vida muy largo, ideal para el almacenamiento en la nube.

RDM Embedded de Raima cumple con todos los requisitos para administrar transmisiones de datos en vivo, proporcionando una plataforma que permite tomar decisiones en vivo en tiempo real y clasificar los datos de ciclo de vida largo y luego enviarlos a la nube. El motor de la base de datos es capaz de almacenar los datos entrantes de manera confiable y, al mismo tiempo, permite que los mismos datos se lean para su análisis, posiblemente desde sistemas remotos o mediante replicación.

Independiente de la plataforma, puede ejecutarse en todo, desde opciones de sistemas operativos populares como MS Windows, Linux e iOS hasta sistemas en tiempo real como VxWorks de Wind Rivers, QNX Neutrino y Green Hills INTEGRITY, así como muchos otros. Además de admitir arquitecturas de múltiples procesadores y núcleos múltiples, el motor de almacenamiento de datos RDM proporciona un conjunto de características organizativas de datos que puede utilizar para controlar el almacenamiento en memoria, basado en disco o remoto para proporcionar el mejor rendimiento posible en sistemas integrados solicitud.

Es importante destacar que RDM hace que los datos estén disponibles donde sea que se necesiten. RDM puede replicar datos entre computadoras en una red y a través de Internet a sistemas fuera del entorno de red integrado. Esto se puede utilizar para mejorar la velocidad de procesamiento, la seguridad de la copia de seguridad de los datos y la disponibilidad de datos en todo el sistema.

Si bien la nube es el entorno ideal para almacenar, administrar y analizar datos que son menos sensibles al tiempo o que tienen un valor continuo, el manejo significativo de datos en vivo, sensibles al tiempo con un ciclo de vida mucho más corto es mucho mejor proporcionado por la base de datos local integrada. sistemas. Solo cuando las empresas sean capaces de analizar y actuar sobre estos datos críticos, podrán tener la información necesaria para optimizar verdaderamente las operaciones de planta, proceso y producción.

En esta era de 'big data', las empresas que tengan más éxito en cosechar los beneficios de esos grandes volúmenes de información serán aquellas que puedan discriminar entre datos sensibles al tiempo y datos con valor continuo, y luego integrar sus sistemas integrados. y sistemas basados en la nube de manera eficaz para garantizar que los datos adecuados siempre lleguen al lugar correcto. Solo adoptando el poder de los sistemas informáticos en el borde de la red, las empresas pueden optimizar realmente el poder de los recursos de la nube.

Get notified about new RDM updates

Be the first to know about new Raima Database Manager updates when they go live, use cases, industry trends and more.