Der Lebenszyklus von Live-Daten

Januar 6

Der Lebenszyklus von Live-Daten

Mit Blick auf die Integration eingebetteter Geräte in die Cloud unterscheidet Wayne Warren, CTO von Raima, zwischen aktiven, verwertbaren Informationen und Daten mit anhaltendem Wert und argumentiert, dass Unternehmen die Möglichkeiten des Sammelns und Kontrollierens nutzen müssen, um die wahre Kraft der Cloud zu erkennen Computer am Rande des Gitters.

Der Lebenszyklus von Live-Daten

Der Aufstieg der Cloud bietet Unternehmen jeder Größe neue Möglichkeiten zum Speichern, Verwalten und Analysieren von Daten - einfach, effektiv und zu geringen Kosten. Das Datenmanagement in der Cloud hat es diesen Unternehmen ermöglicht, die Kosten und die Komplexität ihrer internen Systeme zu senken und gleichzeitig die Sichtbarkeit von Anlagen und Prozessen zu verbessern. Gleichzeitig sind Service-Organisationen von Drittanbietern entstanden, die Daten-Dashboards bereitstellen, mit denen Unternehmen ihre Assets in Echtzeit live steuern können, häufig von entfernten Standorten aus, sowie historische Trendanalysen durchführen können.

Stellen Sie sich zum Beispiel ein Unternehmen an einem zentralen Standort mit einem Schlüsselelement an einem völlig anderen oder isolierten Standort vor. Es kann vorteilhaft sein, wichtige Betriebsdaten zu überwachen, um sicherzustellen, dass das Gerät selbst nicht zu einem katastrophalen Fehler neigt, und einige Leistungsdaten, um sicherzustellen, dass die Ausgabe optimal ist. Das sind möglicherweise insgesamt relativ wenige Sensoren und möglicherweise einige Diagnose-Rückmeldungen von Bordsteuerungssystemen. Wenn Sie jedoch direkt auf diese Daten zugreifen, müssen Sie möglicherweise eingebettete Webserver einrichten oder eine Form der Telemetrie einrichten. Anschließend müssen Sie diese Daten in die Verwaltungssoftware einbinden und so bereitstellen, dass auf sie reagiert werden kann.

Wie viel einfacher ist es, einem Cloud-basierten Datenverwaltungsanbieter einfach dieselben Ausgaben bereitzustellen und sich dann bei einem benutzerdefinierten Dashboard anzumelden, das Visualisierung und Steuerung mit Alarmen, Aktionen, Berichten und mehr bietet? Und das alles gegen eine geringe monatliche Gebühr. Dank der praktisch unbegrenzten Speicherung in der Cloud können alle Daten als Berichte gespeichert, abgebaut, analysiert und verbreitet werden, die eine beispiellose Rückverfolgbarkeit (wichtig für viele Branchen) und eine langfristige Trendanalyse bieten, die Unternehmen wirklich dabei helfen kann, die Leistung zu steigern und letztendlich die Rentabilität verbessern.

Mit zunehmender Datenausgabe ist zu erwarten, dass sich auch die Qualität der aus der Cloud zurückgegebenen Informationen verbessert, sodass wir bessere betriebliche Entscheidungen treffen können, die die Leistung noch weiter verbessern. Und bis zu einem gewissen Grad ist dies wahr. Auf diesem Weg besteht jedoch auch die Gefahr, dass es in einer Ära der „Big Data“ immer schwieriger wird, aussagekräftige „umsetzbare Informationen“ aus dem Hintergrundgeräusch herauszuholen.

Wo früher ein Datenanalyst möglicherweise nur an Produktionslinienkontingenten und der Verknüpfung mit Anlagen- oder Anlagenverfügbarkeit interessiert war, ist er heute möglicherweise auch daran interessiert, auf die Daten zuzugreifen, die von den unzähligen automatisierten Geräten entlang der Produktionslinie generiert wurden, da diese Rohdaten möglicherweise vorhanden sind Halten Sie den Schlüssel zu mehr Produktivität, reduziertem Energieverbrauch, Abfallbeseitigung, Verkürzung der Ausfallzeiten, verbesserter Gesamtanlageneffektivität und letztendlich zu einem besseren Geschäftsergebnis.

Und wir sprechen wirklich über riesige Datenmengen. Der Aufstieg des Internet der Dinge und der Machine-to-Machine-Kommunikation (M2M) in Kombination mit den neuesten GSM-Netzen, die eine bidirektionale Hochgeschwindigkeitsübertragung ohne die Einschränkungen von Reichweite, Leistung, Datengröße und Netzwerkinfrastruktur ermöglichen Bei herkömmlichen Telematiklösungen hat die Datenübertragung in den letzten Jahren exponentiell zugenommen. Ab 2012 wurden weltweit täglich mehr als 2,5 Exabyte (2,5 x 10 x 18) Daten erstellt, und es ist sicherlich nicht ungewöhnlich, dass einzelne Unternehmen Hunderte von Gigabyte Daten generieren.

Wichtig ist, dass verschiedene Datentypen unterschiedliche Lebenszyklen haben. Dies wirkt sich darauf aus, wie diese Daten verwaltet werden müssen. Die Zeigermessgeräte, die beispielsweise Variablen im Stromnetz überwachen, die Änderungen in Frequenz, Leistung, Spannung usw. hervorheben, können möglicherweise einige Terabyte an Informationen pro Monat erzeugen. Dies sind sicherlich viele Daten, und es gibt eine Mischung aus Lebenszyklen. Langzeitinformationen, die auf Trends hinweisen, und Live-Daten, die einen sofortigen Fehler anzeigen können. Im Gegensatz dazu kann ein komplexer Produkttest in einer Stunde oder weniger das gleiche Informationsvolumen erzeugen, aber es wird wieder eine Mischung von Datenlebenszyklen geben. Die komplexen Informationen, die eine Pass / Fail-Ausgabe für den Test liefern, müssen sofort verfügbar sein, um die Produktionszyklen zu optimieren. Sie haben jedoch anschließend keinen Wert, während die Übersichtsinformationen aus Gründen der Rückverfolgbarkeit wichtig sein können, um sie zu speichern.

Der rote Faden sind jedoch die großen Datenmengen, die generiert werden. Dies sind in der Tat so viele Informationen, dass es nicht mehr sinnvoll ist, die heutigen Daten anhand der Anzahl der Datensätze zu messen, sondern anhand der Geschwindigkeit des Streams. Live-Daten - also erfasste Daten über etwas, das gerade passiert - sind in großen Mengen und zu geringen Kosten verfügbar. Sensoren auf eingebetteten Computern und Echtzeitcomputern können Informationen mit einer Geschwindigkeit erfassen, die unsere Verwendungsfähigkeit übersteigt. Das bedeutet, dass der Moment, für den ein bestimmtes Datenvolumen einen echten Wert hat, möglicherweise schneller kommt und geht, als wir es tatsächlich nutzen können.

Wenn unsere einzige Antwort einfach darin besteht, all diese Daten ohne Rücksicht auf den Lebenszyklus der Daten an die Cloud zu senden, wird die Cloud kaum mehr als eine Müllhalde für Daten, die möglicherweise keinen laufenden Wert haben. Es ist daher wichtig, den Lebenszyklus von Live-Daten zu berücksichtigen und zu ermitteln, wie diese Daten am besten zwischen eingebetteten Geräten und der Cloud verteilt werden. Damit Cloud-Ressourcen wirklich optimiert werden können und gleichzeitig wichtige betriebliche Entscheidungen vor Ort getroffen werden können, muss die Leistung eingebetteter Systeme am Rande des Netzes voll ausgeschöpft werden. Nur durch die Übertragung von Verantwortlichkeiten für die Datenerfassung, -filterung und -entscheidung auf die immer leistungsfähigeren Computer, die im Internet der Dinge eingesetzt werden, können wir Daten von Anfang an bis zur Entsorgung effektiv verwalten.

Die Branche der eingebetteten Datenbanken hat auf diese Anforderung mit Datenverwaltungsprodukten reagiert, die die erforderliche Leistung und Verfügbarkeit für Produkte bieten, die leicht skalierbar sind. Diese Datenverwaltungsprodukte können die erfassten Live-Daten erfassen, verarbeiten (nach Bedarf aggregieren und vereinfachen) und dann verteilen, um die Visualisierung und Analyse bereitzustellen, mit der aussagekräftige Entscheidungen getroffen werden können. Die Möglichkeit, all dies lokal in eingebetteten Systemen zu tun - auf Daten zu reagieren, die im Moment nur von echtem Wert sind - hat einen enormen Einfluss auf die Leistung von Anlagen und Assets, während die Daten mit fortlaufendem Wert sortiert und an diese gesendet werden können die Wolke.

Betrachten Sie zum Beispiel das Testen von Konsumgütern, bei denen die Art und Weise, wie das Produkt klingt oder sich anfühlt, als Indikator für seine Qualität herangezogen wird. Solche Qualitätsprüfungen sind bei einer Vielzahl von Haushalts- und Automobilprodukten üblich, die Eigenvibrations- und Geräuscheigenschaften aufweisen, die als Indikatoren für die mechanische Integrität verwendet werden können. Ein zu testendes Teil kann einer kontrollierten Betriebsperiode unterzogen werden, während Millionen von Datenpunkten gemessen werden. Auf diese Daten muss eine Vielzahl von Metriken und Algorithmen angewendet werden, um eine "Signatur" zu erstellen, die bestimmt, ob das Produkt die Qualitätsprüfung besteht oder nicht.

Raima war an einer solchen Anwendung beteiligt, in einem Markt, in dem Produktionszykluszeiten kritisch waren und in dem alle zwei Sekunden neue Datensätze generiert wurden. Die Live-Daten mussten in Echtzeit verarbeitet werden, um die erforderliche Produktionszykluszeit zu erreichen und gleichzeitig zuverlässige Pass / Fail-Informationen bereitzustellen. Gleichzeitig ist es wichtig, die wesentlichen Testinformationen langfristig zu aggregieren, zu verwalten und zu speichern, damit im Falle eines Betriebsfehlers oder einer Kundenbeschwerde die Seriennummer des Produkts schnell mit der Testhistorie verglichen werden kann. Es ist wichtig, in der Lage zu sein, die historischen Daten erneut zu verarbeiten, wenn Garantiekosten oder sogar die Notwendigkeit eines Rückrufs von Produktchargen berücksichtigt werden.

Dies ist eine sehr klare Unterscheidung zwischen Datenlebenszyklen - historischen Daten, die aggregiert, sortiert und dann langfristig gespeichert werden können (ideal für die Cloud), und Live-Daten, die sich direkt auf die Produktionsleistung auswirken.

Wenn wir über Leistung sprechen, müssen wir beim Streaming von Daten nicht unbedingt über eine "Echtzeit" -Reaktion im deterministischen Sinne nachdenken, sondern über eine "Live-Echtzeit" -Reaktion, die einfach schnell genug ist, um mit Live-Informationen zu arbeiten, die schnell angezeigt werden und hat einen kurzen Lebenszyklus. Die Datenbank muss möglicherweise in der Lage sein, mit Datenraten Schritt zu halten, die Tausende von Ereignissen pro Minute messen können, wobei die Burst-Raten um ein Vielfaches höher sind, und muss in der Lage sein, Alarme auszulösen oder zusätzliche Aktionen auszulösen, wenn bestimmte Bedingungen erfüllt sind. Diese Bedingungen können das Vorhandensein oder Fehlen von Daten in der Datenbank beinhalten, daher müssen schnelle Suchvorgänge durchgeführt werden. Sie können auch von Verbindungen zwischen Datensätzen in der Datenbank abhängen, sodass das Datenbanksystem in der Lage sein muss, Zuordnungen und Suchvorgänge zu verwalten, die schnell erstellt oder abgefragt werden können.

Die Hochgeschwindigkeitsprozessoren in modernen Computersystemen spielen eine Rolle, aber die Erfüllung der Leistungsanforderungen hängt zunehmend von der Skalierbarkeit ab, die sich aus der Fähigkeit ergibt, die Datenbankoperationen auf mehrere CPUs und mehrere Prozessorkerne zu verteilen. Dies nutzt nicht nur die verfügbaren Ressourcen optimal aus, sondern eröffnet auch Möglichkeiten für den parallelen Datenzugriff und ermöglicht einen sehr schnellen Durchsatz.

Betrachten Sie das Beispiel der Windkraftanlagensteuerung, bei der der Bediener Variablen wie Windgeschwindigkeit, Vibration und Temperatur ständig überwachen muss. Da sich Windkraftanlagen häufig an abgelegenen Orten befinden und unbemannt sind, ist eine Datenbank erforderlich, in der große Datenmengen gespeichert werden können - möglicherweise in der Größenordnung von Terabyte pro Tag - und die ohne Eingriff rund um die Uhr zuverlässig funktioniert. Das Datenspeichersystem muss daher die Replikation (von Turbinensteuerungen zu Windparksteuerungen) sowie den sicheren Fernzugriff unterstützen.

Die Datenbank ist auf verschiedenen Ebenen von entscheidender Bedeutung. Erstens ist es von zentraler Bedeutung für die Steuerung des Windparks, die Steuerung der Turbinen über die Windturbinensteuerungsdatenbank, in die eine Zeile eingefügt und in jedes der Turbinensteuerungsprogramme repliziert wird, die den Betriebsstatus der Turbine festlegt und die aktuellen Windbedingungen beschreibt. Dies basiert auf Live-Daten mit einem sehr kurzen Lebenszyklus. Anschließend erfolgt eine Zustandsüberwachung an der Turbine selbst, die wichtige Informationen zum Betrieb des Vermögenswerts liefert und beispielsweise eine kostengünstige geplante oder vorbeugende Wartung ermöglicht, die die Betriebszeit maximiert. Der Datenstrom ist live mit großen Datenmengen, muss jedoch aggregiert und analysiert werden, um Trendausgaben und Alarme zu erzeugen. Schließlich gibt es die Speicherung und Überwachung historischer Daten, die die Entwicklung von Windkraftanlagen der nächsten Generation ermöglichen, die robuster und fehlertoleranter sind. Diese Daten haben im Moment nur einen sehr geringen Wert, aber einen sehr langen Lebenszyklus - ideal für die Speicherung in der Cloud.

RDM Embedded von Raima erfüllt alle Anforderungen für die Verwaltung von Live-Datenströmen und bietet eine Plattform, auf der sowohl Echtzeitentscheidungen in Echtzeit getroffen als auch Daten mit langer Lebensdauer sortiert und dann an die Cloud gesendet werden können. Das Datenbankmodul ist in der Lage, eingehende Daten zuverlässig zu speichern, während dieselben Daten zur Analyse gelesen werden können, möglicherweise von entfernten Systemen oder über die Replikation.

Plattformunabhängig kann es auf allen gängigen Betriebssystemoptionen wie MS Windows, Linux und iOS bis hin zu Echtzeitsystemen wie VxWorks von Wind Rivers, QNX Neutrino und Green Hills INTEGRITY sowie vielen anderen ausgeführt werden. Die RDM-Datenspeicher-Engine unterstützt nicht nur mehrere Prozessor- und Multi-Core-Architekturen, sondern bietet auch eine Reihe von Funktionen zur Datenorganisation, mit denen Sie den speicherinternen, festplattenbasierten oder Remote-Speicher steuern können, um die bestmögliche Leistung in eingebetteten Systemen zu erzielen Anwendung.

Wichtig ist, dass RDM Daten überall dort zur Verfügung stellt, wo sie benötigt werden. RDM kann Daten zwischen Computern in einem Netzwerk und über das Internet auf Systeme außerhalb der eingebetteten Netzwerkumgebung replizieren. Dies kann verwendet werden, um die Verarbeitungsgeschwindigkeit, die Datensicherungssicherheit und die systemweite Datenverfügbarkeit zu verbessern.

Während die Cloud die ideale Umgebung zum Speichern, Verwalten und Analysieren von Daten ist, die weniger zeitkritisch sind oder einen dauerhaften Wert haben, bietet die lokale eingebettete Datenbank einen aussagekräftigen Umgang mit zeitkritischen Live-Daten mit einem viel kürzeren Lebenszyklus Systeme. Nur wenn Unternehmen in der Lage sind, diese kritischen Daten zu analysieren und darauf zu reagieren, können sie über die erforderlichen Informationen verfügen, um Anlagen-, Prozess- und Produktionsabläufe wirklich zu optimieren.

In dieser „Big Data“ -Ära werden die Unternehmen, die am erfolgreichsten von den Vorteilen dieser großen Informationsmengen profitieren, diejenigen sein, die in der Lage sind, zwischen zeitkritischen Daten und Daten mit dauerhaftem Wert zu unterscheiden und dann ihre eingebetteten Systeme zu integrieren und Cloud-basierte Systeme effektiv, um sicherzustellen, dass die entsprechenden Daten immer am richtigen Ort sind. Nur wenn Unternehmen die Leistung der Computersysteme am Rande des Netzes nutzen, können sie die Leistung von Cloud-Ressourcen wirklich optimieren.

Get notified about new RDM updates

Be the first to know about new Raima Database Manager updates when they go live, use cases, industry trends and more.