Suchen

Datenanalyse

Mit der richtigen Architektur ins Internet der Dinge

Seite: 3/3

Firmen zum Thema

Technische Anforderungen des Edge Computing

Ergänzend zu den strategischen Überlegungen in Bezug auf Datenauswahl und -verarbeitung bedarf es für Edge Computing auch zusätzlicher Hardware- und Softwareausstattung. Nehmen wir beispielsweise die Gateways, die in der Produktion oder im Feld für die Steuerung oder Überwachung von Maschinen, Anlagen oder Geräten eingesetzt werden. Bisher waren diese lediglich für den Transport von Informationen in und aus dem Netzwerk zuständig – eine Verarbeitung der Daten war damit jedoch nicht vorgesehen und auch nicht möglich. Solch ein einfacher Gateway reicht aber nicht länger aus, wenn die Rechenleistung und analytische Verarbeitung am Rande des Netzwerks passieren soll. Die bestehende Hardware muss quasi um Edge Computing-Komponenten erweitert werden.

Unternehmen wie HPE und Dell passen daher bereits ihr Hardware-Angebot an die Anforderungen des Edge Computing an. Auch PTC wird mit neuen Lösungen im Rahmen bereits bestehenden Kooperationen mit diesen Hardwareanbietern zukünftig hybride Modelle unterstützen, bei denen ein Teil der Datenverarbeitung auf einem Cloud-Server, der andere Teil auf den sich in oder am Rande der Cloud befindlichen Endgeräten selbst stattfindet. Dell beispielsweise bietet mit seiner Produktserie Edge Gateway 5000 einen Router an der Schnittstelle zwischen den Sensoren und der entfernten Steuerzentrale an, auf dem Analysewerkzeuge laufen sollen, um die eingehenden IIoT-Datenmengen nicht alle übertragen zu müssen.

Die Gateways sollen Daten empfangen, zusammenführen, analysieren und weiterleiten, um die benötigte Bandbreite zu reduzieren und so nur aussagekräftige Informationen nach außen zu einem zentralen Verarbeitungssystem übertragen. Bevor die Daten in dieses Gateway strömen, werden sie über die Kepware KEPServerEX Connectivity-Plattform von PTC gesammelt und bereitgestellt, die unter anderem einen leistungsstarken Server für den Edge Computing-Einsatz bei Steuerungs- und Überwachungssystemen bietet und für die Einbindung einer Vielzahl an Maschinen und Geräten gewappnet ist.

Ergänzend zur Erweiterung der zugrundeliegenden Hardware-Infrastruktur kommen Unternehmen um Softwarewerkzeuge für die Datenanalyse kaum herum. Natürlich könnte traditionelle Business-Intelligence-Software oder könnten Reporting-Tools dafür in Betracht gezogen werden. Diese Werkzeuge funktionieren auf Basis einer Batch-Verarbeitung und genügen somit zwar für die grundsätzliche Datenanalyse gemäß den heutigen Anforderungen. Keines dieser Instrumente aber wurde jemals zur Analyse von Datenströmen vom Rande der Cloud konzipiert und entwickelt.

Neue Werkzeuge für die Echtzeit-Datenanalyse gebraucht

Um maximalen Nutzen aus den gewonnenen Sensordaten zu ziehen, ist es von entscheidender Bedeutung, sie nicht erst im Nachgang zu analysieren, sondern ständig zu überwachen und in maschinelle Lernverfahren zu übertragen, um in Echtzeit Anomalien zu erkennen und Fehler vorhersagen zu können. Mit dem ThingWatcher aus ThingWorx Analytics etwa werden Datenströme in Echtzeit analysiert, ohne sie erst speichern zu müssen. Die Anwender werden sofort benachrichtigt, sobald Anomalien und Fehler registriert werden.

Dies ist nur möglich, weil der ThingWatcher den Datenstrom pro Sensor 30.000 Mal pro Sekunde abliest – und zwar rund um die Uhr – und somit den Normalzustand des Geräts oder des Sensors mit der Zeit automatisch erlernt. Weichen die Werte von diesem Normalzustand oder einem spezifischen Muster einmal ab, wird der Nutzer umgehend informiert – und nicht erst, wenn der Schaden eingetreten ist.

* Stephan Ellenrieder ist Senior Vice President Zentral- und Osteuropa sowie Geschäftsführer Deutschland bei PTC.

Artikelfiles und Artikellinks

(ID:44458348)