Suchen

Wind River und T-Systems liefern 5G-Cloud-Netzmanagement

| Redakteur: Sebastian Gerstl

Die Deutsche Telekom bietet mit „EdgAir“ ein System an, das eine extrem niedriger Latenz für sicheres und leistungsfähiges Edge Computing aufweisen soll. Es ermögliche somit Echtzeit-Anwendungen in Produktion und Logistik. Die sichere und leistungsstarke Edge-Computing-Plattform greift dabei auf die Edge-Cloud-Infrastruktursoftware Wind River Cloud Platform zurück.

Firmen zum Thema

Einsatzszenario für EdgeAir: Aufgabe in einem Campus-Netz nach Darstellung der Telekom.
Einsatzszenario für EdgeAir: Aufgabe in einem Campus-Netz nach Darstellung der Telekom.
(Bild: Deutsche Telekom / T-Systems )

Die EdgAir-Plattform von T-Systems ist eine Private Enterprise Edge-Cloud, die direkt am Einsatzort arbeitet. Durch die Unterstützung verschiedener Netz- und Protokollstandards (5G, Wi-Fi 6, TSN usw.) kann sie direkt an ein Campus-Netz angeschlossen werden. T-Systems verspricht mit EdgAir eine sichere Plattform, die für Echtzeitanwendungen vor Ort („Near Edge“) eine geringe Latenz von weniger als 10 Millisekunden bietet, beispielsweise für die Verarbeitung großer Datenmengen. Das so genannte Far Edge erlaubt Latenzzeiten zwischen zehn und 40 Millisekunden. Zu den Anwendungsmöglichkeiten gehören laut T-Systems, fahrerlose Fahrzeuge (Automated Guided Vehicles) sowie Lösungen für ergänzte und komplett virtuelle Realität (Augmented/Virtual Reality).

EdgAir läuft in einem geschlossenen Unternehmensnetzwerk, kann aber mit einer öffentlichen Cloud kombiniert werden, um hybride Cloud-Angebote zu ermöglichen. EdgAir kann auch Analysen bereitstellen, die es den Teams ermöglichen, Performance und andere kritische Informationen in Echtzeit zu bewerten, und unterstützt die Standards und Arbeitslasten der Betriebstechnologie (OT).

„Anspruchsvolle Anforderungen an Edge-Compute von 5G-, IoT- und MEC-Anwendungen stellen eine Herausforderung für diejenigen dar, die versuchen, Cloud-Native-Lösungen zu implementieren“, sagte Paul Miller, Vice President of Telecommunications bei Wind River. „Die Wind River Cloud Platform adressiert die Komplexität der Bereitstellung und Verwaltung einer physisch verteilten, nativen 5G-Cloud-Infrastruktur. Gemeinsam mit T-Systems können wir Kunden dabei unterstützen, eine betriebsfähige, Edge-fähige Cloud zu schaffen, die Tausende von Knoten unterstützt.“

„Da die Industrie immer mehr in den Einsatz automatisierter und intelligenter Anwendungen wie autonome Fahrzeuge, Fabrikautomation und Logistik oder Augmented Reality eintaucht, steigt der Bedarf an noch größerer Sicherheit und leistungsfähigem Edge-Computing“, so Thomas Weber, Vice President PaaS, BigData und Edge bei T-Systems. „Durch die Zusammenarbeit mit Wind River stellt T-Systems eine sichere Plattform mit extrem niedriger Latenzzeit bereit, die Unternehmen bei der Erschließung intelligenter Echtzeitanwendungen für grenzenlose Möglichkeiten unterstützt.“

Hochskalierbare Cloud-Plattform

Wind Rivers Cloud Platform kombiniert eine vollständig native Cloud-Architektur mit einer Kubernetes- und Container-basierten Architektur und ist ein hochleistungsfähiges Angebot für die Verwaltung von Edge-Cloud-Infrastrukturen. Sie nutzt das Open-Source-Projekt StarlingX, um Day 1 und Day 2 Abläufe zu vereinfachen, indem sie das Single-Pane-of-Glass (SPoG)-Management und die automatische Bereitstellung von Tausenden von Knoten unabhängig von deren Standort ermöglicht. Die Plattform bietet außerdem vollautomatische und „hitless“ Software-Updates und -Upgrades in einer geo-verteilten Cloud mit Rollback-Funktionen. Die Plattform skaliert von einem einzelnen Rechenknoten am Netzwerkrand, um extrem kostengünstige Implementierungen bis hin zu Tausenden von Knoten zu ermöglichen und so die steigenden Anforderungen hochwertiger Anwendungen zu erfüllen.

EdgAir basiert auf OpenStack. Die Open-Source-Software vermeidet eine Silo-Bildung (Vendor Lock-in). Kunden können ihre IoT-Anwendungen und Applikationen über vorgefertigte Konnektoren ankoppeln. Die Anwendungen selbst laufen als virtuelle Maschinen oder in Docker-Containern in Form von Microservices. Damit sind sie unabhängig von der darunterliegenden Infrastruktur. So können Administratoren Microservices bei Problemen oder Auffälligkeiten einzeln ansteuern. Sie müssen das System nicht komplett herunterfahren. Orchestriert werden die Container über Kubernetes.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 46350361)