Das kognitive Internet der Dinge – Einstieg in eine neue Ära

Autor / Redakteur: Steffen Hartmaier * / Sebastian Gerstl

Wo steht das Internet of Things heute? Wie werden KI und selbstlernende Algorithmen kommende Technologien prägen? Wo stehen wir hinsichtlich Connectivity, Security oder auch in der agilen Entwicklung? In seiner Keynote zum ESE-Kongress 2017 zeigt Steffen Hartmaier, IT-Architekt bei IBM, was mit sogenannten kognitiven Themen alles möglich wird.

Anbieter zum Thema

Einstieg in eine neue Ära: Das kognitive internet der Dinge, eine Kombination aus maschinellem Lernen und dem bestehenden Status Quo der vernetzten Geräte, verspricht eine spannende technologische Zukunft.
Einstieg in eine neue Ära: Das kognitive internet der Dinge, eine Kombination aus maschinellem Lernen und dem bestehenden Status Quo der vernetzten Geräte, verspricht eine spannende technologische Zukunft.
(Bild: Pixabay / geralt / GDJ)

Was genau ist das „kognitive Internet der Dinge“? Ist es 'nur' eine Kombination aus vernetzten Geräten und künstlicher Intelligenz? Und wohin führt uns diese technologische Entwicklung?

Wenn vom kognitiven Internet der Dinge gesprochen wird, stellt man häufig fest, dass mit dem Begriff kognitiv beim Gegenüber nicht direkt eine klare Vorstellung weckt. Und selbst wenn Vorwissen vorhanden ist, kommen schnell Fragen auf. Zum Beispiel: Wie grenzt sich „kognitiv“ von „künstlicher Intelligenz“ oder „maschinellem Lernen“ ab? Im Grunde ist es einfach und schwierig zugleich – den eine klare Abgrenzung gibt es nicht.

Was genau sind „kognitive Technologien“?

Als IBM um 2010 das Thema aufgrund verschiedener Rahmenbedingungen wie gesteigerter Rechenleistung, Cloud, Smartphones wieder ins Bewusstsein bringen wollte, war der Begriff „Künstliche Intelligenz“ verbrannt – im englischen sprach man vom AI-Winter. Für lange Zeit war also der Begriff Künstliche Intelligenz nicht mehr richtig vermarktbar - obwohl hier weiterhin Entwicklungen und Fortschritte stattfanden.

Mit 'kognitv' konnte in der folgenden Zeit eine bessere Positionierung im Markt gefunden werden. Das geschah aus gutem Grund: In den 90ern war das, was Gemeinhin als 'Künstliche Intelligenz' und die darunterliegenden Algorithmen bekannt war, auf Grund der Rechenleistung noch eher auf relativ einfache Texte und Zahlen beschränkt. 2010 war aber ein neues Level erreicht: Die vorhandene Rechenleistung auch kleinerer Geräte konnte nun auch für Töne, Sprache, Bilder und Videos etc. ausreichen. Das heißt, man konnte die künstliche Intelligenz auf kognitive Eigenschaften wie z.B. Hören und Sehen anwenden.

Und das klärt auch was kognitiv bedeutet: das Verarbeiten unstrukturierter Daten unter Verwendung von Künstlicher Intelligenz die z.B. auf Machine Learning oder die Sonderform Deep Learning zugreift und Wissen aufzubauen und daraus selbständig Schlussfolgerungen zu ziehen.

Wir erleben heute das Ergebnis von kognitiven Technologien tagtäglich. Jede Spracherkennung in unseren Autos, Smart Homes etc. verwendet auf neuronalen Netzen aufbauende Technologie. Der Einstieg in eine neue, kognitive Ära hat schon längst begonnen. Und das Internet der Dinge ist hierbei der Vorreiter – denn diese „Things“ müssen nicht zwingend Tastaturen besitzen, um Eingaben zu machen oder Anzeigen darzustellen; Displays sind etwa oft zu klein oder brauchen zu viel Strom, um dem Nutzer etwas mitzuteilen.

Sprach-Ein- und -Ausgabe ist aber nur ein initialer Aspekt von kognitivem Computing. Sprach- und Bilderkennung über z.B. Convolutional Neural Networks sind heutzutage fester Bestandteil von frei zugänglichen Open Source Bibliotheken wie OpenCV. Diese erlauben beispielsweise, Informationen aus Videos oder Bildern in Form von Tags extrahieren – d.h. auf einem Bild werden mit einer Wahrscheinlichkeit von 98 % Orangen korrekt erkannt. Oder in einem gesprochenen Text wurde der Name „Watson“ genannt - der Nutzer ann sich, unterstützt von dem verwendeten Algorithmus, per Spracheingabe direkt an die Stelle im Video bringen lassen, wo das Wort „Watson“ gefallen ist, ohne es sich im Gesamten selbst ansehen zu müssen.

Wir werden diese Technologien in Zusammenhang mit Objekterkennung im autonomen Fahren der Stufen 3 und 4 mehr und mehr erleben. Die Erkennung bezieht sich auf Fahrbahnen, andere Verkehrsteilnehmer, Fußgänger und die Regeln sind die Verkehrsregeln in Verbindung mit Verkehrszeichen und Umgebungsparametern. Es gibt Stand heute 37 Firmen, die in Kalifornien die Zulassung für diese Technik beantragt haben. Auch hier bewegen wir uns schon in der nahenden Realität von kognitiven Technologien.

Doch es geht nicht nur um das reine Erkennen unstrukturierter Informationen. Das Schlussfolgern und der Aufbau von Wissen – im Englischen Reasoning, Learning und Interacting - ist weitaus komplexer und komplizierter. Das Verarbeiten dieser Informationen auf Grundlage von Fakten und Wissen, ebenso wie die Pflege und Anpassung dieses Wissens durch eigenständiges Lernen, sind weitaus größere Herausforderungen.

IoT liefert die Daten, die KI fürs Lernen benötigt

Hier spielt das Internet der Dinge eine ganz andere Rolle. Erst die kostengünstige Sensorik wird den Algorithmen die „Beweise“ für ihre Entscheidungen liefern, aus denen sie lernen können. Nehmen wir eine Produktionsanlage, die z.B. Temperatur und Druck selbsttätig einstellen kann. Diese Regulierungen haben Auswirkungen auf den Durchsatz und die Qualität der Produkte. Heute können solche Wirknetze berechnet werden und im Voraus eingestellt werden. Dies bedarf allerdings konstanter Überwachung. Mit dem im Internet der Dinge üblichen Grad an Connectivity und Sensorik, die z.B. an der Produktionslinie selbsttätig die Qualität feststellt, kann das System aus seinen eigenen Entscheidungen lernen.

Leider sind solche Prozesse nie so einfach wie im genannten Beispiel. Denn in der Praxis werden Systeme stets Tausende eingehende Daten aus Hunderten potentieller Messpukte erfassen und verarbeiten müssen. Es muss erst ein zuverlässiger Wissenskorpus, ein Schatz an Erlerntem Wissen, geschaffen werden, auf dessen Basis ein solches System dann zurückgreifen kann, um aus den eigehenden informationen weiter zu lernen. In verschiedenen Bereichen wie z.B. der Onkologie oder der Chemischen Industrie, wird an solchen Systemen bereits gearbeitet. Aber die Vorstellung einer Art universellen Wikipedia, die beliebige eingehende Fragen richtig versteht und korrekt beantworten kann, ist noch weit weg.

Per Engineering muss erst eine vernünftige Wissensbasis geschaffen werden

Im Rahmen des Embedded Software Engineering (ESE) geht es eben um Engineering – nicht nur um das fertige, mit dem Internet vernetzte Produkt. Doch auch in dieses, speziell in das Konzipieren und Fertigen Internet-fähiger Geräte, fließen kognitive Themen ein. Die Design- und Build- Phasen mögen in der öffentlichen Wahrnehmung nicht ganz so prominent sichtbar sein, sind aber für die „Maker“ des „Things“ interessant.

Professionelles Engineering startet heute mit den Anforderungen. Diese werden typisch von Menschen erstellt und bestehen oft aus Freitext. Warum also nicht die kognitive Sprachanalyse gegen solche unstrukturierten Anforderungsdokumente laufen lassen, um grundsätzliche Dinge erst einmal sicherzustellen: dass z.B. gegebene Pflichtanforderungen erfüllt sind, die formulierten Anforderungen keine Widersprüche enthalten, nicht mehrmals gleiche Anforderungen formuliert werden, und so weiter. Je komplexer Anforderungsdokumente werden, desto interessanter wird die maschinelle Prüfung – und kognitive Systeme „verstehen“ Inhalte und könnten sogar ermitteln, in welchem emotionalen Zustand der Verfasser die Dokumente verfasst hat. Praktisch relevant ist aber, dass Prüfschritte über unstrukturierte Texte, die früher nur durch Menschen gesichert werden konnten, nun algorithmisch abgesichert werden können.

Wenn man vom Design in die Phase der Produktion (Build) kommt, spielt das kognitive Internet der Dinge eine andere Rolle. Ein Kernaspekt hier ist der Bereich der Qualitätssicherung z.B. mit Kameras. Die Technologie an sich ist nicht neu und gab es grundsätzlich schon in den 90er Jahren. Allerdings ist inzwischen Rechenleistung deutlich günstiger geworden, so dass solche Verfahren heute relativ leicht auf neue Anforderungen trainiert werden können. Die Technologie ist dahinter ist heute Deep Learning. Aktuell wird diese Technologie bereits eingesetzt, um z.B. Fehler in der Bestückung von Platinen zu erkennen - es kann geprüft werden, ob jedes Bauteil korrekt und am richtigen Platz sitzt. Wenn Rechenleistung auch in Zukunft weiter günstiger wird, lässt sich ihre Anwendbarkeit auch auf andere Anwendungsgebiete ausweiten. So könnte ein automatisiertes System etwa anhand von Videodaten während eines Lackiervorgangs Probleme feststellen, die dann direkt, und nicht erst mit aufwendiger Nacharbeit, behoben werden kann.

Was macht ein „Ding“ zu einem IoT-Gerät?

Wann sprechen wir bei einem Ding von etwas, dass zum „Internet der Dinge" gehört? Die Grundarchitektur des Internet of Things ist eigentlich ganz einfach: Das “Ding“ ist mit dem Internet verbunden; eingehende Informationen muss es nicht zwingend lokal verarbeiten, die Daten werden typisch in der Cloud ausgewertet, beispielsweise in Form von Regeln oder Analytics. Die daraus resultierenden Ergebnisse können meist selbst wieder über das Internet abgerufen werden – beispielsweise via Smartphone-App. Soweit zumindest die Theorie.

In der Praxis sind IoT-Protokolle allerdings stark auf Messaging ausgelegt, z.B. unter Ausnutzung von MQTT (Message Queue Telemetry Transport) für die M2M-Kommunikation. Außerdem verursacht das Senden von großen Datenmengen (wie etwa hochauflösende Bilder oder Videos) aufgrund der notwendigen Bandbreite noch relativ hohe Kosten. Hinzu kommt, dass die Kommunikation aus Gründen der Datensicherheit heute immer abgesichert werden muss, also authentifiziert und verschlüsselt. Für ein Heizkörperthermostat, das vielleicht fünf Mal am Tag seine Temperatur an einen Server schickt, und das vom Smartphone aus eingestellt werden kann, ist das noch ein vertretbarer, überschaubarer Aufwand. Jedoch für komplexere Things, wie ein Schweißroboter oder ein „Connected Car“, sind solche Ansätze nicht tragfähig.

Für diese Art von IoT-Geräten wird fast immer eine Vorverarbeitung am „Thing“ nötig. Der gängige Begriff ist dabei „Edge“, also die Verarbeitung am Rand des Internets. Diese Edge-Rechenleistung kann nur ein einfaches Filtering auf einem kleinen, lokalen Controller darstellen. Es kann aber auch bis hin zu leistungsstarken Servern reichen – oder im Falle von autonomen Autos zu Hochleistungssystemen von Firmen wie NVIDIA, die noch im Auto selbst die vollständige Objekterkennung und weitere visuelle Verarbeitungsschritte durchführen. Wie das letzte Beispiel schon anreißt: In vielen dieser Fälle braucht man schon alleine zum Erstellen von analytischen oder kognitiven Modellen eine umfassende Rechenleistung vor Ort. Das trainierte Modell - die Runtime – läuft dagegen auch auf einfacheren Systemen.

Natürlich braucht man einen Installationsmechanismus, aber die Sicherheitsanforderungen von IoT erfordern dies ohnehin. Ein anderer Aspekt ist auch, dass etwa Bilder oder gar Videos nicht über Messaging Protokolle, sondern über spezialisierte Medien-Protokolle übertragen werden.

Die Architektur für das kognitive IoT ist bereits vorhanden

Das Beispiel eines vernetzten Autos ist auch auf andere Fälle übertragbar, wie beispielsweise eine Qualitätssicherung auf Basis von Bildern in einer Produktion wird nie auf das Internet warten. Die einen treibenden Faktoren für das Edge sind also Latenz und Zuverlässigkeit. Die anderen sind die Möglichkeiten zur Verschlüsselung, Komprimierung und Filterung der Daten, bevor sie ins Internet wandern. Die Wahl des entsprechenden Edge-Device hängt von diesen Anforderungen ab. Ideal positioniert sind hier die Netzwerkhersteller: alles, was bereits auf der Ebene des Netzes erfolgen kann, erzeugt keine zusätzliche Systemlast. Das heißt, die Architektur für ein kognitives Internet der Dinge ist auch bereits da.

Wie kann man nun in die kognitive Welt starten? Großes Potential hierfür birgt das Erschließen von unstrukturierten Datenquellen. Deep Learning ist das aktuell größte Investment aller großen Softwarefirmen, weil eben Rechenleistung billiger und auch über die Cloud dynamisch abrufbar ist. Bereits heute sind eine große Zahl an Machine Learning Technologien in OpenSource verfügbar. Hinzu kommt, dass die Hardware vielfach in Smartphones, Autos und Smart Home Gateways häufig bereits da ist und über APIs für Dritte nutzbar gemacht wird.

Über agile Methoden kann man hier in einem iterativen Ansatz einsteigen. Viele reden hier von minimal „lebensfähigen“ Produkten (MVPs – Minimal Viable Products). Dieser Ansatz ist richtig. Was aber vielfach in dieser agilen Methodik vergessen wird ist, dass ein Mehrwert entstehen muss, dass die Technologie sicher ist und vor allem, dass sie auch sicher bleibt.

Viele Beispiele, die heute erscheinen, sind eher Tests der verfügbaren technischen Möglichkeiten von eher kleineren kognitiven Anwendungen wie etwa Spracheingabe – es geht noch weniger um vollständig durchdachte Lösungen, die einen echten Mehrwert beim Nutzer erzeugen.

Zudem sieht häufig, wenn agilen Methoden angewendet werden, dass diese häufig ein hohes Risiko für IoT-Geräte in Kauf nehmen: selbst wenn sie möglicherweise zehn Jahre oder länger mit dem Internet verbunden bleiben wird ihre Absicherung vernachlässigt, um sie so schnell wie möglich verwirklichen und auf den Markt bringen zu können. Es ist daher immer ratsam, auch in der agilen Welt Anforderungen präzise zu erfassen, die Komplexität der Gesamtlösung bereits zu Beginn vollständig zu dokumentieren sowie die Möglichkeiten der Änderbarkeit und Nachrüstbarkeit der Software insbesondere in den Sicherheitsrelevanten Bereichen wie Zertifikaten im Design zu berücksichtigen. Gerade bei Cloudbasierten Lösungen die darf der Datenschutz insbesondere in Hinblick auf die Privatsphäre des Endverbrauchers – dessen Angewohnheiten sich aus eingehenden Daten analysieren lassen – nicht unterschätzt werden. Hier gilt es, hier Szenarien für mögliche Angriffe und Cyberattacken vorauszuplanen und somit bereits im Vorfeld eine angemessene Abwehrreaktion parat zu haben.

Das Internet der Dinge ist ein wichtiger Spielplatz, der auch in Zukunft riesiges technologisches Potential beinhaltet. All das aufgeführte soll nicht den Enthusiasmus für dieses Feld bremsen; ganz im Gegenteil. Es soll vielmehr sicherstellen, dass die Freude eines internetfähigen Produkts lange anhält und Ihnen und Ihren Kunden den Erfolg bringt.

* Steffen Hartmaier ist IT-Architekt bei IBM Deutschland.

(ID:45025612)