Ein Angebot von

So schnell ist das Deep Learning Framework Caffe

| Autor / Redakteur: Otto Geißler / Nico Litzel

Das Open Source Deep Learning Framework Caffe zeichnet sich durch seine Schnelligkeit aus.
Das Open Source Deep Learning Framework Caffe zeichnet sich durch seine Schnelligkeit aus. (Bild: © ustas - stock.adobe.com)

Das Deep Learning Framework Caffe ist auf Modularität, Skalierbarkeit und Schnelligkeit ausgelegt. Dadurch lassen sich unter anderem Modelle für Künstliche Intelligenz innerhalb nur weniger Stunden anstatt mehrerer Tage trainieren.

Entwickelt wurde das Open Source Framework von Yangqing Jia während seiner Zeit am Berkeley Vision and Learning Center (BVLC) sowie von Mitgliedern der Community. Mittlerweile wurde die Software von ihm und seinem Arbeitgeber Facebook als Caffe2 weiterentwickelt. Darüber hinaus besteht auch eine mobile Version von Caffe2. Diese hört auf den originellen Namen: Caffe2Go.

Auf Basis des Style-Transfer-Ansatzes lassen sich damit Bild- oder Videodateien ohne störende Verzerrungen leichter anpassen. Diese Variante des ursprünglichen Deep-Learning-Frameworks soll Machine-Learning-Algorithmen für Smartphone- (Android und iPhone) und Cluster-Anwendungen realisieren. Dank Caffe2Go können Bilderkennung, Natural Language Processing oder Computer Vision gleich direkt auf dem Mobilgerät genutzt werden. Dies war bislang nur mit Googles TensorFlow möglich.

Deep Learning braucht starke Partner

Mögliche Einsatzfelder für Caffe sind zum Beispiel Spracherkennung sowie die Klassifizierung von Bildern, Videos und Texten. Davon können unter anderem akademische Forschungsprojekte, Prototypen von Start-ups sowie zahlreiche industrielle Anwendungen wie zum Beispiel maschinelles Sehen, Spracherkennung und Multimedia profitieren.

Dem User steht bereits vorab eine stattliche Sammlung vorkonfigurierter Trainingsmodelle zur Verfügung. Auf diese Weise kann mit Künstlicher Intelligenz (KI) und das Kennenlernen diverser neuronaler Netzwerke experimentiert werden. Darüber hinaus besitzt Caffe Schnittstellen für C++, Python (NumPy) und MATLAB.

Dafür holte sich Facebook starke Partner an Bord. Allen voran der Grafikkartenhersteller Nvidia. Erst die performante Hardwarebeschleunigung der Nvidia-GPU erlaubt es Caffe, das Tempo vorzulegen, das für KI-Projekte zwingend notwendig ist. So soll das Framework auf den neuesten Nvidia-Pascal-Grafikprozessoren imstande sein, bis zu 65 Prozent schneller zu laufen. Den Reigen berühmter Partner für Caffe komplettieren bekannte Branchenriesen wie Intel, Amazon, Microsoft und Qualcomm. Das legt schnell klar, dass Caffe nicht einfach so „zwischen Tür und Angel“ entwickelt wurde – obwohl es als ein Open-Source-Produkt veröffentlicht wird.

Der Traum des Mark Zuckerberg

Ganz im Gegenteil, der CEO von Facebook hat mit dem quirligen „Kaffee-Tool“ noch recht viel vor: Es soll bei den geplanten Anwendungen für Erweiterte Realität, der Augmented Reality (AR), eine tragende Rolle spielen. Denn ohne die flinken Leistungsträger der Künstlichen Intelligenz wird hier buchstäblich nichts laufen. Denn die digitale und reale Welt soll per Augmented Reality auf alle möglichen Arten harmonisch verbunden werden. Das, so glaubt Zuckerberg, wird die reale Welt wiederum stark beeinflussen und verbessern.

Mit den von Zuckerberg angestrebten Einsatzmöglichkeiten für das Framework sind unter anderem die Entwicklung von Chatbots oder die Kommunikation mit Geräten aus dem Internet of Things (IoT) gemeint. Doch letztlich wird die Verbindung von Künstlicher Intelligenz und Augmented Reality in nicht allzu ferner Zeit wohl in fast allen möglichen Bereichen ihren Niederschlag finden.

Ein Blick in die Technik

Mobile KI-Dienste müssen vor allem eines sein: richtig schnell. Am besten in Echtzeit. Facebook steuert dazu seine GPU-beschleunigten Verfahren wie zum Beispiel von den Big-Basin-Servern bei. Das geschieht, indem auf acht miteinander verbundene Facebook-Big-Basin-KI-Server mit 64 Nvidia-Tesla-P100-GPU-Beschleunigern der Datendurchsatz um das 57-Fache gesteigert wird. Zur optimalen Ausnutzung der Performanz muss hierfür eine hochoptimierte Deep Learning Software zum Einsatz kommen.

Da sind sich Nvidia und Facebook einig: Caffe fällt die große Aufgabe zu, die Entwicklung im Bereich Künstlicher Intelligenz kräftig anzukurbeln. Kein Wunder, dass Caffe schon von vorn herein für den Einsatz der Nvidia-GPU-Deep-Learning-Platform optimiert wurde. Dazu nutzt das Framework die neuesten Deep-Learning-SDK-Bibliotheken NCCL, cuBLAS und cuDNN. Damit ist auch Nvidias Großrechner DGX-1 das erste KI-System mit Caffe-Support. Auf diese Weise sind auch GPU-beschleunigte Trainings möglich.

Die Vorteile liegen klar auf der Hand: Während die Nvidia-GPUs im Hintergrund eine stets optimale Performance gewährleisten, können sich die Entwickler so auf das Schaffen von Anwendungen konzentrieren. Veröffentlicht wurde das aktuelle Caffe unter der Open-Source-Lizenz BSD. Caffe2-Dokumentationsmaterial und -Tutorials sind auf der Caffe2-Webseite zu finden.

Für die grafikprozessorfähige Version von Caffe gelten folgende Systemanforderungen: Linux 64-Bit, NVIDIA CUDA7.5 (CUDA 8.0 erforderlich für NVIDIA Pascal-Grafikprozessoren), cuDNN v5.1 sowie einen NVIDIA-Grafikprozessor, der eine Performance von mindestens 3.0 unterstützt.

Caffe mit Funken – geht das?

CaffeOnSpark von Yahoo gestattet es, Deep-Learning-Prozesse in Spark-Anwendungen einzugliedern. Die Machine-Learning-Bibliothek MLlib von Spark supportet zwar einige Algorithmen wie zum Beispiel für die Bereiche Klassifikation, Regression und Clustering, allerdings haben jene wenig mit Deep Learning zu tun. Dieses Defizit wurde mit CaffeOnSpark behoben.

Damit kombiniert CaffeOnSpark zwei vorhandene Technologien: das Deep-Learning-Framework Caffe und das Cluster-Computing-Framework Apache Spark, das auch als Ergänzung zu der Big-Data-Plattform Hadoop eingesetzt wird. Die Software kann somit sehr umfangreiche Hadoop-Datenmengen für das Deep Learning verarbeiten.

CaffeOnSpark erlaubt Deep Learning direkt auf Big-Data-Clustern. Somit reduzieren sich die erforderlichen Datenbewegungen bei herkömmlichen Lösungsansätzen. Daraus resultiert wiederum im direkten Vergleich eine höhere Verarbeitungsgeschwindigkeit. CaffeOnSpark eignet sich nicht nur ideal für Deep-Learning-Entwickler, sondern auch für die Spark-Community. CaffeOnSpark ist über GitHub downloadbar.

Sieben häufige Fehler bei der Einführung von KI

Sieben häufige Fehler bei der Einführung von KI

01.06.18 - KI liegt im Trend, aber beim Einsatz der Technologie können Unternehmen einiges falsch machen. Pegasystems warnt vor den sieben häufigsten Fehlerquellen bei der KI-Implementierung. lesen

Wie sich das menschliche Gehirn im Computer nachbilden lässt

Künstliche Intelligenz

Wie sich das menschliche Gehirn im Computer nachbilden lässt

07.02.17 - Die Herausforderung, die Komplexität des menschlichen Gehirns im Computer nachzubilden, hat eine neue Generation von Wissenschaftlern und Entwicklern von Computeralgorithmen hervorgebracht. lesen

Dieser Beitrag stammt von unserem Partnerportal BigData-Insider.de.

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45335639 / KI)