Was ist eine Movidius Myriad X Vision Processing Unit?

In diesem artikel:

  1. Was ist die Movidius Myriad X Vision Processing Unit?
  2. Welche Versionen des Myriad X gibt es?
  3. Das erste Bildverarbeitungssystem auf einem Chip

Was ist die Movidius Myriad X Vision Processing Unit?

Der Chip wurde von Movidius entwickelt, einem Unternehmen, das 2016 von Intel übernommen wurde, und zwar speziell für die von ihm entwickelte Neural Compute Engine. Die Idee hinter diesem Vorhaben ist es, KI-Funktionen für alltägliche Geräte anzubieten. Movidius bietet bereits den Fathom Compute Stick an, der Deep-Learning-Funktionen für eingebettete Geräte ermöglicht. Intel wollte dies auf eine neue Ebene heben, auf der lernende Algorithmen sich selbst trainieren können, um Bilder und Wörter zu identifizieren oder Videoübertragungen zu analysieren. Der Myriad X bringt solche Fähigkeiten in Geräte wie Drohnen, Kameras, Roboter und VR/AR-Headsets. Die neue VPU ist ein 16-nm-System-on-a-Chip, das Bildverarbeitungsbeschleuniger, Bildverarbeitungsbeschleuniger und die Movidius Neural Compute Engine sowie 16 SHAVE-Vektorprozessoren in Kombination mit einer CPU integriert. Der kleine Chip ist in der Lage, bis zu 4 Billionen Operationen pro Sekunde zu verarbeiten und hat eine minimale TDP von 1,5 W.

Welche Versionen des Myriad X gibt es?

Es gibt zwei Versionen des Myriad X: den MA2085 mit On-Package-Speicher und offener externer Speicherschnittstelle und den MA2485, der 4 Gigabit In-Package-LPDDR4-Speicher integriert. Die VPU unterstützt PCIe-Schnittstellen, die es OEMs ermöglichen, mehrere Chips in ein einziges Gerät zu integrieren.

Das erste Bildverarbeitungssystem auf einem Chip

Intel hat die Movidius Myriad X Vision Processing Unit (VPU) vorgestellt, die Intel als das erste System-on-a-Chip (SoC) für die Bildverarbeitung mit einer dedizierten neuronalen Recheneinheit bezeichnet, um die Inferenzierung von tiefen neuronalen Netzwerken am Netzwerkrand zu beschleunigen.

Die Einführung des SoC folgt unmittelbar auf die Veröffentlichung des Movidius Neural Compute Stick im Juli, ein USB-basiertes Angebot, das die Entwicklung von Deep-Learning-Anwendungen auf spezialisierter Hardware noch breiter verfügbar macht

Die neue Neural Compute Engine der VPU ist ein On-Chip-Hardwareblock, der speziell für die Ausführung von tiefen neuronalen Netzwerken bei hoher Geschwindigkeit und geringem Stromverbrauch entwickelt wurde. "Mit der Einführung der Neural Compute Engine ist die Myriad X Architektur in der Lage, 1 TOPS - Billion Operationen pro Sekunde basierend auf dem Spitzenwert des Gleitkomma-Rechendurchsatzes der Neural Compute Engine - an Rechenleistung für tiefe neuronale Netzwerke zu erreichen", so Intel.

Steve Conway von Hyperion Research kommentierte die Einführung wie folgt: "Die Intel VPU ist ein wesentlicher Bestandteil der größeren Strategie des Unternehmens für Deep Learning und andere KI-Methoden. HPC ist in den Vordergrund der Forschung und Entwicklung für KI gerückt, und die visuelle Verarbeitung ergänzt die HPC-Strategie von Intel. In der kommenden Ära der autonomen Fahrzeuge und des vernetzten Verkehrs, zusammen mit Millionen von Drohnen und IoT-Sensoren, wird die ultraschnelle visuelle Verarbeitung unverzichtbar sein."

Zusätzlich zu seiner neuronalen Berechnungs-Engine kombiniert Myriad X Bildverarbeitung, visuelle Verarbeitung und Deep-Learning-Inferenz in Echtzeit mit:

"Programmierbare 128-Bit-VLIW-Vektorprozessoren: Führen Sie mehrere Bildverarbeitungs- und Bildverarbeitungspipelines gleichzeitig mit der Flexibilität von 16 Vektorprozessoren aus, die für Computer Vision Workloads optimiert sind.

Erhöhte konfigurierbare MIPI-Lanes: Schließen Sie bis zu 8 RGB-Kameras mit HD-Auflösung direkt an Myriad X an und nutzen Sie die 16 MIPI-Lanes, die in den zahlreichen Schnittstellen enthalten sind, um einen Durchsatz von bis zu 700 Millionen Pixeln pro Sekunde bei der Bildsignalverarbeitung zu erzielen.

Verbesserte Vision-Beschleuniger: Nutzen Sie über 20 Hardware-Beschleuniger, um Aufgaben wie optischen Fluss und Stereotiefe ohne zusätzlichen Rechen-Overhead auszuführen.

2.5 MB homogener On-Chip-Speicher: Die zentralisierte On-Chip-Speicherarchitektur ermöglicht eine interne Bandbreite von bis zu 450 GB pro Sekunde, wodurch die Latenzzeit minimiert und der Stromverbrauch durch eine geringere Datenübertragung außerhalb des Chips gesenkt wird."

Remi El-Ouazzane, ehemaliger CEO von Movidius und jetzt Vice President und General Manager von Movidius, Intel New Technology Group, wird in der Ankündigung zitiert: "Geräte mit menschenähnlicher visueller Intelligenz zu ermöglichen, stellt den nächsten Schritt in der Computertechnik dar. Mit Myriad X definieren wir neu, was eine VPU bedeutet, wenn es darum geht, so viel KI- und Bildverarbeitungs-Rechenleistung wie möglich zu liefern, und das alles innerhalb der einzigartigen Energie- und Wärmebeschränkungen moderner ungebundener Geräte."

Die Technologie für neuronale Netzwerke und die Produktentwicklung schreiten sowohl an der Trainings- als auch an der Inferenzfront schnell voran. Es ist davon auszugehen, dass es eine Vielzahl von KI-bezogenen "Verarbeitungseinheiten" geben wird, die sich von der Chip- bis zur Systemebene erstrecken, da sich die Technologie sowohl in Rechenzentren als auch an Netzwerkrändern durchsetzt. Google hat natürlich die zweite Generation seiner Tensor Processing Unit (TPU) vorgestellt, Graph Core hat eine Intelligent Processing Unit (IPU) und Fujitsu hat eine Deep Learning Unit (DLU).

El-Ouazzane hat einen Blog über das neue SoC geschrieben, in dem er anmerkt: "Da wir weiterhin Intels einzigartige Fähigkeit nutzen, End-to-End-KI-Lösungen von der Cloud bis zum Edge zu liefern, sind wir verpflichtet, eine VPU-Technologie-Roadmap zu liefern, die die Edge-Compute-Leistung weiter dramatisch erhöhen wird, ohne den Stromverbrauch zu beeinträchtigen. Das nächste Jahrzehnt wird die Geburt brandneuer Gerätekategorien markieren."

Zu den Hauptmerkmalen des Neural Compute Stick, der sich an Entwickler richtet, gehören laut Intel:

  1. Unterstützt CNN-Profiling, Prototyping und Tuning-Workflow
  2. Alle Daten und die Stromversorgung erfolgen über einen einzigen USB Typ A Anschluss
  3. Echtzeit-inferenz auf dem gerät - cloud-konnektivität nicht erforderlich
  4. Betreiben sie mehrere geräte auf der gleichen plattform, um die leistung zu skalieren
  5. Schneller Einsatz vorhandener CNN-Modelle oder eigens trainierter Netzwerke
Benötigen sie weitere unterstützung?