Hochleistungs-
Datenwissenschaft

Nutzen Sie die Leistungsfähigkeit von Grafikprozessoren, um Ihre Workflows für Datenwissenschaft, maschinelles Lernen und KI ganz einfach zu beschleunigen.

Führen Sie komplette Workflows für die Datenwissenschaft mit Hochgeschwindigkeits-GPU-Computing und Parallelisieren von Datenladungen, Datenmanipulation und maschinellem Lernen aus – für 50-mal schnellere durchgehende Pipelines für Datenwissenschaft.

Warum RAPIDS?

nvidia-data-science-process-1cn-d

Ein hochleistungsfähiges Ökosystem schaffen

RAPIDS ist eine Suite von quelloffenen Softwarebibliotheken und APIs für die Ausführung von Pipelines für Datenwissenschaft rein auf GPUs – und kann die Trainingszeiten von Tagen auf Minuten verkürzen. RAPIDS basiert auf NVIDIA® CUDA-X AI und vereint jahrelange Entwicklung in den Bereichen Grafik, maschinelles Lernen, Deep Learning, High Performance Computing (HPC) und mehr.

Kürzere Verarbeitungszeiten

Kürzere Verarbeitungszeiten

Mit Datenwissenschaft können Sie mit mehr Rechenleistung schneller Erkenntnisse gewinnen. RAPIDS nutzt NVIDIA CUDA® im Hintergrund, um Ihre Arbeitsabläufe zu beschleunigen, indem sie die gesamte Pipeline zum Trainieren der Datenwissenschaft auf GPUs ausführen. Dadurch kann die Trainingszeit Ihres Modells von Tagen auf Minuten verkürzt werden.

Dieselben Tools verwenden

Dieselben Tools verwenden

Indem die Komplexität der Arbeit mit dem Grafikprozessor und sogar die Kommunikationsprotokolle hinter den Kulissen innerhalb der Rechenzentren verborgen werden, schafft RAPIDS eine einfache Möglichkeit der Datenwissenschaft. Da immer mehr Datenwissenschaftler Python und andere hochrangige Sprachen verwenden, ist die Bereitstellung von Beschleunigung ohne Codewechsel unerlässlich, um die Entwicklungszeit rasch zu verbessern.

Überall skaliert ausführen

Überall skaliert ausführen

RAPIDS kann an jedem beliebigen Ort – in der Cloud oder vor Ort – ausgeführt werden. Sie können ganz einfach von einer Workstation auf Server mit mehreren Grafikprozessoren skalieren und es in der Produktion mit Dask, Spark, MLFlow und Kubernetes bereitstellen.

Unternehmenstaugliche Datenwissenschaft

Unternehmenstaugliche Datenwissenschaft

Der Zugriff auf zuverlässigen Support ist für Unternehmen, die Datenwissenschaft für geschäftskritische Erkenntnisse nutzen, oft essenziell. Der NVIDIA Enterprise Support ist mit NVIDIA AI Enterprise, einer End-to-End-KI-Softwaresuite, global verfügbar und umfasst garantierte Reaktionszeiten, vorrangige Sicherheitsbenachrichtigungen, regelmäßige Updates und Kontakt zu KI-Experten von NVIDIA.

Blitzschnelle Leistung für Big Data

Die Ergebnisse zeigen, dass Grafikprozessoren bei kleinen und großen Big-Data-Analyseproblemen für große Kosten- und Zeitersparnisse sorgen. Mithilfe vertrauter APIs wie Pandas und Dask kann RAPIDS bei einer Skalierung mit 10 Terabyte bis zu 20-mal schneller auf Grafikprozessoren eingesetzt werden als auf der höchsten CPU-Baseline. Mit nur 16 NVIDIA DGX A100s wird die Leistung von 350 Servern erreicht – damit ist die Lösung von NVIDIA 7-mal kostengünstiger und bietet gleichzeitig eine Leistung auf HPC-Niveau.

nvidia-16-dgx-a100-2c50-d

Schnellerer Datenzugriff, weniger Datenverkehr

Bei gängigen Datenverarbeitungsaufgaben gibt es viele Schritte (Datenpipelines), die mit Hadoop nicht effizient bewältigt werden können. Apache Spark löste dieses Problem, indem alle Daten im Systemspeicher behalten wurden, die flexiblere und komplexere Datenpipelines ermöglichten, aber zu neuen Engpässen führten. Die Analyse selbst einiger hundert Gigabyte (GB) an Daten kann auf Spark-Clustern mit Hunderten von CPU-Knoten Stunden, wenn nicht sogar Tage dauern. Um das echte Potenzial der Datenwissenschaft auszuschöpfen, müssen Grafikprozessoren im Mittelpunkt des Rechenzentrums stehen, bestehend aus diesen fünf Elementen: Computing, Networking, Speicher, Bereitstellung und Software. Allgemein gesehen sind durchgängige Datenwissenschafts-Workflows auf Grafikprozessoren 10-mal schneller als auf CPUs.

Blog lesen ›

Entwicklung der Datenverarbeitung

Schnellerer Datenzugriff, weniger Datenverkehr

Überall RAPIDS

RAPIDS schafft eine Grundlage für ein neues Hochleistungs-Ökosystem für die Datenwissenschaft und senkt die Einstiegshürden für neue Bibliotheken durch Interoperabilität. Integration mit führenden Datenwissenschafts-Frameworks wie Apache Spark, cuPY, Dask und Numba sowie zahlreichen Deep-Learning-Frameworks wie PyTorch, TensorFlow und Apache MxNet sorgen für wachsende Nutzungsraten und fördern Integrationen mit anderen. RAPIDS und die korrelierenden Frameworks finden Sie im NGC-Katalog.

  • Projekte im Spotlight
  • Mitwirkende
  • Anwender
  • Open Source
dask-logo

dask-sql ist eine verteilte SQL-Engine in Python, die ETL in großem Maßstab mit RAPIDS zur GPU-Beschleunigung ausführt.

nvtabular-logo

Auf RAPIDS basierend beschleunigt NVTabular die Funktionstechnik und die Vorverarbeitung für Empfehlungssysteme auf Grafikprozessoren.

custreamz-logo

Basierend auf Streamz und RAPIDS und in Python geschrieben beschleunigt cuStreamz das Streamen der Datenverarbeitung auf GPUs.

plotly-dash-logo

Integriert in RAPIDS ermöglicht Pender Strich die interaktive visuelle Analyse von Datensätzen mit mehreren Gigabyte selbst auf einer einzelnen GPU in Echtzeit.

apache-spark-logo

Der RAPIDS Accelerator für Apache Spark bietet eine Reihe von Plug-ins für Apache Spark, die GPUs nutzen, um die Verarbeitung über RAPIDS und UCX-Software zu beschleunigen.

anaconda-logo
Blazing SQL
capital-one-logo
cupy-logo
chainer-logo
deepwave-digital-logo
gunrock-logo
quansight-logo
walmart-logo
booz-allen-hamilton-logo
capital-one-logo
cloudera-logo
databricks-logo
graphistry-logo
h2oai-logo
hpe-ezmeral-logo-215x121
ibm-logo
iguazio-logo
inria-logo
kinetica-logo
omnisci-logo
preferred-networks-logo
pytorch-logo
uber-logo
ursa-labs-logo
walmart-logo
apache-arrow-logo
Blazing SQL
cupy-logo
dask-logo
gpu-open-analytics-initiative-goai-logo
nuclio-logo
numba-logo
scikit-learn-logo
dmlc-xgboost-logo

Technologie im Mittelpunkt

RAPIDS basiert auf CUDA-Primitives für die Low-Level-Computing-Optimierung, stellt aber diese GPU-Parallelität und hohe Speicherbandbreite durch benutzerfreundliche Python-Schnittstellen zur Verfügung. RAPIDS unterstützt durchgängige Workflows in der Datenwissenschaft, von der Datenladung über die Vorverarbeitung bis hin zum maschinellen Lernen, Grafikanalysen und Visualisierung. Es handelt sich um einen voll funktionsfähigen Python-Stack, der sich für Big-Data-Anwendungsfälle in Unternehmen skalieren lässt.

Datenladung und -vorverarbeitung

Datenladung und -vorverarbeitung

Die Funktionen für das Laden und die Vorverarbeitung von Daten sowie für ETL von RAPIDS basieren auf Apache Arrow, um Daten zu laden, zu verbinden, zu aggregieren, zu filtern und anderweitig zu manipulieren – und das alles in einer Pandas-ähnlichen API, die Datenwissenschaftlern vertraut ist. Für Benutzer ist typischerweise eine 10-fache oder noch höhere Beschleunigung zu erwarten.

Maschinelles Lernen

Maschinelles Lernen

Die Algorithmen und mathematischen Primitives des maschinellen Lernens von RAPIDS folgen einer bekannten Scikit-Learn-ähnlichen API. Beliebte Tools wie XGBoost, Random Forest und viele andere werden sowohl für einzelne Grafikprozessoren als auch für große Rechenzentren eingesetzt. Bei großen Datensätzen können diese GPU-basierten Implementierungen 10- bis 50-mal schneller abgeschlossen werden als ihre CPU-Äquivalente.

Grafikanalyse

Grafikanalyse

Die Grafikalgorithmen von RAPIDS wie PageRank und Funktionen wie NetworkX nutzen die massive Parallelität von GPUs effizient, um die Analyse großer Grafiken um mehr als das 1000-Fache zu beschleunigen. Untersuchen Sie bis zu 200 Millionen Edges auf einem einzelnen NVIDIA A100 Tensor Core-Grafikprozessor und skalieren Sie auf Milliarden von Edges auf NVIDIA DGX A100-Clustern.

Visualisierung

Visualisierung

Die Visualisierungsfunktionen von RAPIDS unterstützen grafikprozessorbeschleunigte Querfilterung. Inspiriert durch die JavaScript-Version des Originals, ermöglicht es interaktive und superschnelle, mehrdimensionale Filterung von über 100 Millionen tabellarischen Zeilendatensätzen.

Maschinelles Lernen bis hin zu Deep Learning: alles auf GPU

Deep-Learning-Integration

Während Deep Learning in Bereichen wie Computer Vision, Verarbeitung natürlicher Sprache und Empfehlungsdiensten effektiv ist, gibt es Bereiche, in denen der Einsatz nicht zum Mainstream gehört. Die tabellarischen Datenprobleme, die aus den Spalten kategorischer und kontinuierlicher Variablen bestehen, verwenden häufig Methoden wie XGBoost, Gradient Boosting oder lineare Modelle. RAPIDS rationiert die Vorverarbeitung von tabellarischen Daten auf Grafikprozessoren und stellt eine lückenlose Datenübergabe direkt an alle Frameworks zur Verfügung, die DLPack unterstützen, wie PyTorch, TensorFlow und MxNet. Diese Integrationen eröffnen neue Möglichkeiten für die Erstellung von reichhaltigen Workflows, selbst solche, die zuvor aus Vernunft heraus entstanden sind, wie das Rückführen neuer Funktionen, die aus Deep-Learning-Frameworks entstehen, in Algorithmen.

Moderne Rechenzentren für Datenwissenschaft

Für den Aufbau von KI-optimierten Rechenzentren im Unternehmen gibt es fünf wesentliche Bestandteile. Der Schlüssel liegt darin, GPUs in den Mittelpunkt zu stellen.

Computing

Computing

Mit ihrer enormen Rechenleistung sind Systeme mit NVIDIA-GPUs die Computing-Kernkomponente für KI-Rechenzentren. NVIDIA DGX-Systeme bieten bahnbrechende KI-Leistung und können im Durchschnitt 50 Dual-Socket-CPU-Server ersetzen. Dies ist der erste Schritt, um Datenwissenschaftlern die leistungsstärksten Tools der Branche für die Datenerforschung zu bieten.

Software

Software

Indem die Komplexität der Arbeit mit dem Grafikprozessor und die Kommunikationsprotokolle hinter den Kulissen innerhalb der Rechenzentren verborgen werden, schafft RAPIDS eine einfache Möglichkeit der Datenwissenschaft. Da immer mehr Datenwissenschaftler Python und andere hochrangige Sprachen verwenden, ist die Bereitstellung von Beschleunigung ohne Codewechsel unerlässlich, um die Entwicklungszeit rasch zu verbessern.

Netzwerk

Netzwerk

Der direkte Remotezugriff auf den Speicher (RDMA) in NVIDIA Mellanox®-Netzwerkschnittstellen-Controllern (NICs), NCCL2 (NVIDIA-kollektive Kommunikationsbibliothek) und OpenUCX (Open-Source-Point-to-point-Kommunikations-Framework) hat zu enormen Verbesserungen der Trainingsgeschwindigkeit geführt. Mit RDMA können GPUs über Knoten hinweg mit bis zu 100 Gigabit pro Sekunde (Gb/s) direkt miteinander kommunizieren. Sie können mehrere Knoten umfassen und arbeiten, als befänden sie sich auf einem einzigen riesigen Server.

Implementierung

Implementierung

Unternehmen wechseln zu Kubernetes- und Docker-Containern für die Bereitstellung von Pipelines im großen Maßstab. Die Kombination containerisierter Anwendungen mit Kubernetes ermöglicht es Unternehmen, die Prioritäten für die wichtigste Aufgabe zu ändern, und erhöht die Ausfallsicherheit, Zuverlässigkeit sowie Skalierbarkeit von KI-Rechenzentren.

Datenspeicher

Datenspeicher

GPUDirect® Storage ermöglicht es sowohl NVMe als auch NVMe over Fabric (NVMe-oF), Daten direkt am Grafikprozessor zu lesen und zu schreiben, unter Umgehung der CPU und des Systemspeichers. Dadurch werden die CPU und der Systemspeicher für andere Aufgaben frei, während jeder Grafikprozessor um Zehnerpotenzen mehr Daten mit bis zu 50 Prozent größerer Bandbreite zugreifen kann.

Unser Bekenntnis zu Open-Source-Datenwissenschaft

NVIDIA setzt sich für die Vereinfachung, Vereinheitlichung und Beschleunigung der Datenwissenschaft für die Open-Source-Community ein. Durch die Optimierung des gesamten Stacks – von der Hardware bis hin zur Software – und durch die Beseitigung von Engpässen für iterative Datenwissenschaft hilft NVIDIA Datenwissenschaftlern überall, mehr denn je mit weniger zu erreichen. Dies bedeutet für Unternehmen mehr Wert aus ihren wertvollsten Ressourcen: ihren Daten und Datenwissenschaftlern. Als Apache 2.0-Open-Source-Software bringt RAPIDS ein Ökosystem auf GPUs zusammen.

Ohne Rechenleistung mussten die Datenwissenschaftler ihre Algorithmen „dumm stellen“, um schnell genug zu liefen. Das ist nun vorbei: GPUs erlauben es uns, zuvor Unmögliches zu tun.

– Bill Groves, Chief Data Officer, Walmart

Die globalen Modelle der NASA erzeugen Terabytes an Daten. Vor RAPIDS wurde eine Schaltfläche gedrückt und sechs oder sieben Stunden auf die Ergebnisse gewartet. Die Beschleunigung des Trainingszyklus hat die Entwicklung der Modelle grundlegend geändert.

– Dr. John Keller, NASA Goddard Space Flight Center

Mit einer 100-fachen Verbesserung der Trainingszeiten und einer Kosteneinsparung von 98 Prozent sieht Capital One RAPIDS.ai und Dask als den nächsten großen Durchbruch für Datenwissenschaft und maschinelles Lernen.

– Mike McCarty, Director of Software Engineering, Capital One Center for Machine Learning

Legen Sie los

  翻译: