Nvidia hat seine Data-Analytics-Suite AI Enterprise in Version 2.1
freigegeben. Die neue Ausgabe unterstützt neben Bare-Metal- und Vmware-Vsphere-Deployments auch die Kubernetes-Plattform Openshift von Red Hat. Damit lassen sich KI-basierte Datenanalyse-Workflows in einer Kubernetes-Umgebung in ein Hybrid-Cloud-Umfeld bringen und skalieren.
Aktualisiert hat
Nvidia neben der Container-Unterstützung auch das Low-Code-Toolkit Tao. In Version 22.05 von Tao kommen Features wie eine REST-API, Import von Pre-trained Weights, Integration von Tensorboard und neue vortrainierte Modelle hinzu. Mit Tao lassen sich anwendungsspezifische, produktionsreife Machine-Learning-Modelle für Sprach- und Computer-Vision-Applikationen erstellen. Neu unterstützt AI Enterprise zudem Rapids 22.04 mit neuen Modellen und Datenverarbeitungsmöglichkeiten über alle Data-Science-Libraries von Nvidia hinweg.
AI Enterprise bietet in Version 2.1 neu zertifizierten Support für den Azure-Dienst Nvads v5, der die Ampere-Architektur-basierten A10-Tensor-Core-GPUs via GPU-Virtualisierung und GPU Partitioning als Cloud Service verfügbar macht. A10-GPUs lassen sich damit frei von einer Sechstel (4Q-Profil) bis zu zwei ganzen Einheiten mit insgesamt 48 GB skalieren. Und zu guter Letzt bietet AI Enterprise zertifizierten Support für die MLOps-Plattform von Domino Data Lab.
(ubi)