Preise
Jump to section

Was ist Red Hat OpenShift AI?

Red Hat® OpenShift® AI ist eine flexible, skalierbare KI/ML-Plattform (Künstliche Intelligenz/Maschinelles Lernen), mit der Unternehmen KI-gestützte Anwendungen in Hybrid Cloud-Umgebungen in großem Umfang entwickeln und bereitstellen können.

OpenShift AI basiert auf Open Source-Technologien und bietet zuverlässige, operativ konsistente Funktionen, mit denen Teams experimentieren, Modelle bereitstellen und innovative Apps bereitstellen können.

KI in beliebigen Umgebungen schneller bereitstellen. Dauer des Videos: 5:26

Illustration einer Person, die KI/ML-Oberflächen verwendet

KI-gestützte Apps schneller produzieren

Hier sind die bewährten Features von Red Hat OpenShift AI und Red Hat OpenShift auf einer unternehmensgerechten KI-Anwendungsplattform vereint, die die Teams zusammenbringt. Data Scientists, Engineers und Anwendungsentwickler können in einem Medium zusammenarbeiten, das Konsistenz, Sicherheit und Skalierbarkeit fördert.

Mit OpenShift AI können Sie Daten erfassen und vorbereiten, Modelltraining und Fine Tuning durchführen, Modelle bereitstellen und überwachen sowie auf Hardwarebeschleuniger zugreifen. Durch das offene Partnernetzwerk für Hardware und Software verfügt OpenShift AI über die Flexibilität, die Sie für Ihre speziellen Use Cases benötigen.

Das aktuelle Release von Red Hat OpenShift AI bietet eine bessere Skalierbarkeit, Erkennung von Verzerrungen und Abweichungen, einen besseren Zugang zu Accelerators und ein zentralisiertes Registry zum Teilen, Bereitstellen und Überwachen von Modellen. So können Unternehmen ihre KI/ML-Innovationen und ihre operative Konsistenz in großem Umfang in Public Clouds, Rechenzentren und Edge-Umgebungen beschleunigen. 

Features und Vorteile

Weniger Zeitaufwand für das KI-Infrastrukturmanagement

Geben Sie Ihren Teams On-Demand-Zugriff auf Ressourcen, damit sie sich auf die Datenrecherche und das Entwickeln von Anwendungen konzentrieren können, die Ihr Unternehmen wirklich voranbringen. Weiterhin sorgen eingebettete Sicherheitsfunktionen und die Operator-Lifecycle-Integration für zusätzliche Zeiteinsparungen.

Getestete und unterstützte KI/ML-Tools

Red Hat verfolgt, integriert, testet und unterstützt bekannte KI/ML-Tools und die Modellbereitstellung auf der Red Hat OpenShift Anwendungsplattform, damit Sie es nicht tun müssen. OpenShift AI profitiert von mehreren Jahren Erfahrung mit dem Community-Projekt „Open Data Hub“ von Red Hat und mit Open Source-Projekten wie Kubeflow.

Flexibilität in der gesamten Hybrid Cloud

Red Hat OpenShift AI ist wahlweise als selbst gemanagte Software oder als vollständig gemanagter Cloud Service zusätzlich zu OpenShift verfügbar. Es bietet eine sichere und flexible Plattform, bei der Sie selbst entscheiden können, wo Sie Ihre Modelle entwickeln und bereitstellen möchten: On-Premise, in der Public Cloud oder sogar am Netzwerkrand.

Einsatz von Best Practices

Red Hat Consulting bietet Services, mit denen Sie Red Hat OpenShift AI in vollem Umfang installieren, konfigurieren und nutzen können.

Unabhängig davon, ob Sie ein OpenShift AI Pilotprojekt ausführen möchten oder Unterstützung beim Aufbau Ihrer MLOps-Basis benötigen – Red Hat Consulting bietet Ihnen Support und Mentoring.

Jetzt verfügbar

Red Hat Enterprise Linux AI

Red Hat® Enterprise Linux® AI ist eine Plattform für Basismodelle, mit der Sie Unternehmensanwendungen mithilfe von großen Sprachmodellen (LLM) der Granite-Familie nahtlos entwickeln, testen und bereitstellen können.

Partnerschaften

Holen Sie mehr aus der Red Hat OpenShift AI Plattform heraus, indem Sie sie um weitere integrierte Services und Produkte erweitern.

NVIDIA-Logo

NVIDIA und Red Hat bieten Kunden eine skalierbare Plattform, die eine Vielzahl von KI-Use Cases mit unvergleichlicher Flexibilität beschleunigt.

Intel-Logo

Intel® und Red Hat unterstützen Organisationen dabei, die Einführung der KI zu beschleunigen und ihre KI/ML-Modelle schnell zu operationalisieren.

IBM-Logo

IBM und Red Hat bieten Open Source-Innovationen zur Beschleunigung der KI-Entwicklung, unter anderem durch IBM watsonx.aiTM, einem unternehmensgerechten KI-Studio für KI-Entwicklungsteams. 

Starburst-Logo

Starburst Enterprise und Red Hat unterstützen verbesserte und zeitgerechtere Erkenntnisse durch schnelle Datenanalysen auf mehreren verschiedenen und verteilten Datenplattformen.

Erweiterung Ihrer KI-Funktionen mit IBM watsonx.ai

Red Hat OpenShift AI bildet die Open Source-Basis für IBM watson.ai, das zusätzliche generative KI-Funktionen bietet.

Zusammenarbeit per Jupyter Notebooks-as-a-Service

Stellen Sie Ihren Data Scientists vorgefertigte oder benutzerdefinierte Cluster Images zur Verfügung, damit diese Modelle mithilfe von Jupyter-Notebooks erstellen können. Red Hat OpenShift AI verfolgt Änderungen an Jupyter, TensorFlow, PyTorch und anderen Open Source-KI-Technologien.

Screenshot der Registerkarte für aktivierte Anwendungen in der Konsole von OpenShift AI
Screenshot der Modellbereitstellungstabelle in der Konsole von OpenShift AI

Modellbereitstellung mit Red Hat OpenShift AI skalieren

Modelle können für die Integration in intelligente Anwendungen On-Premise, in der Public Cloud oder am Edge bereitgestellt werden. Diese Modelle können basierend auf Änderungen am Quell-Notebook neu erstellt, bereitgestellt und überwacht werden.

Lösungs-Pattern

KI-Anwendungen mit Red Hat und NVIDIA AI Enterprise

Entwickeln einer RAG-Anwendung

Red Hat OpenShift AI ist eine Plattform für das Entwickeln von Data Science-Projekten und Bereitstellen von KI-gestützten Anwendungen. Sie können sämtliche für die Unterstützung   von Retrieval-Augmented Generation (RAG), einer Methode zum Abrufen von KI-Antworten aus Ihren eigenen Referenzdokumenten, erforderlichen Tools integrieren. Wenn Sie OpenShift AI mit NVIDIA AI Enterprise kombinieren, können Sie mit   Large Language Models (LLMs) experimentieren und so das optimale Modell für Ihre Anwendung finden.

Erstellen einer Pipeline für Dokumente

Damit Sie RAG nutzen können, müssen Sie Ihre Dokumente zunächst in eine Vektordatenbank aufnehmen. In unserer Beispielanwendung integrieren wir eine Anzahl von Produktdokumenten in eine Redis-Datenbank. Da sich diese Dokumente häufig ändern, können wir für diesen Prozess eine Pipeline erstellen, die wir regelmäßig ausführen, damit wir immer die aktuellsten Versionen der Dokumente zur Verfügung haben

Durchsuchen des LLM-Katalogs

Mit NVIDIA AI Enterprise können Sie auf einen Katalog verschiedener LLMs zugreifen. So können Sie verschiedene Möglichkeiten ausprobieren und das Modell auswählen, das die optimalen Ergebnisse erzielt. Die Modelle werden im NVIDIA API-Katalog gehostet. Sobald Sie ein API-Token eingerichtet haben, können Sie ein Modell mit der NVIDIA NIM Model Serving-Plattform direkt über OpenShift AI bereitstellen.

Auswählen des richtigen Modells

Beim Testen verschiedener LLMs können Ihre Nutzerinnen und Nutzer die einzelnen generierten Antworten bewerten. Sie können ein Grafana Monitoring Dashboard einrichten, um die Bewertungen sowie die Latenz- und Antwortzeiten der einzelnen Modelle zu vergleichen. Anhand dieser Daten können Sie dann das optimale LLM für den Produktionseinsatz auswählen.

Symbol PDF herunterladen

Ein Architekturdiagramm zeigt eine Anwendung, die mit Red Hat OpenShift AI und NVIDIA AI Enterprise entwickelt wurde. Zu den Komponenten gehören OpenShift GitOps für die Verbindung zu GitHub und die Handhabung von DevOps-Interaktionen, Grafana für das Monitoring, OpenShift AI für Data Science, Redis als Vektordatenbank und Quay als Image Registry. Diese Komponenten bilden die Basis für das Frontend und Backend der Anwendung. Sie basieren auf Red Hat OpenShift AI, mit einer Integration mit ai.nvidia.com.

Zugehörige Ressourcen erkunden

Video

Red Hat OpenShift AI – Demo

E-Book

Wichtige Überlegungen zum Aufbau einer Basis für generative KI

Analystenreport

Omdia-Bericht: Aufbau einer starken operativen Basis für KI

Checkliste

5 Methoden zum erfolgreichen Einsatz von MLOps in Ihrem Unternehmen

Red Hat OpenShift AI testen

Entwicklungs-Sandbox

Für Entwicklungsteams und Data Scientists, die KI-fähige Anwendungen in einer vorkonfigurierten und flexiblen Umgebung entwickeln und damit experimentieren wollen.

60-tägige Testversion

Ihr Unternehmen will die Möglichkeiten von OpenShift AI umfassend testen? Nutzen Sie unsere 60-tägige Testversion. Sie benötigen dazu einen Red Hat OpenShift Cluster.

Vertrieb kontaktieren

Sprechen Sie mit Red Hat