Red Hat OpenShift AI
Was ist Red Hat OpenShift AI?
Red Hat® OpenShift® AI ist eine flexible, skalierbare KI/ML-Plattform (Künstliche Intelligenz/Maschinelles Lernen), mit der Unternehmen KI-gestützte Anwendungen in Hybrid Cloud-Umgebungen in großem Umfang entwickeln und bereitstellen können.
OpenShift AI basiert auf Open Source-Technologien und bietet zuverlässige, operativ konsistente Funktionen, mit denen Teams experimentieren, Modelle bereitstellen und innovative Apps bereitstellen können.
KI-gestützte Apps schneller produzieren
Hier sind die bewährten Features von Red Hat OpenShift AI und Red Hat OpenShift auf einer unternehmensgerechten KI-Anwendungsplattform vereint, die die Teams zusammenbringt. Data Scientists, Engineers und Anwendungsentwickler können in einem Medium zusammenarbeiten, das Konsistenz, Sicherheit und Skalierbarkeit fördert.
Mit OpenShift AI können Sie Daten erfassen und vorbereiten, Modelltraining und Fine Tuning durchführen, Modelle bereitstellen und überwachen sowie auf Hardwarebeschleuniger zugreifen. Durch das offene Partnernetzwerk für Hardware und Software verfügt OpenShift AI über die Flexibilität, die Sie für Ihre speziellen Use Cases benötigen.
Das aktuelle Release von Red Hat OpenShift AI bietet eine bessere Skalierbarkeit, Erkennung von Verzerrungen und Abweichungen, einen besseren Zugang zu Accelerators und ein zentralisiertes Registry zum Teilen, Bereitstellen und Überwachen von Modellen. So können Unternehmen ihre KI/ML-Innovationen und ihre operative Konsistenz in großem Umfang in Public Clouds, Rechenzentren und Edge-Umgebungen beschleunigen.
Features und Vorteile
Weniger Zeitaufwand für das KI-Infrastrukturmanagement
Geben Sie Ihren Teams On-Demand-Zugriff auf Ressourcen, damit sie sich auf die Datenrecherche und das Entwickeln von Anwendungen konzentrieren können, die Ihr Unternehmen wirklich voranbringen. Weiterhin sorgen eingebettete Sicherheitsfunktionen und die Operator-Lifecycle-Integration für zusätzliche Zeiteinsparungen.
Getestete und unterstützte KI/ML-Tools
Red Hat verfolgt, integriert, testet und unterstützt bekannte KI/ML-Tools und die Modellbereitstellung auf der Red Hat OpenShift Anwendungsplattform, damit Sie es nicht tun müssen. OpenShift AI profitiert von mehreren Jahren Erfahrung mit dem Community-Projekt „Open Data Hub“ von Red Hat und mit Open Source-Projekten wie Kubeflow.
Flexibilität in der gesamten Hybrid Cloud
Red Hat OpenShift AI ist wahlweise als selbst gemanagte Software oder als vollständig gemanagter Cloud Service zusätzlich zu OpenShift verfügbar. Es bietet eine sichere und flexible Plattform, bei der Sie selbst entscheiden können, wo Sie Ihre Modelle entwickeln und bereitstellen möchten: On-Premise, in der Public Cloud oder sogar am Netzwerkrand.
Einsatz von Best Practices
Red Hat Consulting bietet Services, mit denen Sie Red Hat OpenShift AI in vollem Umfang installieren, konfigurieren und nutzen können.
Unabhängig davon, ob Sie ein OpenShift AI Pilotprojekt ausführen möchten oder Unterstützung beim Aufbau Ihrer MLOps-Basis benötigen – Red Hat Consulting bietet Ihnen Support und Mentoring.
Red Hat Enterprise Linux AI
Red Hat® Enterprise Linux® AI ist eine Plattform für Basismodelle, mit der Sie Unternehmensanwendungen mithilfe von großen Sprachmodellen (LLM) der Granite-Familie nahtlos entwickeln, testen und bereitstellen können.
Partnerschaften
Holen Sie mehr aus der Red Hat OpenShift AI Plattform heraus, indem Sie sie um weitere integrierte Services und Produkte erweitern.
NVIDIA und Red Hat bieten Kunden eine skalierbare Plattform, die eine Vielzahl von KI-Use Cases mit unvergleichlicher Flexibilität beschleunigt.
Intel® und Red Hat unterstützen Organisationen dabei, die Einführung der KI zu beschleunigen und ihre KI/ML-Modelle schnell zu operationalisieren.
IBM und Red Hat bieten Open Source-Innovationen zur Beschleunigung der KI-Entwicklung, unter anderem durch IBM watsonx.aiTM, einem unternehmensgerechten KI-Studio für KI-Entwicklungsteams.
Starburst Enterprise und Red Hat unterstützen verbesserte und zeitgerechtere Erkenntnisse durch schnelle Datenanalysen auf mehreren verschiedenen und verteilten Datenplattformen.
Erweiterung Ihrer KI-Funktionen mit IBM watsonx.ai
Red Hat OpenShift AI bildet die Open Source-Basis für IBM watson.ai, das zusätzliche generative KI-Funktionen bietet.
Zusammenarbeit per Jupyter Notebooks-as-a-Service
Stellen Sie Ihren Data Scientists vorgefertigte oder benutzerdefinierte Cluster Images zur Verfügung, damit diese Modelle mithilfe von Jupyter-Notebooks erstellen können. Red Hat OpenShift AI verfolgt Änderungen an Jupyter, TensorFlow, PyTorch und anderen Open Source-KI-Technologien.
Modellbereitstellung mit Red Hat OpenShift AI skalieren
Modelle können für die Integration in intelligente Anwendungen On-Premise, in der Public Cloud oder am Edge bereitgestellt werden. Diese Modelle können basierend auf Änderungen am Quell-Notebook neu erstellt, bereitgestellt und überwacht werden.
Lösungs-Pattern
KI-Anwendungen mit Red Hat und NVIDIA AI Enterprise
Entwickeln einer RAG-Anwendung
Red Hat OpenShift AI ist eine Plattform für das Entwickeln von Data Science-Projekten und Bereitstellen von KI-gestützten Anwendungen. Sie können sämtliche für die Unterstützung von Retrieval-Augmented Generation (RAG), einer Methode zum Abrufen von KI-Antworten aus Ihren eigenen Referenzdokumenten, erforderlichen Tools integrieren. Wenn Sie OpenShift AI mit NVIDIA AI Enterprise kombinieren, können Sie mit Large Language Models (LLMs) experimentieren und so das optimale Modell für Ihre Anwendung finden.
Erstellen einer Pipeline für Dokumente
Damit Sie RAG nutzen können, müssen Sie Ihre Dokumente zunächst in eine Vektordatenbank aufnehmen. In unserer Beispielanwendung integrieren wir eine Anzahl von Produktdokumenten in eine Redis-Datenbank. Da sich diese Dokumente häufig ändern, können wir für diesen Prozess eine Pipeline erstellen, die wir regelmäßig ausführen, damit wir immer die aktuellsten Versionen der Dokumente zur Verfügung haben
Durchsuchen des LLM-Katalogs
Mit NVIDIA AI Enterprise können Sie auf einen Katalog verschiedener LLMs zugreifen. So können Sie verschiedene Möglichkeiten ausprobieren und das Modell auswählen, das die optimalen Ergebnisse erzielt. Die Modelle werden im NVIDIA API-Katalog gehostet. Sobald Sie ein API-Token eingerichtet haben, können Sie ein Modell mit der NVIDIA NIM Model Serving-Plattform direkt über OpenShift AI bereitstellen.
Auswählen des richtigen Modells
Beim Testen verschiedener LLMs können Ihre Nutzerinnen und Nutzer die einzelnen generierten Antworten bewerten. Sie können ein Grafana Monitoring Dashboard einrichten, um die Bewertungen sowie die Latenz- und Antwortzeiten der einzelnen Modelle zu vergleichen. Anhand dieser Daten können Sie dann das optimale LLM für den Produktionseinsatz auswählen.
Zugehörige Ressourcen erkunden
Video
Red Hat OpenShift AI – Demo
E-Book
Wichtige Überlegungen zum Aufbau einer Basis für generative KI
Analystenreport
Omdia-Bericht: Aufbau einer starken operativen Basis für KI
Checkliste
5 Methoden zum erfolgreichen Einsatz von MLOps in Ihrem Unternehmen
Red Hat OpenShift AI testen
Entwicklungs-Sandbox
Für Entwicklungsteams und Data Scientists, die KI-fähige Anwendungen in einer vorkonfigurierten und flexiblen Umgebung entwickeln und damit experimentieren wollen.
60-tägige Testversion
Ihr Unternehmen will die Möglichkeiten von OpenShift AI umfassend testen? Nutzen Sie unsere 60-tägige Testversion. Sie benötigen dazu einen Red Hat OpenShift Cluster.