Red Hat OpenShift 4.21, basierend auf Kubernetes 1.34 und CRI-O 1.34, ist jetzt allgemein verfügbar. Zusammen mit Red Hat OpenShift Platform Plus zeigt diese Version unser kontinuierliches Engagement, eine vertrauenswürdige, umfassende und konsistente Anwendungsplattform bereitzustellen, auf die Unternehmen sich für Produktions-Workloads in der Hybrid Cloud verlassen können – ohne Kompromisse bei der Sicherheit einzugehen.
Der Schwerpunkt dieser Version liegt auf der Ausführung von KI-Trainingsjobs, containerisierten Microservices und virtualisierten Anwendungen auf derselben Infrastruktur mit demselben Betriebsmodell. Mit OpenShift 4.21 können Sie gleichzeitig die bestehende IT-Infrastruktur modernisieren und KI-Innovationen auf einer einzigen, kosteneffizienten Plattform beschleunigen, die automatisch entsprechend den geschäftlichen Anforderungen in Echtzeit skaliert wird.
Stellen Sie sich ein großes Finanzinstitut vor, das veraltete virtuelle Maschinen (VMs) für das Core-Banking beibehalten und gleichzeitig neue KI-Modelle zur Betrugserkennung trainieren muss. Früher existierten diese beiden Welten in unterschiedlichen Systemen, wodurch es zu „Silos“ und unnötigen Kosten kam.
Aber mit OpenShift 4.21 kann dieses Unternehmen beide Systeme auf derselben Infrastruktur ausführen. Mit dem neuen DRA-Operator (Dynamic Resource Allocation) können sie sogar leistungsstarke GPUs für das KI-Training während des Tages priorisieren, diese Ressourcen aber automatisch umschalten oder sie in der Nacht auf Null skalieren, um Kosten zu sparen. Darüber hinaus können sie aktive VMs ohne Ausfallzeiten zwischen Rechenzentren verschieben und so sicherstellen, dass Bankdienstleistungen auch während Hardware-Wartungsarbeiten online bleiben.
Unabhängig davon, ob Sie OpenShift als selbst gemanagte Plattform bereitstellen oder als vollständig gemanagten Cloud Service nutzen, erhalten Sie ein vollständiges Set integrierter Tools und Services für cloudnative, KI-, virtuelle und herkömmliche Workloads. Dieser Blog behandelt die wichtigsten Innovationen in OpenShift 4.21 in den Bereichen KI, zentrale Plattformfunktionen und Virtualisierung. Vollständige Details finden Sie in den OpenShift 4.21 Release Notes.
KI
Künstliche Intelligenz hat sich zu einem Eckpfeiler der modernen Industrie entwickelt und sorgt für Durchbrüche in verschiedenen Bereichen, von der personalisierten Gesundheitsversorgung bis hin zu autonomen Systemen. Mit zunehmender Komplexität der KI-Modelle muss sich jedoch die zugrunde liegende Infrastruktur weiterentwickeln, um die enormen Rechenanforderungen effizient bewältigen zu können. In dieser Version von OpenShift fügen wir der Plattform weiterhin KI-Funktionen hinzu, um KI-Workloads in der Produktion in großem Umfang zu unterstützen.
KI-Workloads mit dem Red Hat build of Kueue v1.2 optimieren
Mit OpenShift 4.21 bietet Red Hat build of Kueue v1.2 2 Funktionen, die für KI-Teams in großem Umfang wichtig sind:
- Unterstützung für KubeFlow Trainer v2 in Red Hat OpenShift AI 3.2: Anstatt separate Ressourcen für die einzelnen ML-Frameworks (Machine Learning) zu verwalten, arbeiten Data Scientists jetzt mit einer einzigen TrainJob-API. Sie konzentrieren sich auf den Modellcode, während Plattformteams die Infrastruktur durch Trainingslaufzeiten definieren.
- Visibility API für ausstehende Workloads: Zuvor befanden sich Batch-Jobs in Warteschlangen, ohne dass Einblick in Position oder Wartezeit bestand. Die Nutzenden konnten nicht sagen, ob sie an erster oder hundertster Stelle standen. Administrationsteams hatten keine Möglichkeit, Ressourcenengpässe zu erkennen. Jetzt sehen beide Seiten, was passiert. Nutzende erhalten geschätzte Startzeiten. Administrationsteams stellen fest, wo bestimmte Ressourcen, wie z. B. GPU-Typen, überbesetzt sind. Die Warteschlange ist keine Black Box mehr.
Verteilte Workloads mit JobSet verwalten
Der JobSet-Operator erreicht mit dieser Version die allgemeine Verfügbarkeit. Teams können verteilte Workloads mit ihren vorhandenen GitOps-Workflows, RBAC-Richtlinien (Role-based Access Control) und Überwachungstools orchestrieren. JobSet bietet eine flexible Planung und Fehlertoleranz für komplexe, voneinander abhängige Jobs, mit denen Unternehmen anspruchsvolle ML- und verteilte Computing-Workloads in großem Umfang mit operativer Konsistenz ausführen können.
Workloads präzise und flexibel der GPU-Hardware zuordnen
Mit der Skalierung von KI-Workloads im Unternehmen wird der traditionelle Ansatz der GPU-Zuweisung, bei dem Geräte gezählt und darauf gehofft wird, dass sie Ihren Anforderungen entsprechen, schnell nicht mehr funktionieren. OpenShift 4.21 führt drei Funktionen in DRA ein, die die Anforderung und Nutzung von GPU-Ressourcen durch Unternehmen grundlegend ändern.
Attributbasierte GPU-Zuweisung mit DRA-Treiber
Anstatt eine GPU anzufordern, geben Sie jetzt an, was Sie tatsächlich benötigen (beispielsweise „eine GPU mit mindestens 40 GB VRAM“). Der Scheduler fragt Hardwareattribute direkt mit CEL (Common Expression Language) ab, wodurch eine manuelle Knotenkennzeichnung eliminiert wird, sodass keine gpu-type=h100-Labels in Ihrem Cluster beibehalten werden müssen. Das System liest die Hardwarefunktionen und gleicht sie automatisch den Workload-Anforderungen an. Um dieses Feature nutzen zu können, müssen Sie den vom Anbieter bereitgestellten Operator oder Treiber mit aktivierter DRA-Funktion verwenden.
Namespace-gesteuerter Admin-Zugriff in DRA
Standardmäßige DRAs binden GPUs an die zugewiesenen Pods, sodass selbst Monitoring-Tools und Debugger nicht darauf zugreifen können. Der Admin-Zugriff erstellt privilegierte Ausnahmen für Infrastruktur-Workloads, ohne die Benutzerzuordnungen zu unterbrechen. Dies ist besonders nützlich für das clusterweite Monitoring und Live-Debugging.
Priorisierte Alternativen bei Geräteanforderungen
Definieren Sie Fallback-Strategien direkt in Ihren Ressourcenanforderungen. Anstelle von „H100 or fail“ geben Sie eine geordnete Liste an: Zuerst H100, dann A100, dann V100. Der Scheduler versucht der Reihe nach jede Option, bis er verfügbare Kapazität findet.
Kern
Die Kerninfrastruktur von OpenShift bleibt der Industriestandard für Hybrid Cloud-Resilienz, da sie kontinuierlich weiterentwickelt wird, um modernen Performance- und Kostenanforderungen gerecht zu werden. In dieser aktuellen Version haben wir die Ressourceneffizienz durch Innovationen wie die automatische Skalierung für gehostete Control Planes zur dynamischen Anpassung des Speichers oder die Skalierung auf Null optimiert, um ungenutzte Infrastrukturkosten zu vermeiden.
Darüber hinaus erweitert OpenShift sein IT-Ökosystem kontinuierlich durch validierte Integrationen mit Plattformen wie VMware Cloud Foundation 9 und Oracle Database Appliance, um sicherzustellen, dass Kunden OpenShift in der gesamten Hybrid Cloud bereitstellen können.
Größe von gehosteten Control Planes anpassen
In OpenShift 4.21 verfügen gehostete Control Planes für Red Hat OpenShift jetzt über die native Integration von VertikalPodAutoscaler (VPA). Die Komponenten Ihrer Control Plane werden automatisch auf Basis der Echtzeit-Speicherauslastung skaliert und nicht auf statischen Schätzungen oder Knotenanzahl. Das System überwacht die tatsächliche Nutzung und passt die Ressourcen dynamisch, ohne manuelle Eingriffe, an und wechselt von der Kapazitätsplanung zur bedarfsgesteuerten Reaktion. Anstatt vorherzusagen, was Sie in den nächsten sechs Monaten benötigen werden, beobachtet die Plattform, was jetzt passiert, und reagiert entsprechend. Die Größe Ihrer Control Planes ist präzise an die aktuelle Workload angepasst. Das bedeutet, dass keine Performance durch Unterprovisionierung beeinträchtigt und keine Ausgaben durch Überversorgung verschwendet werden.
Automatische Skalierung von/auf Null auf gehosteten Control Planes
Gehostete Control Planes werden jetzt bei Inaktivität auf Null skaliert. Control Planes befinden sich im Ruhezustand, wobei Konfiguration und Zustand beibehalten werden, und werden bei Bedarf automatisch fortgesetzt. So entfallen Kosten für eine ungenutzte Infrastruktur. NodePools folgen dem gleichen Muster und werden in Entwicklungs-, Test- und temporären Umgebungen auf null Knoten herunterskaliert. Aus diesem Grund sind gehostete Control Planes die kostengünstigste Art, OpenShift auszuführen. Diese Funktion stellt sicher, dass die gehostete Control Plane im Bereitschaftszustand aktiv bleibt und ein perfektes Gleichgewicht zwischen schneller Verfügbarkeit und aggressiver Kostenoptimierung bietet.
OpenShift auf VMware Cloud Foundation 9 ausführen
OpenShift bietet Unterstützung für VMware vSphere Foundation 9 (VVF9) und VMware Cloud Foundation 9 (VCF9) ab OpenShift 4.18. Dies bietet Kompatibilität mit VMware NSX für Infrastrukturnetzwerke und OVN-Kubernetes für das Overlay-Netzwerk. Red Hat Advanced Cluster Management for Kubernetes 2.15.1+ erweitert die Fleet Management-Funktionen auf diese Plattformen, während Red Hat OpenShift Data Foundation 4.19.7 und 4.20 als Technologievorschau mit allgemeiner Verfügbarkeit, die für Anfang 2026 geplant ist, verfügbar sind. Die Migrationsanleitung von vSphere 8 und VCF 5 zu VCF9 folgt 2026, damit Kunden ihre VMware-Infrastruktur mit vollständigem OpenShift-Support modernisieren können.
Weitere Informationen finden Sie unter General Support für Red Hat OpenShift auf VMware vSphere Foundation 9 und VMware Cloud Foundation 9.
Stellen Sie OpenShift auf Ihrer Oracle Database Appliance bereit
Die Oracle Database Appliance ist ein vorkonfiguriertes, integriertes Paket aus Hardware, Storage, Netzwerken und Software, das speziell für die Ausführung von Oracle-Datenbanken entwickelt wurde. Sie wird oft als „Datenbank in einer Box“ bezeichnet, weil sie die Komplexität beseitigt, die mit der Erstellung eines benutzerdefinierten Server-Stacks von Grund auf verbunden ist. Sie können jetzt OpenShift auf Oracle Database Appliance bereitstellen und von operativer Einfachheit, Sicherheit und Compliance profitieren.
Zero-Trust-Workloads mit Confidential Containers in Microsoft Azure und Microsoft Azure Red Hat OpenShift bereitstellen
Mit OpenShift 4.21 erhalten Sie Unterstützung für Confidential Containers auf vom Kunden verwalteten Clustern in Microsoft Azure oder als gemanagten Service mit Microsoft Azure Red Hat OpenShift. Confidential Containers bieten eine hardwarebasierte Sicherheitsebene, die Daten während der Verarbeitung im Arbeitsspeicher schützt. So können Sie sicherstellen, dass Ihr Code und Ihre Daten vom Cloud-Anbieter, Host-Betriebssystem und sogar den Hypervisoren isoliert sind, was die Lösung zu einer wichtigen Wahl für stark regulierte Branchen wie das Finanzwesen und das Gesundheitswesen macht.
Mit Confidential Containers in Microsoft Azure entfernen Sie den Cloud Operator effektiv von Ihrer Trusted Computing Base (TCB). Das heißt, selbst wenn ein Angreifer Root-Zugriff auf den physischen Host oder die Control Plane von Microsoft Azure erhält, kann er die Klartextdaten im Speicher Ihres Containers nicht lesen.
Virtualisierung
Mit Red Hat OpenShift Virtualization werden VMs und Container auf derselben Plattform ausgeführt, sodass ein Team mit einem Satz von Tools in einer einzigen Infrastruktur arbeiten kann. Das ist wichtig, weil die meisten Unternehmen für kritische Workloads immer noch auf VMs setzen und es weder realistisch noch notwendig ist, alles über Nacht in Container zu verschieben. Mit OpenShift Virtualization können Sie in Ihrem eigenen Tempo modernisieren, indem Sie mit OpenShift sowohl containerisierte als auch virtualisierte Workloads über dieselbe Netzwerk-, Storage- und Sicherheitsschicht verwalten.
Virtuelle Maschinen clusterübergreifend ohne Ausfallzeiten migrieren
Dank der clusterübergreifenden Live-Migration von OpenShift Virtualization können Administrationsteams aktive VMs ohne Ausfallzeiten zwischen verschiedenen OpenShift Clustern verschieben. Administrationsteams können jetzt Cluster-Wartungsarbeiten durchführen, Ressourcen regionsübergreifend neu ausgleichen oder Workloads auf neuere Hardware migrieren, ohne dass es zu einer Serviceunterbrechung kommt. Gleichzeitig werden Multi Cluster-Umgebungen im Rahmen strikter SLAs verwaltet.
Unterstützung von reiner IPv6-Control Plane und sekundärem Netzwerk
Die Unterstützung reiner IPv6-Control Planes und sekundärer Netzwerke ist jetzt allgemein verfügbar. Dies ist ein großer Schritt nach vorn für Unternehmen, denen die IPv4-Adressen ausgehen. Sie können OpenShift Cluster und virtualisierte Workloads in modernen, IPv6-nativen Umgebungen bereitstellen und die Netzwerkarchitekturen vereinfachen, da komplexe NAT-Workarounds (Network Address Translation) überflüssig werden.
Durch die Unterstützung von IPv6 sowohl in der zentralen Managementebene des Clusters als auch in den sekundären Schnittstellen stellt OpenShift Virtualization sicher, dass Deployments mit hoher Dichte auf unbestimmte Zeit skaliert werden können und gleichzeitig strenge Compliance-Anforderungen von Behörden und Telekommunikationsunternehmen erfüllen. Diese Umstellung optimiert nicht nur das Netzwerk-Routing und die End-to-End-Sicherheit, sondern macht die Infrastruktur auch zukunftssicher für die nächste Generation global verbundener Services.
OpenShift Virtualization auf Google Cloud
Mit OpenShift Virtualization auf Google Cloud Bare Metal können Unternehmen VMs direkt auf dedizierter Hardware ausführen und so den Aufwand der traditionellen verschachtelten Virtualisierung umgehen. Dieses Deployment-Modell ist entscheidend für leistungsempfindliche Workloads, die direkten Zugriff auf physische CPU-Funktionen und Hardwarebeschleunigung benötigen, z. B. Datenbanken mit niedriger Latenz oder spezialisierte Telekommunikationsanwendungen. Durch die Ausführung auf Bare Metal erhalten Sie die Flexibilität der Cloud und können gleichzeitig die volle Performance und vorhersehbare Latenz eines On-Premise-Servers beibehalten. Diese Integration optimiert die Migration von Legacy-VM-basierten Anwendungen zu Google Cloud und ermöglicht eine einheitliche Managementerfahrung für Container und virtuelle Maschinen innerhalb einer einzigen OpenShift Control Plane.
Weitere Informationen finden Sie im Blog Red Hat OpenShift Virtualization auf Google Cloud.
Virtuelle Netzwerke mit erweiterter Virtualisierungs-Benutzeroberfläche konfigurieren
Die verbesserte Benutzeroberfläche von OpenShift Virtualization führt Administrationsteams zu den richtigen Netzwerkkonfigurationen und behält gleichzeitig die erweiterte Kontrolle bei. Administrationsteams können jetzt sekundäre ClusterUserDefinedNetworks mit der Localnet-Topologie mit integrierten Richtlinien erstellen, die ein versehentliches Löschen von UDN-abgeleiteten NetworkAttachmentDefinitions verhindern. Der verbesserte Host-Netzwerkfluss zeigt zuerst die allgemeinen Konfigurationspfade an, wodurch das Setup von der beabsichtigten zur funktionierenden Konfiguration beschleunigt wird. Die physische Netzwerkabstraktion gliedert NodeNetworkConfigurationPolicies in logische Einheiten, sodass Teams die Hostkonnektivität kohärent verwalten und gleichzeitig bei Bedarf tiefgreifende Anpassungen vornehmen können.
Fehlerbehebung bei VMs mit Red Hat OpenShift Lightspeed
Wir haben den virtuellen KI-Assistenten Red Hat OpenShift Lightspeed in die Benutzeroberfläche von OpenShift Virtualization integriert, sodass Virtualisierungsadministratoren die Oberfläche nicht mehr wechseln oder Dateien manuell hochladen müssen. Stattdessen können Virtualisierungsadministratoren jetzt kontextbezogene, KI-gestützte Insights für Aufgaben wie die Behebung von Fehlern bei virtuellen Maschinen erhalten.
Testen Sie Red Hat OpenShift 4.21 noch heute
Starten Sie noch heute mit Red Hat Hybrid Cloud Console, und profitieren Sie von den neuesten Funktionen und Verbesserungen in OpenShift. Sehen Sie sich die folgenden Ressourcen an, um zu erfahren, was als Nächstes kommt:
- Neue Entwicklungen und Zukunftstrends bei Red Hat OpenShift
- Interaktive IT-Erlebnisse von Red Hat
- YouTube-Kanal: In the Clouds
- OpenShift YouTube-Kanal
- OpenShift Blogs
- OpenShift Commons
- Red Hat Developer Blogs
- Red Hat Portfolio Architecture Center
- Validated Patterns
Die vollständige Liste der Red Hat OpenShift 4.21 Updates finden Sie in den OpenShift 4.21 Release Notes. Senden Sie uns Feedback über Ihre Kontakte bei Red Hat oder erstellen Sie ein Issue auf GitHub.
Produkttest
Red Hat OpenShift Container Platform | Testversion
Über die Autoren
Ju Lim works on the core Red Hat OpenShift Container Platform for hybrid and multi-cloud environments to enable customers to run Red Hat OpenShift anywhere. Ju leads the product management teams responsible for installation, updates, provider integration, and cloud infrastructure.
Nach Thema durchsuchen
Automatisierung
Das Neueste zum Thema IT-Automatisierung für Technologien, Teams und Umgebungen
Künstliche Intelligenz
Erfahren Sie das Neueste von den Plattformen, die es Kunden ermöglichen, KI-Workloads beliebig auszuführen
Open Hybrid Cloud
Erfahren Sie, wie wir eine flexiblere Zukunft mit Hybrid Clouds schaffen.
Sicherheit
Erfahren Sie, wie wir Risiken in verschiedenen Umgebungen und Technologien reduzieren
Edge Computing
Erfahren Sie das Neueste von den Plattformen, die die Operations am Edge vereinfachen
Infrastruktur
Erfahren Sie das Neueste von der weltweit führenden Linux-Plattform für Unternehmen
Anwendungen
Entdecken Sie unsere Lösungen für komplexe Herausforderungen bei Anwendungen
Virtualisierung
Erfahren Sie das Neueste über die Virtualisierung von Workloads in Cloud- oder On-Premise-Umgebungen