Blog-Artikel

Experten-Interview zwischen Mirko Minnich und Wolfram Greis zur Zukunft des Rechenzentrums

In diesem Interview spricht Mirko Minnich mit Wolfram Greis, renommierter Mainframe-Experte und Co-Founder der European Mainframe Academy, über die Zukunft des Rechenzentrums im Zeitalter von Cloud, KI und hybriden IT-Infrastrukturen.

Mehr erfahren

Befragt wurde

wolfram-greis-portrait.jpg

Wolfram Greis

Mainframe-Experte und Co-Founder der European Mainframe Academy

Wolfram Greis ist Geschäftsführer der European Mainframe Academy GmbH (EMA), die seit 2008 hochwertige Mainframe-Ausbildungen und -Seminare anbietet. Mit über 40 Jahren Erfahrung im Bereich IBM-Mainframes hat er maßgeblich zur Ausbildung neuer Fachkräfte beigetragen und ist Autor des Fachbuchs "Die IBM-Mainframe Architektur". Zudem ist er Vorstandssprecher des Academic Mainframe Consortiums, das akademische Einrichtungen in Forschung und Lehre zu Mainframes unterstützt.

Befragt hat

mirko_minnich_portrait.jpg

Mirko Minnich

Executive Board Member

Mirko Minnich verantwortet als CTO seit rund 4 Jahren die Produkt- und Innovationsstrategie der Beta Systems Gruppe. Während der Karriere mit Führungspositionen im In- und Ausland bringt er zahlreiche strategische Produktentwicklungen zum Erfolg. Seine besondere Expertise besteht in der schnellen kundenorientierten Innovation, der Entwicklung strategischer technologischer Partnerschaften und Führung im Transformationsprozess. Mit diesem Profil treibt er kontinuierlich den Wandel und die Wettbewerbsfähigkeit der Gruppe voran.

Es gibt aktuell keine andere Plattform, die sich aus technischer Sicht moderner als der Mainframe darstellt. Was in zahlreichen Mainframe-Unternehmen angepackt werden muss, ist die Modernisierung der Anwendungslandschaft.

Wolfram Greis
Co-Founder der European Mainframe Academy

Zur Person: Mainframe-Vordenker, Autor und Berater

Wolfram Greis ist Co-Founder der European Mainframe Academy (EMA), die sich mit innovativen Trainingskonzepten und einem hohen Qualitätsanspruch als Marktführer für Schulungen rund um den Mainframe in der Region DACH etabliert hat. Die EMA GmbH in Deutschland ist seit 2024 Teil der Beta Systems Gruppe und rundet das Produkt- und Dienstleistungsangebot für Rechenzentren ab.

Wolfram Greis ist zudem Top Voice der Mainframe Community im Raum DACH und darüber hinaus. Er ist Co-Founder und Präsident des Academic Mainframe Consortium, Buchautor und Berater für Unternehmen in Modernisierungsprojekten. Im Jahr 2024 wurde er außerdem in das von IBM weltweit organisierte Mainframe Skill Council berufen, um bei der Bewältigung der sogenannten Skill Gap aktiv mitzuwirken.

Im Gespräch mit Mainframe-Experte Wolfram Greis

Im Zuge des Cloud-Hypes vor rund 10 Jahren wurde das Ende der Mainframe Ära ausgerufen. Diese Prognose erwies sich als voreilig, bei zahlreichen Unternehmen ist der Mainframe wieder Teil der Roadmap für das Rechenzentrum. Was spricht aus Ihrer Sicht für die Zukunftsfähigkeit des Mainframes?

Das Ende der Mainframes wurde bereits viel früher prophezeit. Eines der bekanntesten Zitate stammt von Stewart Alsop, dem damaligen Herausgeber des Infoworld Magazins, der im Jahr 1991 vorhersagte, dass der letzte Mainframe fünf Jahre später und somit am 15. März 1996 abgeschaltet wird.

Eine Ironie des Schicksals ist, dass einer der größten Mainframe-Anwender heutzutage, die Industrial and Commercial Bank of China, damals noch gar keinen Mainframe im Einsatz hatte. Obwohl die chinesische Regierung den Banken empfiehlt, keine westlichen Rechner einzusetzen, werden die Kernbankensysteme der großen chinesichen Banken auf IBM Mainframes betrieben, weil es dazu schlichtweg keine Alternative gibt.

Aktuell hört man immer wieder das Schlagwort „Mainframe Modernization“. Das führt häufig zur falschen Schlussfolgerung, dass es sich beim Mainframe um eine veraltete Technik handelt. Das stimmt definitiv nicht. Der Mainframe hat sich von einer monolithischen Plattform zu einem wichtigen Bestandteil moderner, hybrider IT-Infrastrukturen entwickelt. Es gibt aktuell keine andere Plattform, die sich aus technischer Sicht moderner als der Mainframe darstellt. Was in zahlreichen Mainframe-Unternehmen angepackt werden muss, ist die Modernisierung der Anwendungslandschaft.

Welche Bedeutung hat der Mainframe heute noch?

Der Mainframe hat genau dann Vorteile, wenn es um transaktionale Massenverarbeitung geht. Das heißt, dass viele Transaktionen in kurzer Zeit geordnet und sicher verarbeitet werden müssen. Ein entscheidender Aspekt dabei ist, dass es sich dabei um Transaktionen handelt, die nach dem ACID-Prinzip verarbeitet werden. Ohne auf die Details von Atomicity, Consistency, Isolation und Durability einzugehen, handelt es sich dabei um Transkationen, die nur ganz oder gar nicht durchgeführt werden dürfen. Das ist etwas anderes als bei einer Google-Abfrage, wo es keine Rolle spielt, dass die gleiche Abfrage zu einem unterschiedlichen Zeitpunkt ein anderes Ergebnis zeigt. Bei einer Banktransaktion wäre das fatal und würde schnell die BAFIN auf den Plan rufen.

In sogenannte Legacy Software wurde in der Regel jahrzehntelang investiert. Vielfach wird diese Software häufig nicht mehr als kompatibel zu den Paradigmen der modernen Softwarearchitektur und des operativen Betriebs eingestuft. Welchen Umgang empfehlen Sie Unternehmen mit eben diesem technischen Erbe?

Das ist tatsächlich ein Problem. Die sprichwörtliche Kompatibilität, die IBM mit der Architektur-Einführung im Jahr 1964 versprochen hat, besitzt auch eine Kehrseite. Programme, die in den 70er- und 80er-Jahren entwickelt wurden, sind häufig nie mehr angefasst worden, weil dazu keine Notwendigkeit bestand.

Allerdings ist die Entwicklung nicht stehengeblieben. So läuft beispielsweise ein COBOL-Programm, welches – ohne eine Veränderung am Sourcecode – mit einem aktuellen Compiler neu übersetzt wird, im Durchschnitt über 40 % schneller als zuvor und benötigt deutlich weniger CPU-Kapazitäten. Eine gute Idee ist es, zum einen COBOL-Programme anzupassen, um in einer modernen Umgebung mit Micro-Services mitspielen zu können, und zum anderen COBOL-Programme in Java-Programme zu konvertieren.

Es gibt keine Plattform, die für unternehmenskritische Java-Programme besser geeignet ist als der Mainframe. Eine Migration in eine moderne Anwendungsarchitektur und dem Verbleib auf dem Mainframe beinhaltet ein ungleich geringeres Risiko als ein Plattform-Wechsel.

Auf dem Höhepunkt des Cloud-Hypes sahen einige Vertreter der Hyperscaler den größten Teil der IT-Produktion in die Cloud wandern. Auf Grundlage der aktuellen Trends wird ein solches Szenario nicht eintreten – stattdessen lässt sich bei den meisten Unternehmen das Phänomen der Cloud-Repatriation beobachten. Nicht zuletzt die hohen Kosten führen dazu. Wo sehen Sie für das künftige Rechenzentrum eines Unternehmens ein ausgewogenes Verhältnis zwischen On-Prem-Rechenkapazitäten versus Rechenkapazitäten in der Cloud?

Gegen den Einsatz von Cloud-Architekturen ist grundsätzlich nichts einzuwenden. Allerdings macht es aus Security- und Compliance-Gründen wenig Sinn, ein Core-Banking-System in eine öffentliche Cloud zu schieben. Sinnvoll ist eine hybride Cloud-Konfiguration. Hierbei werden die Vorteile einer Cloud mit den stabilen, sicheren und leistungsstarken Mainframe-Ressourcen kombiniert. Die bereits angesprochene transaktionale Massenverarbeitung wird auf dem Mainframe auf geordnete und sichere Art und Weise durchgeführt. Eine Cloud-Lösung ohne Einbezug der Mainframe-Technologie ist dafür ungeeignet. Der kritische Teil der IT-Produktion verbleibt damit auf dem Mainframe. Andere Services werden mithilfe der Public Cloud mit Einbezug der Hyperscaler erledigt.

Welche Trends und Veränderungen beobachten Sie aktuell bei der strategischen Ausrichtung von Rechenzentren?

Da spielt vor allem das Zusammenspiel von Linux auf dem Mainframe und dem z/OS als Betriebssystem für die Transaktionsverarbeitung eine entscheidende Rolle. Diese für große Unternehmen wichtigsten Betriebssysteme können auf dem gleichen Blech betrieben werden und bieten in Sachen Security und Verfügbarkeit Qualitäten, die in dieser Ausprägung von keiner anderen Plattform erreicht werden.

Die Integration in DevOps Tool-Chains ist erforderlich, um eine agile Entwicklung inklusive automatischer Überleitung in Produktionsumgebungen zu ermöglichen. In diesem Zusammenhang ist auch noch zu erwähnen, dass Mainframes beim Energieverbrauch und Platzbedarf in den Rechenzentren ganz vorne mitspielen. Bei den Kennzahlen, wenn es um Effizienz im Vergleich zur eingesetzten Rechenleistung geht, sind Mainframes unschlagbar.

Wo sehen Sie die Rolle des Mainframes in der Ära von KI?

Die Modernisierung, Integration und Nutzung neuer Technologien wie KI und Cloud-Integration sind die zentralen Treiber für die Zukunft des Mainframes. Es gibt dabei mehrere Aspekte – zum einen die Unterstützung durch KI in der Produktion, indem kritische Transaktionen beispielsweise bei Zahlungen mit Kreditkarten in Echtzeit gegen Missbrauch geschützt werden können. Es ermöglicht den Unternehmen, wertvolle Erkenntnisse aus ihren Daten zu gewinnen und datengesteuerte Entscheidungen zu treffen. Hierfür wurde mit der z16-Architektur der Telum-Prozessor eingeführt, in den KI-Unterstützung eingebaut wurde. Für die nächste Generation wurde bereits der Telum-2-Chip vorgestellt.

Zum anderen bei der bereits angesprochenen Migration von klassischen Programmen, die mit COBOL, PL/I und ähnlichen Sprachen geschrieben wurden, hin zu Java. Dabei ist allerdings eine von vielen Herstellern angebotene automatische Umstellung noch nicht zu empfehlen, da der erzeugte Java-Code meist nicht sehr wartungsfreundlich ist. Sich jedoch bei einer Migration durch KI unterstützen zu lassen, ist eine sehr gute Idee.

Welchen Rat würden Sie Unternehmen geben, die eine Strategie „weg vom Mainframe“ verfolgen?

Ich würde zunächst einmal argumentieren, dass „weg vom Mainframe“ keine Strategie ist. Die Strategie sollte sein, die eigene Anwendungslandschaft zu modernisieren, was in den meisten Unternehmen über Jahrzehnte hinweg vernachlässigt wurde.

Die häufigste Motivation, die hinter der „weg vom Mainframe“-Idee steht, ist zumeist, aus der Abhängigkeit vom Hersteller zu kommen. Da wäre es vernünftig, zunächst einmal die Anwendungslandschaft herstellerunabhängig zu gestalten. Das könnte beispielsweise mit der erwähnten Migration von COBOL bzw. PL/I zu Java gelingen, ohne dass man gleich die Plattform wechseln muss.

Endes des Interviews

LinkedIn Profil von Wolfram Greis: https://www.linkedin.com/in/wolframgreis/

Beta Systems ist strategischer Partner für Unternehmen mit Rechenzentrum und stellt Lösungen für hybride Cloud Lösungen ebenso bereit wie Angebote zur Optimierung des Mainframe Einsatzes. Der Mainframe bildet in einer Vielzahl von Rechenzentren weiterhin eine wichtige strategische Komponente für die zeit- und sicherheitskritische IT Produktion. Die langfristige Sicherstellung und Weiterentwicklung des Know-hows zum Betrieb von Mainframes zählen darum zu den wichtigen Punkten auf jeder CIO-Agenda. In 2024 hat Beta Systems darum mit der Akquisition der European Mainframe Academy (EMA) seine Rolle als strategischer Partner beim Betrieb von Rechenzentren gestärkt.

Sie möchten mehr über zukunftsfähige Mainframe-Strategien oder Schulungskonzepte erfahren? Besuchen Sie die Website der European Mainframe Academy oder nehmen Sie Kontakt zu unseren Experten bei der Beta Systems Gruppe auf.

Beta Systems zählt zudem zu den führenden Anbietern von Automatisierungslösungen in komplexen und heterogenen IT Landschaften im Rechenzentrum. Unsere ANOW! Suite im Segment für Service Orchestration and Automation Platforms (SOAP) bzw. Workload Automation (WLA) ist das Betriebssystem für moderne Rechenzentren und bildet einen Meta-Orchestrator über Mainframe- und Hybrid-Cloud-Technologien. Unsere Workload-Automation-Lösungen bieten höchste Skalierbarkeit, Flexibilität und Kontrolle über automatisierte Prozesse.

Mehr erfahren

Tags

Mainframe

Teilen

Weitere Ressourcen

Blog-Artikel
waves-a-00027.svg

Was ist ein Mainframe?

Ein Großrechner (Mainframe) ist ein leistungsstarkes Computersystem, das von großen Unternehmen für essenzielle Aufgaben wie Massendatenverarbeitung und Warenwirtschaft eingesetzt wird. Mainframe-Computer sind zwar kleiner als Supercomputer, bieten aber im Vergleich zu anderen Computerklassen eine höhere Rechenleistung. Die vorwiegend in den 1960er Jahren entwickelten Mainframe-Architekturen werden stetig weiterentwickelt und häufig als Server eingesetzt.
Whitepaper
whitepaper-die-zukunft-des-mainframes.png

Die Zukunft des Mainframes – Innovationsmotor oder Relikt?

Erfahren Sie in unserem exklusiven Whitepaper, warum der Mainframe trotz moderner Cloud-Technologien und skalierbarer Architekturen weiterhin unverzichtbar bleibt. Dieses Whitepaper analysiert die unvergleichlichen Stärken des Mainframes, wie höchste Geschwindigkeit, Zuverlässigkeit und massive I/O-Bandbreite. Es beleuchtet aktuelle Trends, darunter hybride Cloud-Integrationen, KI-gestützte Automatisierungen und Nachhaltigkeitsvorteile.
Blog-Artikel
Mann am Computer mit SAP-Logo auf dem Bildschirm

Welche Auswirkungen hat das Ende von SAP IdM auf eine unternehmensweite IAM-Strategie?

Die digitale Identitäts- und Zugriffsverwaltung ist für Unternehmen essenziell, um Benutzerzugriffsrechte effizient zu verwalten und Sicherheitsrisiken zu minimieren. Viele SAP-Kunden setzen dabei auf SAP Identity Management (IdM) – doch diese Lösung wird spätestens ab 2030 nicht mehr unterstützt. In diesem Artikel erklären wir, welche Herausforderungen das End-of-Life von SAP IdM mit sich bringt und warum ein frühzeitiger Wechsel zu einer neuen IAM-Lösung entscheidend ist.