
Dynatrace-CTO vor dem spektakulären neuen Hauptquartier in Linz, das 2026 bezogen wird.
©Dynatrace // Hermann WakolbingerBernd Greifeneder spricht über zu hohe Erwartungen an KI-Projekte und masslosen Energieverbrauch. Der Dynatrace-CTO glaubt, dass es bessere Software-Architekten braucht, um die KI unter Kontrolle zu behalten, und berichtet, warum sich die Chefetage für Monitoringsoftware interessiert.
Bei Dynatrace ist die KI seit mehr als zehn Jahren mit an Bord. Da hatte die Öffentlichkeit noch wenig Vorstellung davon, was KI sein kann. Sind Sie heute schon wieder zehn Jahre voraus?
Wir erfinden uns ständig neu und sind heute so weit, dass wir von einem stark automatisierten Betrieb in der IT stärker hineingehen in einen autonomen. Mit „Self Healing“, also mit der Fähigkeit selbstheilende Prozesse in der Software anzustoßen und dazu auch automatisierte Tests zu liefern, haben wir in der Vergangenheit schon viele Projekte umgesetzt mit Kunden. Da hat es immer noch begleitend die Menschen gebraucht, die diese Prozesse einbauen und mit Dynatrace verknüpfen.
Den Arzt braucht es also noch, um die Therapie zu definieren. Bald aber schon nicht mehr?
So könnte man das betrachten. Die Therapie ist nun auch automatisiert. Es braucht aber noch den Arzt-Supervisor, um in der Analogie zu bleiben. Spannend ist heute, was die KI ergänzend macht und wie sie den Job verändert.
Das ist eine brennende Frage dieser Tage: Zwischen KI-Angst und KI-Euphorie mischt sich gerade viel Unsicherheit.
Die Wahrheit liegt in der Mitte. Leute, die wenig fachliche Kompetenz haben, werden sich schwerer tun, qualitativ hochwertige Softwareservices zu bauen. Die Kompetenz verlagert sich von einfacher Softwareentwicklung hin zu guten Softwarearchitekturen, Experten die wissen, wie man die KI richtig beauftragt und strukturiert. Denn wenn man das nicht macht, sitzt man schnell auf dem größten Unfug an Software. Die KI selbst weiß nicht, was sie tun soll. Die KI ist wie ein Ferialpraktikant, hat noch wenig Erfahrung und Kenntnis über die Abläufe im Betrieb.
Dennoch stellt sie heute schon Jobprofile bei IT-Fachkräften auf den Kopf und verschiebt Kompetenzen.
Es braucht klar mehr fachkompetente Leute, die der KI sagen, was hinten rauskommen soll. Das ist eine positive Entwicklung. Von KI überholt werden Menschen, die Software einfach runterklopfen. Vibe Coder füttern die KI so lange, bis irgendetwas herauskommt. Das ist aber kein hochqualitativer Code, das kann für komplexe Systeme nicht nachhaltig skalieren. Für eine einfache Website funktioniert Vibe Coding aber gut. Eine betriebsrelevante Software, wo auch etwas dranhängt, kann man der KI nicht so einfach überlassen. Da braucht man sehr wohl die kompetenten Leute. Das heisst, im Summe verschiebt sich das Niveau wieder um eine Schicht nach oben.
Eine betriebsrelevante Software, wo auch etwas dranhängt, kann man der KI nicht so einfach überlassen.
Unzuverlässige Sprachmodelle
Wie stark sind diese Veränderungen am Markt schon angekommen?
Stark und brutal. Was die „ChatGPT-Art“ der KI so erfolgreich macht, ist die Zugänglichkeit für die breite Masse. Jede Firma experimentiert damit. Aber 95 Prozent der Pilotprojekte, die mit dieser Art von KI gemacht werden, scheitern. Alle probieren es und kaum welche bringen den erhofften Mehrwert. Die KI mit den LLMs ist zwar capable (fähig) aber nicht reliable (zuverlässig). Sie hatte tolle Demoeffekte, aber im operativen Betrieb kommen viele drauf, dass sie halluziniert, dass sie Dinge tut, die nicht tun soll. Deswegen braucht es die Softwareengineers und Softwarearchitekten, die den Mehrwert herausarbeiten können.
Die Welt hat erkannt, dass die Frontier Models, also GPT5, Gemini und andere, keine Riesensprünge mehr machen werden, sondern nur noch im Detail verbessert werden. Die Welt hat erkannt, dass ein LLM nie alle Anforderungen lösen kann, sondern dass mehrere verknüpft werden müssen. Deswegen bewegt sich die Welt gerade in Richtung Agentic AI.
Die nächste große Hoffnung, in der Einführung aber ungleich komplexer, wie man so hört.
Eine gute KI hat irgendwann 95 Prozent Genauigkeit, Accuracy wie wir das nennen. Wenn man nur zehn Konversationen miteinander verknüpft, hat man 95 hoch 10 – dann liegt man 60 Prozent Accuracy. Ist das gut genug, um einen Business Case zu lösen? Nie! Was macht man? Man integriert noch mehr KI, und nimmt wieder KI, um sie gegenseitig zu evaluieren. Es wird also exponentiell Energieaufwand und Rechenleistung reingesteckt, nur um ein paar Prozent Qualitätsverbesserung zu bekommen. Das ist ein absoluter Wahnsinn.
Die Vollkostenbetrachtung kommt in der KI-Euphorie offenbar zu kurz: Werden Strom- und Rechenleistung tatsächlich zu wenig eingerechnet?
KI ist billiger als der Mensch, das stimmt zum Teil. Aber der exponentiell steigende Energieaufwand führt schnell zum Breakeven Point, wo es Menschen braucht, um das unter Kontrolle zu halten. Wir bei Dynatrace sind in der komfortablen Situation, dass wir seit mehr als zehn Jahren an einer KI gebaut haben, die nicht halluziniert, die deterministisch ist. ChatGPT ist stochastisch. Jede Technologie hat ihre Anwendungsgebiete. Man könnte es so beschreiben: Die KI von Dynatrace ist der Wissenschaftler (deterministisch) – zuverlässig, nachvollziehbar. Die KI von der heute jeder spricht (GPT) ist der Künstler (stochastisch) – kreativ, man weiß nie genau was herauskommt.
Am Weg zur autonomen Steuerung
Dass eine KI, die IT-Systeme überwachen soll, präzise sein muss, leuchtet ein.
Unsere Kunden haben Hunderttausende von Softwaresystemen laufen, und die müssen wissen was Sache ist. Wir kombinieren die KI, die das kann, mit einer stochastischen KI – die dann sagt: Wir haben das Problem erkannt, zur Lösung könntest aber diese oder jene Variante wählen. Wir kombinieren die eigene Wissensbasis mit der allgemeinen Wissensbasis, dass wir einerseits maximale Präzision haben, andererseits aber so eine Autonomie erreichen, dass die Mitarbeitenden nur mehr eine Zielsetzung definieren müssen. Die könnte lauten: „Liebe Dynatrace, steuere unsere Produktionsumgebung dahingehend, dass die Cloud-Kosten im Rahmen bleiben, aber die Customer Experience die Ziele erreicht, mache Optimierungsvorschläge und schick die an die Softwareentwickler.“ Dahin gehen wir.
Wann planen Sie diese Autonomiestufe zu erreichen?
Von unseren Tausenden Kunden verwenden bereits zehn Prozent „Preventive Operations“, ein System, das Probleme erkennt bevor sie auftreten. Das ist eine Vorstufe zur komplett autonomen Zielsetzung. Fairerweise muss man sagen, dass es bis zur kompletten Autonomie noch ein paar Jahre dauert. Aber auf dem Weg dorthin bringt die KI schon Mehrwerte durch die Automatisierung der Problemfindung, und der Security-Analysen.
Gibt es in Ihrem Marktsegment, der Observability, Themen, die aktuell stärker beobachtet werden müssen?
Laut Berichten sind allein im letzten Jahr 256 Milliarden Zeilen Code von KI generiert worden, und der Anteil von dupliziertem Code hat sich in der Zeit laut Schätzungen verachtfacht – mit allen Vor- und Nachteilen. Nicht nur die Daten wachsen exponentiell, sondern auch der Code. Es passiert immer wieder, dass den trainierten Modellen Dinge antrainiert wurden, die Sicherheitslücken haben. So kann es passieren, dass eine Schwachstelle von vor zwei Jahren, die schon gefixt wurde, von der KI immer wieder generiert wird. Alles wird also noch komplexer.
Ich muss die Security nicht nur am Anfang prüfen, sondern im Betrieb ständig checken, was läuft jetzt wirklich. Und hier schließt sich wieder der Kreis, zu den 95 Prozent gescheiterten Projekten. Die KI ist kein magischer Alleskönner. Eine KI-Textproduktion kann ich hinbekommen, aber das ist nur ein Teil der Möglichkeiten. Ich muss die KI mit anderen digitalen Services integrieren.
So kann es passieren, dass eine Schwachstelle von vor zwei Jahren, die schon gefixt wurde, von der KI immer wieder generiert wird. Alles wird also noch komplexer.
Steigende Komplexität als große Herausforderung
Das hört sich an, als wäre Kontrollverlust geradezu vorprogrammiert.
Die jetzt schon laufenden IT-Systeme sind hochkomplex, und jetzt kommt die KI dazu. Es reicht nicht, das einmal zu testen und dann auszurollen. Nein, mit jeder Nutzung verhält es sich anders. Ich muss die KI-gestützten Lösungen kontinuierlich beobachten, auch aus Compliance-Gründen. Man muss noch viel mehr Daten sammeln und analysieren. Das sind echte Challenges, die da auf uns zukommen. Vielen ist noch nicht bewusst, dass KI-Projekte nur dann erfolgreich zu machen sind, wenn man die Observability mitbedenkt.
Sie meinten einmal, als Unternehmen müsse man sich alle sieben Jahre neu erfinden: Bei Dynatrace passiert die Innovationsarbeit in großen Zyklen, muss gleichzeitig aber auf dynamische Entwicklungen – die generative KI - am Markt reagieren. Was war der letzte große Wurf in der Produktentwicklung?
Wirklich maßgeblich für unsere Zukunft ist, dass wir ein massive parallel processing Data Lakehouse gebaut haben – vereinfacht gesagt eine Datenbank. Die Daten- und Codexplosion bringt immer mehr Daten, die man auswerten muss: Nutzerverhalten, kausale Zusammenhänge in einem Graph darstellen, Metriken. Wir haben Kunden, die mittlerweile ein Petabyte Daten pro Tag (!) in ihrem IT-Betrieb anhäufen. Das in Echtzeit auswerten zu können, schafft man nur mehr mit einer spezialisierten Datenbank, unsere heißt Grail. Alle anderen Datenbanken am Markt schaffen das nicht mehr. Die Verfügbarkeit von allen Daten in Echtzeit, ermöglicht es der KI sofort Ergebnisse zu liefern. Denn Die Qualität der KI hängt direkt von der Qualität ihrer Trainingsdaten ab.
Sie betreuen 4.000 Kunden weltweit: Welche Branchen sind die wichtigsten für Dynatrace? Aus welchen Sektoren kommen neue Kunden?
Traditionell stark sind wir im Financial Services Markt und bei Softwareanbietern. Der Rest verteilt sich über alle Branchen der Fortune 15.000. Wachstum kommt von überall, weil alle in KI investieren. Ein großer Europäischer Automobilhersteller etwa hat den ganzen Modernisierungsbereich mit Dynatrace umgekrempelt. Verändert haben sich unsere Zielgruppen in den Unternehmen. Waren es bislang Betrieb und DevOps, nutzen uns jetzt auch vermehrt die Softwareentwicklungs-Teams auf der einen Seite und die Executive Ebene auf der anderen Seite. Seit mehr als einem Jahr bilden wir mit Business Observability Erkenntnisse ab, und visualisieren für die Chefetage in Echtzeit Geschäftsprozesse. Das kommt bei den Executives super an. Man sieht sofort, wo Prozesse hängen – und diese Einsichten sind extrem hilfreich, wenn ein hängender Prozess schon einmal ein paar Millionen kosten kann. Wir haben ein Frachtunternehmen, das mit Dynatrace analysiert, wo die Container im Hafen stehen. Sie optimieren ihre Prozesse darüber. Das schafft einen Mehrwert, der sich nicht nur um Bugs dreht und zeigt, wie breit das Publikum mittlerweile ist.
Zur Person
Zur Person
Bernd Greifeneder hat den Marktführer für Observability (laut Gartner) 2005 in Linz mitgegründet und führt als CTO bis heute Produktentwicklung des seit 2019 börsennotierten US-Konzerns, aktuell 15 Mrd. Dollar schwer. Der Jahresumsatz lag zuletzt bei 1,699 Mrd. Dollar (2024/25), das EBIT bei 179,43 Millionen. Der Konzern beschäftigt 5.200 Mitarbeitende, mehr als ein Viertel davon in Österreich. Rund 30 Prozent der Betriebsausgaben gehen in die Forschung und Entwicklung.
Observability ist IT-Spezialistentum in einer extrem systemrelevanten Nische: Ohne diese Monitoringprogramme gäbe es kein digitales Leben, keine Geldtransfers, keine Logistik und kein E-Commerce. 4.000 Kunden in aller Welt arbeiten mit Programmen von Dynatrace.
