Schlecht für Anwender, gut für die sie betreuenden IT-Dienstleister: Angesichts der steigenden Komplexität von Software-Architekturen sowie der Verlagerung von Applikationsprozessen in die Cloud gestaltet sich der funktionierende IT-Betrieb von Unternehmen immer schwieriger. Sind bereits Service-Ausfälle oder Systemüberlastungen zu beklagen, entpuppt sich die Fehlersuche für IT-Verantwortliche als mühsames, in jedem Fall aber kosten- und zeitaufwändiges Unterfangen.
Performance-Probleme gefährden Business
"Performance-Probleme können sich Unternehmen im internen IT-Betrieb wie auch bei externen Kundenservices heute eigentlich kaum mehr leisten. Wenn etwa ein Webshop in der umsatzstärksten Woche des Jahres in die Knie geht, kann das den Business-Erfolg nachhaltig gefährden", erklärt Bernd Greifeneder, Gründer und CTO von dynaTrace.
Komplexe IT-Infrastrukturen, die sich neben der vielschichtigen Softwareprogrammierung durch unterschiedliche Hardwarekomponenten und Anwendungsszenarien auszeichnen, würden das manuelle Auffinden von Fehlern aber kompliziert machen, so Greifeneder. Auch der verstärkte Trend zur Nutzung von Open-Source-Bausteinen aus unterschiedlichen Quellen sei in puncto Architekturtransparenz nicht unproblematisch. "Entwickler nehmen freien Code und schichten ihn für die eigene Applikation übereinander. Bei auftauchenden Problemen im produktiven Betrieb erschwert das die Fehlerdiagnose."
Mehr zum Thema Virtualisierung auf dem Channel-Sales-Kongress am 8. Juli.