Melden Sie sich hier an, um auf Kommentare und die Whitepaper-Datenbank zugreifen zu können.

Kein Log-In? Dann jetzt kostenlos registrieren.

Falls Sie Ihr Passwort vergessen haben, können Sie es hier per E-Mail anfordern.

Der Zugang zur Reseller Only!-Community ist registrierten Fachhändlern, Systemhäusern und Dienstleistern vorbehalten.

Registrieren Sie sich hier, um Zugang zu diesem Bereich zu beantragen. Die Freigabe Ihres Zugangs erfolgt nach Prüfung Ihrer Anmeldung durch die Redaktion.

Experten-Webcast


27.08.2013 - 

Wer siegt in der "Workload-Formel-1"?

Mit wachsenden Datenvolumina steigt der Druck auf die Arbeitslast, den sogenannten Workload. Ein aktueller Webcast informiert über transaktionsorientierte Datenbankworkloads und Big Data.
Foto: Datenbank_mickey-hoo

Im elektronischen Handel, etwa beim Investmentbanking, im E-Commerce oder an der Strombörse, kommt es auf die möglichst schnelle Verarbeitung von Transaktionen und Daten an. Der IDC-Studie "Big Business dank Big Data" aus dem Jahr 2012 zufolge sind In-Memory-Technologien dafür der meistgenutzte Ansatz, wenn es um den Umgang mit Big Data geht, berichtet T-Systems-Geschäftsführer Ferri Abolhassen auf ZDnet. Weil sich das Verhältnis zwischen Daten und Abfragen zusätzlich mit wechselnden geschäftlichen Anforderungen ständig verschiebt, sind High-Performance-Technologien gefragter denn je. Grund: Mit wachsenden Datenvolumina steigt der Druck auf die Arbeitslast, den sogenannten Workload. Big Data Transaktionsworkloads gerade in Cluster-Topologien besser handhaben zu können, um so viel schneller Einblick in Daten erlangen zu können, ist das Thema eines Live Webcasts unserer Schwesterpublikation Computerwoche am 12. September.

Experten von Gartner und Forrester sprechen im Zusammenhang mit Big Data längst von "Extreme Information Management" oder "Extreme Data". Informationen in Echtzeit zu analysieren, funktioniert mit herkömmlichen transaktionsorientierten Datenbanksystemen eher schlecht als recht, denn deren Implementierung und Ausführung kann sehr kosten- und zeitintensiv sein. "Die gewohnte relationale Datenbank reicht für Big-Data-Anforderungen in der Regel nicht mehr aus. Skalierbarkeit und Parallelisierung von Prozessen muss von Anfang an für alle Systeme konzipiert sein", meint Carsten Bange, geschäftsführender Gesellschafter des Business Application Research Centers (BARC) in einem Whitepaper für Uniserv (zum PDF). IBM setzt deshalb auf sogenannte hochintegrierte Systeme: PureData Systems for Transactions sollen helfen, transaktionsorientierte Datenservices, wie sie in Online-Shops oder bei Payment-Prozessen auftreten, rasch, zuverlässig und skalierbar bereitzustellen. Die Datenbankplattform optimiert die transaktionsverarbeitenden Workloads und integriert Server-, Storage-, Netzwerk- und Software-Ressourcen in einem einzigen System, das Workloads bis zu 20 Mal schneller ermöglichen soll.

Wie lässt sich mit Datenbank-Workloads maximale Verfügbarkeit ausliefern? Womit schafft man eine effiziente Systemauslastung, um kosteneffektiv virtuell unbegrenzte Rechenleistung für sich verändernde Geschäftsanforderungen bereitzustellen? Wie lassen sich Hard- und Software auf hochvolumige Transaktionsanwendungen mit hohem Durchsatz abstimmen?

Darüber diskutiert Andreas Zilch, Gründer und Vorstandsmitglied der Experton Group AG mit Bernd Ertl, Senior Sales Manager Core Database & Pure Data bei IBM in einem Live Webcast unserer Schwesterpublikation Computerwoche am Donnerstag, den 12. September, um 11 Uhr.
Moderiert wird die Gesprächsrunde von Detlef Korus von der Computerwoche.

Die Teilnahme ist kostenlos. Melden Sie sich jetzt an!

Newsletter 'Produkte & Technologien' bestellen!