Informatica Big Data Edition

Weniger Risiken, mehr Leistung

27.11.2012
Der Systemintegrator Informatica hilft großen Unternehmen mit seiner neuen Lösung PowerCenter Big Data Edition Projekte besser zu analysieren und Kosten zu senken.
Informatica-Lösung für neue und traditionelle Infrastrukturen.
Informatica-Lösung für neue und traditionelle Infrastrukturen.
Foto: Informatica

Der Systemintegrator Informatica hilft Großunternehmen mit seiner neuen Lösung PowerCenter Big Data Edition Projekte besser zu analysieren und Kosten zu senken. Im Fokus stehen vor allem Unternehmen, die einen großen Zuwachs an sozialen, mobilen, Cloud-basierten oder maschinellen Daten bei hoher Geschwindigkeit, großen Volumen und Varietät haben. Um neue Analyse-Plattformen in Schwung zu bringen, arbeitet die Lösung sowohl mit innovativen Technologien als auch mit Infrastrukturen aus dem traditionellen Datenmanagement.

Hierbei kommt zum Beispiel Apache Hadoop zum Tragen, ein in Java programmiertes Software-Framework. Bei der High-Speed Data Ingestion und Extraction werden Big Data in heterogenen Umgebungen geladen, verarbeitet und extrahiert, um den Datenfluss zwischen Hadoop und der traditionellen Datenmanagement-Infrastruktur zu verbessern. Zudem entfernt das so genannte No-code Development Environment die Hand-Codierung innerhalb von Hadoop durch die visuelle Informatica Entwicklungsumgebung. Die Virtual Data Machine ermöglicht es wiederum, einen einzigen Satz von grafischen Zuordnungen zu erstellen und diese auf einer Vielzahl von Daten-Plattformen und Einsatz-Modellen anzuwenden. Darüber hinaus sichert das Verfahren Near-Universal Data Access und Comprehensive Extract, Transform and Load (ETL) den Zugriff auf eine Vielzahl von Typen und Quellen von Daten und damit auf eine umfangreiche Bibliothek an vorgefertigten ETL-Transformationen, die über Hadoop oder eine traditionelle Netzinfrastruktur laufen.

Informatica verweist darauf, dass seine PowerCenter Big Data Edition die Risiken bei der Implementierung neuer Technologien minimiert. Dies sei bedingt durch den Einsatz in neuen und traditionellen Strukturen, durch die bewährte Datenintegration der Herstellerplattform und Verfügbarkeit der eigenen oder kooperierenden Systemintegratoren sowie durch das direkte, Vertrauen schaffende Data-Profiling und die Hochverfügbarkeits-Funktionen mit nahtloser Ausfallsicherung und flexibler Wiederherstellung bei hoher Belastbarkeit. Beim Übergang zur uncodierten Umgebung könnten die Produktivität sogar verdreifacht und bei der Datenintegration die kostengünstigsten und leistungsfähigsten Verarbeitungs-Ressourcen genutzt werden. (wes)

·

Zur Startseite