CeBIT 2012: Software AG stellt Strategie für das In-Memory-Management von Big Data vorHannover (ots) - 05.03.2012 | 16:00 Uhr - Unternehmen können aus Volumen, Geschwindigkeit und Vielfalt riesiger Datenmengen (Big Data) maximalen Nutzen ziehen und ihr Geschäft entsprechend transformieren
- Schnelligkeit gepaart mit hoher Skalierbarkeit ermöglicht vollkommen neue Geschäftsabläufe und schnellere Entscheidungsprozesse
- Kern der Strategie der Software AG ist eine Plattform, über die riesige und aus unterschiedlichsten Datenquellen stammende Datenmengen mit geringer Latenz direkt im Arbeitsspeicher abgerufen werden können
- Durch die Integration der Verarbeitung von Ereignis- Datenströmen versetzt die Software AG Unternehmen in die Lage, auf Geschäftsvorfälle mit Internet-Geschwindigkeit zu reagieren
Die Software AG stellte heute ihre Strategie für das Big-Data-Management der nächsten Generation vor, wodurch der Zugriff auf riesige Datenmengen bis zu 1.000 mal schneller erfolgen kann als mit herkömmlichen Technologien. Kunden erhalten damit Echtzeitzugriff auf riesige Mengen von Geschäftsinformationen in Big Data und können so ihre Entscheidungsprozesse signifikant beschleunigen. Die damit geschaffene Transparenz über operative Aktivitäten in Echtzeit ermöglicht Unternehmen neue, innovative und höchst flexible Geschäftsprozesse. Kern der Strategie der Software AG ist eine Plattform, die mithilfe der BigMemory-Technologie des Unternehmens den Zugriff auf Daten in mehrfacher Terabyte-Größe, jeden beliebigen Formats und aus unterschiedlichsten Datenquellen ermöglicht. Die Plattform integriert Technologie für die Verarbeitung von Ereignis- Datenströmen und generiert dadurch maximale Business Intelligence in Echtzeit aus den immensen Datenmengen. Kunden erhalten damit einen einzigartigen Wettbewerbsvorteil. Mit ihrer neuen Plattform für das Datenmanagement der nächsten Generation durchbricht die Software AG die Grenzen traditioneller Ansätze für das Management riesiger Datenmengen, einschließlich des Wildwuchses unterschiedlicher Datensilos, der durch neue Datenbanktypen noch verschärft wird. Das Unternehmen integriert in der neuen Plattform seine In-Memory-Technologien mit Technologien für die Verarbeitung komplexer Ereignisströme und liefert damit die Geschwindigkeit, Skalierbarkeit und Flexibilität, die notwendig sind, damit Unternehmen den sich ändernden Geschäftsanforderungen erfolgreich begegnen können. Neben dem schnellen Zugriff auf riesige Datenmengen direkt im Arbeitsspeicher unterstützt die neue Plattform ein breites Spektrum neuer Datenströme, vorhandener Datenbanksysteme und führender Werkzeuge für die Datenanalyse. "Der unmittelbare Zugriff auf große Datenmengen sowie deren Analyse in Echtzeit erhöht die Transparenz und ermöglicht schnelle Entscheidungen sowie kurze Reaktionszeiten", erklärte Karl-Heinz Streibich, Vorsitzender des Vorstands der Software AG. "Unternehmen können damit auf Marktveränderungen sofort reagieren und erhebliche Wettbewerbsvorteile realisieren. Hohe Geschwindigkeit und Skalierung bei der Auswertung großer Datenmengen wird damit zum kritischen Erfolgsfaktor für Unternehmen." Die BigMemory-Technologie der Software AG ist bereits bei vielen großen Unternehmen im Einsatz, die viele Terabytes an Daten im Arbeitsspeicher zugreifbar halten müssen. Zu den geplanten Funktionserweiterungen von BigMemory zählen die In-Flight- Verarbeitung von Ereignisströmen sowie Services für das Profiling und die Aggregation von Daten für eine Datenanalyse in Echtzeit. Darüber hinaus wird die Software AG die Verarbeitung von Daten aus allen Datenumgebungen - Transaktionssysteme, Analysesysteme, relationale/nicht-relationale Datenbanken, Hadoop/NoSQL und soziale Umgebungen - in einem gemeinsamen In-Memory-Speicher ermöglichen. "Wir integrieren unsere Technologien für die Ereignisverarbeitung und BigMemory und bieten unseren Kunden Datenanalyse in Echtzeit", erklärte Dr. Wolfram Jost, Produktvorstand der Software AG. "Unsere Vision ist eine In-Memory-Plattform für das Datenmanagement, die eine Brücke zwischen den Anforderungen von Transaktionssystemen auf der einen und Analysesystemen auf der anderen Seite schlägt. Mit diesem Ansatz bieten wir die Möglichkeit, dass riesige Datenvolumina sowohl aus Unternehmensanwendungen als auch aus Analysesystemen mit geringer Latenz abgerufen werden können. Darüber hinaus bietet die Plattform Schnittstellen zu einem breiten Spektrum neuer und alter Datenhaltungssysteme und Analysewerkzeuge. Auf diese Weise schaffen wir eine Brücke zwischen der heutigen IT-Landschaft und der Datenwelt von morgen." |