Apache Hadoop in die Open Hybrid Cloud Red Hat und Hortonworks verstärken ihre Zusammenarbeit
Red Hat, Anbieter von Open-Source-Produkten, und Hortonworks, Anbieter eines Apache-Hadoop-Derivats, bauen ihre Kooperation weiter aus. Sie stimmen ihre Produktlinien besser aufeinander ab, vermarkten gemeinsam Lösungen und unterstützen zusammen ihre Kunden.
Anbieter zum Thema

Hadoop ist bei Big Data in den Unternehmen gefragt. Einer IDC-Studie unter dem Titel „Trends in Enterprise Hadoop Deployments“ zufolge nutzen bereits 32 Prozent der befragten Unternehmen Hadoop. Weitere 31 Prozent planen einen Einsatz in den nächsten zwölf Monaten und 36 Prozent eine spätere Implementierung.
Mit einem umfassenden Open-Source-Einsatz auf Basis der Hadoop-Plattform sind Unternehmen in der Lage, die zentralen Anforderungen aller Big-Data-Entscheider in einem Unternehmen zu bewältigen. Red Hat und Hortonworks planen, die Apache-Hadoop-Plattform möglichst optimal auf Open-Hybrid-Cloud-Technologien wie Red Hat Enterprise Linux OpenStack Platform, OpenJDK, Red Hat JBoss Middleware und Red Hat Storage abzustimmen und auf dieser Basis Infrastrukturlösungen für die nächste Generation datengesteuerter Applikationen bereitzustellen. Unternehmen können damit schneller sehr große Datenmengen analysieren, sie erhalten einen genaueren Einblick in Geschäftsabläufe und können bessere Entscheidungen treffen.
Die erweiterte Kooperation von Red Hat und Hortonworks umfasst eine Reihe von Maßnahmen.
Hier die wichtigsten im Überblick:
- Datenarchitekten sollen in der Lage sein, Daten in einem einheitlichen, skalierbaren Open Source Repository zusammenzufassen. In der aktuell verfügbaren Betaversion bietet die Hortonworks Data Platform (HDP) zusammen mit Red Hat Storage einen sicheren und zuverlässigen Speicherpool mit Schnittstellen zu Hadoop, POSIX und OpenStack Object Storage (Swift). Dadurch lässt sich die Flexibilität und Geschwindigkeit der Entwicklung und Implementierung neuer und vorhandener Analytics-Lösungen steigern.
- Der IT-Betrieb und die Entwickler sollen ihre Hadoop-Infrastruktur dynamisch skalieren können, mit einer offenen und flexiblen Plattform neue Anforderungen aufgreifen und das gesamte Spektrum von physischen, virtuellen und Cloud-Deployment-Szenarien unterstützen
- Kombiniert mit Red Hat Enterprise Linux und OpenJDK soll HDP eine schnellere Entwicklung unternehmensweiter Analytics-Applikationen können. In Verbindung mit der Red Hat Enterprise Linux OpenStack Platform ließen sich mit HDP dynamische Hadoop-Services für sichere Private-Cloud-Infrastrukturen erstellen, die Kosten senken und die Flexibilität verbessern, sagen die Vertragspartner.
- Entwickler würden in der Lage sein, Analytics-Applikationen zu erstellen, die von neuen Datentypen profitieren. Datenanalysten erhielten über standardisierte Schnittstellen einen erleichterten Zugang zu den Daten. Durch die Verknüpfung von HDP mit Red Hat Enterprise Data Virtualization kann Hadoop eine Verbindung zu vorhandenen Datenquellen schaffen, einschließlich Data Warehouses, SQL- und NoSQL-Datenbanken, internen und Cloud-Applikationen sowie Flat- und XML-Files. Dadurch soll eine Lösung entstehe, die ein benutzerfreundliches, wiederverwendbares, virtuelles Datenmodell verspricht, das die unterschiedlichsten Datenquellen – inklusive Hadoop – integriert. Die Daten stehen dann bedarfsabhängig über Standard-SQL- und Web-Service-Schnittstellen für externe Applikationen zur Verfügung.
(ID:42529370)