HSP Summit 2018 – Quo vadis Cloud Computing? Von Klumpen, Nischen und Blockchains

Autor / Redakteur: M.A. Dirk Srocke / Florian Karlstetter |

Der Cloud-Markt steht vor technologischen und ökonomischen Umbrüchen. Worauf sich Provider einstellen müssen verrät Professor Oliver Hinz im Vorfeld des Hosting & Service Provider Summit 2018 im Interview.

Anbieter zum Thema

Es braucht mehr als nur Netzkapazitäten, um Deutschland zur erfolgreichen Digitalnation zu machen.
Es braucht mehr als nur Netzkapazitäten, um Deutschland zur erfolgreichen Digitalnation zu machen.
(Bild: © sp4764 - stock.adobe.com)

Auf dem 7. Hosting & Service Provider Summit 2018 treffen sich am 17. und 18. Mai die führenden Köpfe der Hoster und Managed Service Provider in Frankfurt am Main. Als einer der Keynote Speaker wird Professor Oliver Hinz einen ökonomischen und technologischen Ausblick in Sachen Cloud Computing wagen. Im Interview verrät er unter anderem, welche Auswirkungen das Internet der Dinge und Edge Computing auf den Markt haben werden.

Zum Einstieg gleich die Frage der Zukunftsfragen: Haben die Hyperscaler das Zeug, kleine Hoster mittelfristig vom Markt zu verdrängen - und warum (nicht)?

Oliver Hinz: Prinzipiell sprechen wir beim Thema Cloud Computing von einem Markt, in dem Skalierbarkeit sehr wichtig ist. Prognosen gehen davon aus, dass die großen Anbieter über 80 Prozent des Marktes unter sich ausmachen werden. Allerdings können sie nicht alle Anforderungen, die Unternehmen an einen Hosting-Anbieter haben könnten, erfüllen - zum Beispiel hinsichtlich Support, individuellen Anforderungen, Datenschutz, Auftragsdatenverarbeitung. Darüber hinaus führt eine Marktkonzentration zu einem Klumpenrisiko, wie AWS und der Ausfall von US-West zeigt. Insgesamt gehe ich davon aus, dass es noch ausreichend große „Nischen“ geben wird, in den kleinere Anbieter mit einem Fokus auf Vertrauen und Spezialisierung bestehen können.

Mit welchen Ansätzen und Techniken können Anwender diese Nischen bedienen und sich in Zukunft behaupten?

Oliver Hinz: Zum einen kann durch Kooperationen eine partnerschaftliche Zusammenarbeit in einer arbeitsteiligen Lieferkette (ähnlich Autoindustrie) entstehen, in der kleinere Anbieter eine besondere Vertrauensbeziehung zum Kunden aufbauen. Zudem bietet eine Spezialisierungsstrategie möglicherweise einen Ausweg, zum Beispiel der gezielte Aufbau von Branchen-/Lösungsexpertise für die Anforderungen der Kunden.

Eine dritte Strategie könnte darin bestehen, dass kleinere Anbieter auf große globale Open-Source-Communities setzen, die Cloud-Technologien als breit verfügbare Standards anbieten. So bietet das Start-up Meshcloud hier zum Beispiel einen interessanten Ansatz, indem es mittelständische Rechenzentren und Systemhäuser auf einer offenen Plattform zusammenbringt.

Können Sie skizzieren, welche Rolle dezentral angebotene IT-Ressourcen künftig spielen werden?

Oliver Hinz: IoT [Internet of Things, Anm. d. Red.] fördert das so genannte Edge Computing, da durch umfangreicher werdende Sensorik vor Ort größere Datenmengen anfallen, die oft auch von lokaler Bedeutung sind – beispielsweise die Verkehrsanalyse an einer Ampelkreuzung oder die Vermessung einer Produktionsanlage. Ähnlich wie bei der Energiewende führt das zu breiteren Enden der Datenverarbeitungsinfrastruktur.

Dies bedeutet, dass wir in zunehmendem Umfang Kapazitäten vor Ort benötigen. Auch weil zunehmend analytisch unterstützte Echtzeitvorgänge zwingend auf eine zuverlässige Versorgung mit Rechenkapazität angewiesen sind, ist eine dezentrale und damit robustere Infrastruktur notwendig; hier sei auch noch einmal auf das zuvor angesprochene Klumpenrisiko verwiesen.

Damit gehen aber auch ganz neue Anforderungen an Netzwerk, Anbieterstruktur und Abrechnung einher. Welche Lösungen sehen Sie?

Oliver Hinz: Sicherlich muss man über den Ausbau der Netzkapazitäten sprechen. Das allein genügt zwar nicht als Maßnahme, um Deutschland zu einer erfolgreichen Digitalnation zu machen, ist aber zwingende Voraussetzung. Darüber hinaus müssen sich Standards herausbilden – wie wir sie zum Beispiel im Sonderforschungsbereich MAKI (Multi-Mechanismen-Adaption für das künftige Internet) erforschen –, die die Komplexität einer dezentralen Infrastruktur effizient handhabbar machen. Das sollte am besten auf Open-Source-Basis geschehen, um eine breite Partizipation zu ermöglichen und innovativen Wettbewerb zu fördern.

Zudem sind immer stärker tiefergehende Kenntnisse erforderlich – zum Beispiel im Bereich Sicherheit – und es werden sich Spezialisten etablieren, die dann partnerschaftlich auf der benannten offenen Basis für eine leistungsfähige Gesamtlösung kooperieren und so eine effiziente, leistungsfähige und sichere Supply Chain etablieren. Generell kann es Plattform-basierte Lösungen geben oder Lösungen, die auf einer Blockchain basieren.

Mit Gridcoins oder Storj haben es bereits erste Blockchain-basierte Abrechnungsmodelle für Rechenleistung oder Speicher in die Praxis geschafft – und verwischen zunehmend die Grenzen zwischen Anbieter und Verbraucher. Werden Hoster damit auch von der bisherigen Kundschaft bedroht, die nun selbst brachliegende Ressourcen vermietet?

Oliver Hinz: Blockchain verbraucht selbst nennenswert Ressourcen, daher muss man aufpassen, dass nicht zu viel Kapazität durch den Overhead verbraucht wird, vor allem wenn die Transaktionen zu klein werden. Zudem kann es datenschutzrechtliche Probleme geben. Zahlreiche Firmen bauen sich gerade eigene Kapazitäten auf, um – physikalisch – von anderen Teilnehmern isoliert zu bleiben. Diese Trennung werden sich viele Unternehmen nicht wegen kleineren Umsätzen kaputt machen wollen.

Dazu setzt die im Mai in Kraft tretende DSGVO strenge Anforderungen und verlangt Zusicherungen an die gesamte Datenverarbeitungskette für personenbezogene Daten bis hin zur physikalischen Umgebung – Stichwort: Technisch-organisatorische Maßnahmen. Darauf muss ein Anbieter von Rechenleistungen eingestellt sein und die zusätzliche Komplexität rechtfertigt oft das opportunistische Angebot von Ressourcen nicht.

Eine Abwägung von Risiko vs. Gewinn spricht eher dagegen, dass die Verbraucher in großem Maße als Anbieter agieren werden.

HOSTING & SERVICE PROVIDER SUMMIT 2018
Mehr Informationen zum HOSTING & SERVICE PROVIDER SUMMIT 2018

Zur Person

Nach seinem Studium arbeitete Hinz mehrere Jahre für die Dresdner Bank im Bereich Private Banking als Entwickler für Geschäftslogik.
Nach seinem Studium arbeitete Hinz mehrere Jahre für die Dresdner Bank im Bereich Private Banking als Entwickler für Geschäftslogik.
(Bild: ©www.jakobkaliszewski.de)

Oliver Hinz (Jahrgang 1974) übernahm im September 2017 die Professur für Betriebswirtschaftslehre insb. Wirtschaftsinformatik und Informationsmanagement an der Goethe-Universität Frankfurt. Zuvor leitete er von 2011 bis 2017 das Fachgebiet Wirtschaftsinformatik | Electronic Markets an der TU Darmstadt. Von 2008 bis 2011 unterstützte er als Juniorprofessor für BWL. insbesondere E-Finance & Electronic Markets das E-Finance Lab Frankfurt.

Seine Promotion zum Thema interaktive Preismechanismen in dynamischen Märkten, schloss der Wirtschaftsinformatiker 2007 erfolgreich ab. Die Arbeit wurde mit dem Dissertationspreis der Alcatel-Lucent-Stiftung 2008, dem Erich-Gutenberg-Preis für Nachwuchswissenschaftler 2008 und dem Wissenschaftspreis Handel 2009 des EHI Retail Institute e. V. ausgezeichnet. Zudem ist Oliver Hinz Träger des Schmalenbach-Preises 2008 für Nachwuchswissenschaftler.

(ID:45236622)