Die Public Cloud ist schon längst im Alltag angekommen, für viele ist sie aber immer noch ein mysteriöser, omnipräsenter Datenschleier der ungesehen über unseren Köpfen schwebt. Konzeptionell ist das auch kein schlechter Anfang, die scheinbar übernatürlichen Fähigkeiten der Cloud finden auf technischer Ebene allerdings ihre Erklärungen.
Kurz gesagt ist die Cloud die Bereitstellung von IT-Ressourcen über das Internet; für Omnipräsenz ist also eine funktionierende Internetverbindung notwendig. Diese Ressourcen werden durch Cloud-Provider wie Amazon Web Services (AWS), Microsoft Azure und Google Cloud Platform bereitgestellt, die häufig als Hyperscaler bezeichnet werden. Ein Hyperscaler ist ein System in dem tausende, oft sogar Millionen an Server in einem Netzwerk vereint werden. Dieses Netzwerk kann beliebig erweitert werden, und kann dank seiner Größe je nach Bedarf des Benutzers flexibel hoch oder runter skaliert werden. Daher auch der Name „Hyperscaler“. (Mehr dazu: Was ist eigentlich Cloud?)
Das Sortiment an verfügbaren IT-Ressourcen und Services ist breitgefächert, und beinhaltet alles von der Bereitstellung eigentlicher Hardware zu Programmen auf Software-Ebene. Amazon Web Services stellt beispielsweise ungefähr 175 verschiedene Services zur Verfügung, die es unter anderem ermöglichen riesige Datenmengen in externen Servern zu speichern oder je nach Bedarf extra Rechenleistung zu beanspruchen, ohne sich mit extra Hardware auseinandersetzen zu müssen. Die bedarfsabhängige Nutzung ist einer der größten Vorteile der Public Cloud, die durch flexible Preismodelle und Skalierbarkeit ermöglicht werden. Die Benutzung aller Ressourcen wird via eines „Pay-per-Use“ Systems abgerechnet, in dem der Verbraucher nur seine wirkliche Nutzung bezahlt. Die Kosten eines Speicherplatzes beispielsweise werden nach der benötigten Anzahl an Gigabytes auf einer monatlichen Basis berechnet.
Die Vorteile
Im Vergleich zur herkömmlichen On-Premise Lösung, in der die Hardware noch vor Ort im Unternehmen zu finden ist und von dort aus betrieben wird, entstehen hier mehrere Vorteile. Als passendes Beispiel hierfür fungieren Online-Shopping Plattformen wie Amazon. Diese brauchen dutzende Server um Ihre Plattform problemlos zur Verfügung stellen zu können, und müssen sich Hardware-technisch so auslegen, dass ihre Website zu Stoßzeiten weiterhin problemlos funktioniert. Zu Feiertagen wie Weihnachten wächst der Bedarf für Online-Shopping extrem zu, und die Hardware muss für diesen Zuwachs gewappnet sein. Während die zusätzliche Hardware für diesen Zeitraum essentiell ist, ist sie den Rest des Jahres überflüssig und ein großer Kostenpunkt, da diese weiterhin erhalten werden muss. Ein Faktor, der nicht nur Online-Händler beeinflussen kann. Wenn sich ein Unternehmen überlegt in eigene Hardware zu investiere, muss es bedenken, dass es immer für die oberste Grenze seiner benötigten Rechenleistung oder seines benötigten Speicherplatzes planen muss. Einzelne Prozesse sind rechenintensiver als andere, und auch wenn der Großteil der vorhandenen Prozesse nicht viel Leistung beansprucht, muss für die intensivsten Prozesse die notwendige Hardware vorhanden sein.
Würde man die Infrastruktur in der Cloud abbilden, könnte problemlos für die rechenintensivsten Prozesse weitere Rechenleistung beansprucht werden. Der benötigte Speicherplatz kann auch problemlos vergrößert werden. Diese zusätzliche Rechenleistung muss natürlich bezahlt werden, doch sobald sie nicht mehr benötigt wird kann sie dem Bedarf angepasst und nach unten skaliert werden, anstatt mit überflüssiger Hardware da zustehen die aufwendig zu betreiben ist.