Unsere Erlebnisse bei der Wanderung in die Cloud

(Foto: Postscapes.)
Es gab kaum Zwischenfälle, die Migration dauerte aber trotzdem etwas länger als gedacht: Ein Erfahrungsbericht aus der Sicht eines Kleinunternehmens.
 
Wenn Sie unseren Ankündigungsartikel nicht gelesen haben, dann haben Sie es wohl – und das war ja auch ein Ziel bei der Migration – nicht gemerkt: Seit rund sechs Wochen läuft die Website, die Sie gerade lesen "in der Cloud". Genauer gesagt in einem virtual Datacenter auf der Public-Cloud-Plattform des Schweizer Providers Cyberlink.
 
Wir haben uns gedacht, dass unsere Erfahrungen dabei auch unsere Leser interessieren könnten, und bringen hier darum eine kurze Schilderung des Projekts. Diese erfolgt allerdings nicht aus technischer Sicht – davon hätten wir auch wenig Ahnung – sondern aus der Sicht des "Businesses". Beziehungsweise eines "IT-Verantwortlichen" ohne grosse IT-Kenntnisse, der die ganze Sache leiten soll und dann mit dem Ergebnis leben muss.
 
Zuerst einmal die Ausgangslage
Unsere IT ist wahrscheinlich etwas untypisch, auch für Kleinfirmen, denn sie besteht eigentlich aus zwei komplett getrennten Teilen. Da ist einerseits die "Büro-IT", die hauptsächlich aus einigen PCs und diversen Online-Services besteht.
 
Und dann gibt es den businesskritischen Teil, den wir nun migriert haben. Man könnte auch sagen, dass dies, für uns als reinen Online-Verlag, die in Software gegossene "Huron AG" ist: Die Plattform für unsere Websites inside-it.ch und inside-channels.ch sowie die in Java geschriebene, für uns massgeschneiderte Management-Software auf die wir via Browser zugreifen. Über sie publizieren wir nicht nur Artikel und andere Site-Inhalte, sie beinhaltet auch einen AdServer und ein Online-Reservationssystem, generiert Reports für unseren Verkauf, macht Zugriffsstatistiken und verschickt unsere Newsletter. All dies wurde und wird von unseren Technologiepartnern Netcetera und Ergon entwickelt und betrieben und lief bisher auf einem Sun-Server in einem Rechenzentrum von Cyberlink.
 
Der Weg zum Entscheid
Pläne für den Ersatz des 2007 angeschafften Servers machten wir schon vor vielen Jahren. Ein klassisches Hosting kam für uns aufgrund der Zugriffszahlen und anderen technischen Gründen nie in Frage. Zuerst war darum die Anschaffung eines normalen neuen Servers vorgesehen, allerdings verbunden mit einem Wechsel von Solaris auf Linux als Betriebssystem. Später rückte dann die Miete eines dedizierten Servers in den Vordergrund. Aber als wir uns im vergangenen Sommer endlich endgültig zur Migration entschieden, waren wir und unsere Partner uns einig: Die vernünftigste Alternative ist für uns als "Ein-Server-Firma" die Nutzung von Infrastruktur-as-a-Service aus einer Public-Cloud-Plattform. Das erspart uns Sorgen um Hardware, Ersatzteile, Backup und Supportverträge und ermöglicht es, bei Bedarf einfach mehr Leistung oder Speicherplatz zu mieten. Und wenn man die Housing-Kosten mitrechnet, ist die Cloud-Variante für uns nicht nur kurz- sondern auch langfristig deutlich günstiger.
 
Wieso ein lokaler Provider?
Also Cloud ja, aber von wem? Wir entschieden uns schnell gegen AWS, Azure oder Google und Co. Denn wir sind zwar klein, haben aber hohe Ansprüche an Service, Support und Betreuung. Bei einem der Riesen sahen wir keine Chance, "Extrawürste" vor allem in Sachen Betreuung bei einem Problem zu erhalten.
 
Deshalb entschlossen wir uns, einen lokalen Provider zu suchen, dem wir im Notfall auch mal "auf die Pelle rücken" können. Und da Cyberlink gerade eine neue IaaS-Plattform aufgebaut hatte, lag es nahe, bei unserem bewährten RZ-Partner zu bleiben. Zumal dieser für sein Virtual-Datacenter-Angebot eine auf der vCloud-Suite basierende reine VMware-Umgebung aufgebaut hat. Nicht weil wir spezielle VMware-Fans sind – VMware ist zwar ein guter Werbekunde unseres Verlags, aber solange alles läuft, ist es uns egal, worauf unsere Software läuft – sondern weil unser Techniker- und Entwicklerteam von Ergon und Netcetera sich bereits bestens mit dieser Technologie auskannte.
 
Viele Änderungen im Fundament
In einer rund einstündigen Sitzung mit allen Beteiligten im letzten September wurde dann ausgeklügelt, wie viele Ressourcen wir für unser vDC ungefähr brauchen würde. Das Resultat: 12 Gigahertz CPU-Leistung, 20 GB RAM, ein halbes Terabyte Diskspeicher, ein Gigabit Bandbreite. Aufgeteilt in eine Live-Instanz in einem und eine Hot-Spare-Instanz im zweiten Rechenzentrum. Letztere wird kontinuierlich mit Daten aus dem Live-System gefüttert und soll im Fall eines Problems im ersten RZ sofort einspringen können.
 
Festgelegt wurden auch die neuen Komponenten für den Softwarestapel, auf dem unsere Software läuft: Die Linux-Variante CentOS statt Solaris als Betriebssystem, MariaDB statt MySQL als Datenbank. Eine wichtige Entscheidungsgrundlage dabei war, dass sich sowohl Ergon als auch Netcetera und Cyberlink mit den neuen Softwarekomponenten auskennen. Zudem wurde ein Upgrade der anderen Komponenten auf die aktuellen Versionen Java 8, Tomcat 7 und Apache 2.4 beschlossen.
 
Chefs mahnen zur Vorsicht
Trotz all dieser Änderungen am Software-Fundament erwartete unser Technik-Team eigentlich wenig Probleme. Der Zeitraum für Tests und die Korrektur von allfälligen Bugs wurde daher auf einen Monat nach dem ersten Aufschalten des Testsystems geschätzt.
 
Dies fanden dann allerdings die Chefs unserer Technologiepartner Netcetera und Ergon bei einer späteren Sitzung doch "etwas sportlich" angesetzt. Nach dem Motto "Man kann nie wissen" empfahlen sie, besser mit drei Monaten zu rechnen. Sie sollten Recht behalten.
 
Um die genannten Zeiträume zu verstehen, muss man allerdings dies wissen: Weder bei unserem Verlag noch bei unseren Technologiepartnern arbeitet jemand annähernd Vollzeit an unserer IT. Insbesondere bei unserem Verlag bleibt dem "CIO" für die Entwicklungsarbeit meist nur ein Tag pro Woche, was natürlich die Technologiepartner ebenfalls bremst. Diese Arbeit besteht im Wesentlichen daraus, Wünsche bezüglich neuen Features auszuformulieren, die Partner zu koordinieren (und gelegentlich zur Kommunikation aufzufordern) und neue Softwareversionen zu testen und Feedback zu geben.
 
Aber weiter mit der Cloud-Story: Nach der ersten Sitzung hatte Cyberlink das virtuelle Datacenter schnell eingerichtet. Danach mussten wir aber das Projekt bis Februar auf Eis legen, weil andere Aufgaben, insbesondere das Inside Channels Forum die Ressourcen unserer Kleinfirma auslasteten.
 
Alles läuft. Alles?
Mitte Februar konnten wir dann aber endlich mit dem ersten Test der Cloud-Version starten. Das erste Fazit: Das sieht doch alles schon fast richtig aus. Nur zwei Bugs stechen ins Auge: Bilder auf der Homepage werden nach dem Besuch eines Artikels und anschliessender Rückkehr zur Homepage nicht mehr angezeigt. Auch der Inhalt einiger iFrames im Backoffice ist verschwunden.
 
Zumindest beim Testen mit den Browsern Chrome, Firefox und Safari fanden wir also nur wenige Bugs. Deutlich negativer war dann der Eindruck beim Test mit dem Explorer: Dieser weigerte sich, die meisten Bilder anzuzeigen, und machte noch weitere Probleme.
 
Die Probleme, die alle Browser betrafen, konnten unsere Partner in wenige Tagen ausmerzen. Der Explorer allerdings sträubte sich, auf die ersten Lösungsideen zu reagieren. Und die zweiten. Und die dritten. Und so gingen denn tatsächlich drei Monate ins Land, bis wir den Sprung in die Cloud auch mit unserem Produktivsystem machen konnten.
 
Unser Fazit: Die Migration in die Cloud ist heute wohl für viele Anwendungen eigentlich keine grosse Sache mehr, der Teufel, der trotzdem für Verzögerungen sorgen kann, scheint aber im Detail zu liegen. Wobei die Probleme, die wir hatten, eigentlich nichts mit der Cloud-Plattform zu tun hatten, sondern mit dem neuen Softwarestapel. Sie hätten also auch bei einer ganz klassischen Hardwareerneuerung auftreten können.(Hans Jörg Maron)