Blog infos – More hosting performance for the new year

In the history books of my website there are many written pages. Since the beginning of “blogging” (well, more technology testing and tasting at the past) my website moved around the globe. I started with a small hosting at Amazon AWS, with an EC2 compute instance, some storage and Cloudfrount CDN. That worked very well for me, but only for about a year or two. I then moved to another provider, one that is specialized in WordPress hosting. That pleased me very much because i like WordPress as a blogging software since i started with my website.

The guys at this new hoster moved all my content from Amazon to their hosting. And because they are Cloudflare partner, i came the first time in touch with greater scale website security, performance and content distribution networks, and that free of charge. Also this hosting went very well, but also just for about two years. It didn’t help the performance when the hoster is located in Canada and myself, and also most of my visitors, are located in Europe.

So there was another change in planning phase. I wanted to bring my content closer to my location and my readers. I decided to move my website back to a Swiss hoster. All the security and performance things i learned with Cloudflare i took with me, and my website was still under protection even at this new hoster. That worked well for me. But there were unfortunately some outtages i cannot explain. Sometimes my website was offline just some minutes, sometimes longer. I can’t explain why, we didn’t find out.

So again, i planned another move of my website, and again to a hoster which is specialized on WordPress hosting. I moved my website to Siteground.com. The guys there also moved all of my content to their servers, and helped my a lot with setting things up properly. And there were a lot of things i wanted, like SSL, redirects and many other things. We had a lot of support chat sessions, did a lot of testing and checks until my website was up and running. But the effort was worth it. My site now runs fine and stable. And if there is any issue, i just open a support ticket, and few minutes later my problem is even solved or they ask for more information via live chat.

Now my website runs at Siteground.com with a GoGeek plan which is crafted for WordPress geeks like me 😉

If you’d like to start also a new website hosting, or if you’re thinking about to move your existing website to another hoster, why not have a look here?

Web Hosting

Read moreBlog infos – More hosting performance for the new year

Veeam: kleine Performance-Optimierung

Mit dem Release von Veeam Backup & Replication v9 wurde die allgemeine Performance im Vergleich zu den Vorgängerversionen weiter verbessert. Version 8 lief schon sehr gut und hat überzeugende Resultate gezeigt. Mit Version 9 wurde das aber nochmals getoppt. Ebenso sind viele neue Features in die Software integriert worden. Drei kleine, vielleicht eher versteckte Features, möchte ich euch heute vorstellen. Sie sollen euch helfen noch etwas mehr Performance aus der Software rauszuholen und eure Backupzeitfenster weiter verkleinern.

Use per-VM backup files

Das erste der drei Feature ist auf Repository-Ebene zu finden und heisst “Per-VM Backup Files”. Wenn ihr einen Backup Job einrichtet und ihn auf das gewünschte Repository sichern lasst, macht Veeam erstmal eine grosse vbk-Datei und sichert dort alle VMs rein. Das gleiche passiert bei den darauf folgenden inkrementellen Sicherungen, da ists einfach eine grosse vib-Datei. Im Endeffekt wird einfach mit einem Stream auf das Repository geschrieben.

Mit der Funktion “Per-VM Backup Files” aus Version 9 sichert der Backup Job nicht mehr alles in einer Datei sondern erstellt für jede VM eine eigene Backup Chain. So könnt ihr das Repository besser auslasten und mehrere Streams parallel auf das Repository schreiben. Das steigert die Backup Performance erspart euch unter Umständen etwas Zeit beim Backup, da die Parallelisierung nicht nur im Job sondern auch auf Repository-Ebene genutzt werden kann. Ebenso hilfreich ist die Funktion, falls man eine VM restoren muss während das Backup läuft. So wird nicht das gesamte Backup-File durch Veeam blockiert sondern nur die Files die grad gesichert werden.

Macht einen Rechtsklick auf euer Repository => Edit => Repository => Advanced => Haken setzen bei “Use per-VM backup files”

Hinweis: bei einem leeren Repository wird diese Funktion beim nächsten Lauf des Backup Jobs aktiv. Bei einem Repository welches bereits genutzt wird muss erst ein Full Backup gemacht werden. Ab dem Startzeitpunkt des Full Backups wird pro VM eine Backup Chain erstellt.

Exclude deleted file blocks

Das zweite Feature ist auf Stufe Backup Job zu finden. Mit dem Aktivieren dieser Funktion werden gelöschte Datenblöcke innerhalb einer VM nicht mehr durch Veeam gesichert. Das erspart euch einige Gigabyte (oder vielleicht mehr) an Platz im Repository. Wenn man innerhalb einer VM Daten löscht (Platten bereinigt, Datenbanken verkleinert, grössere Datenmengen löscht) dann werden diese Blöcke als Frei / Überschreibbar markiert. Veeam achtet beim Changed Block Tracking darauf und sichert diese Blöcke, da sie sich ja verändert haben.

Wenn man nun die gelöschten Blöcke ausklammert mit dem Aktivieren dieser Funktion, weiss Veeam dass solche Blöcke nicht gesichert werden müssen, da sie gelöscht wurden und dort somit keine Daten enthalten sind.

Macht einen Rechtsklick auf den gewünschten Backup Job => Edit => Storage => Advanced => Storage

File Exclusions

Das dritte Feature im Bunde kennt man von diversen anderen Backupprogrammen. Neu in Version 9 können nun auch Dateien oder Ordner explizit vom Backup ausgeschlossen oder gegebenenfalls inkludiert werden. Dieses Feature findet man auf der Stufe der virtuellen Maschine. Vielleicht ist diese Funktion nicht unbedingt eine Performance-Optimierung. Aus meiner Erfahrung wird das Backupzeitfenster auf jeden Fall nicht sehr verlängert.

Nehmen wir einen WSUS-Server als Beispiel. Da liegen zig Gigabyte an Daten herum, Updates für Windows, Office und Co. und ihr wollt die nicht sichern. Das ist durchaus legitim. Sind ja Updates, kann man jederzeit wieder neu herunterladen. Das können aber auch andere Ordner oder Files sein, wie bspw. Druckertreiber. Ihr wisst selbst am Besten was ihr alles an Daten in eurer Infrastruktur habt.

Mit der Funktion von File Exclusions sagt ihr auf Stufe der VM welche Dateien oder Ordner ihr explizit nicht sichern wollt. Oder eben doch, wenn an einer VM noch eine Disk dranhängt, wo nur eine handvoll Ordner mit etwas an Daten drauf liegen. Dann könnt ihr explizit diesen Ordner angeben das er auch gesichert wird.

Macht einen Rechtsklick auf den gewünschten Backup Job => Edit => Guest Processing => Applications => Klickt die VM an => Edit => File Exclusions

Fazit zur Performance

Alles in allem drei doch sehr hilfreiche Funktionen, finde ich, wenn es um Performance und Platz sparen geht. Die Performance von Veam Backup & Replication sucht seinesgleichen. Ich persönlich kenne keine Backupsoftware die schnell mal über den Mittag in einer halben Stunde eine ganze vSphere Infrastruktur sichert. Klar, das ist sicher abhängig von den eingesetzten Komponenten (Hosts, Storage, Backupserver, Netzwerk etc.). Und wenn man da noch das eine oder andere Quäntchen rausholen kann, wieso nicht? Selbst physische Server können mittlerweile mit Veeam gesichert werden, bald sogar richtig sauber auch Exchange und SQL, inkl. Log-Truncation. Aber dazu zu einem späteren Zeitpunkt mehr…

Veeam Dateierweiterungen / Filetypes / weiterführende Links

Dateierweiterung Beschreibung
.vbk Full backup file
.vib or .vrb incremental backup file
.vbm Backup Metadata
.bco Veeam configuration backup
.vsb Pointers to backup data blocks
.vlb SQL server transaction log files

CloudFlare, mein neues CDN

Vor ein paar Wochen habe ich bereits einen kleinen Bericht veröffentlicht. Ich musste mich vom Plug-In “W3 Total Cache” trennen. Installiert ist es nach wie vor, in der Hoffnung dass die Probleme durch die Entwickler irgendwann mal gelöst werden. Siehe hierzu den passenden Artikel. Ich habe mich damit abgefunden und die Seite lange Zeit einfach so belassen wie sie ist. Soll halt das Bild vom CDN kommen. Ich hatte nun aber die Nase voll und habe das Plug-In komplett deaktiviert.

Das CDN wurde ebenso ersetzt. Die Webseite läuft nach wie vor bei Amazon. Das CDN jedoch wurde ausgelagert. Die Firma CloudFlare, welche auf CDN-Dienste und andere Web-Techniken spezialisiert ist, hostet nun mein kleines CDN. Und das ohne komplizierte Konfiguration. Der Standard-Account ist kostenlos und bietet bereits eine riesige Menge an Möglichkeit um zum einen die Webseite zu beschleunigen aber auch sie sicher zu machen. Die Anmeldung für den Account ist in ein paar Minuten erledigt. Die Anmeldung der Webseite ebenso. Das einzige was man selber machen muss, sind die DNS-Einträge. Wenn man die Domain selber verwaltet, ist das ebenso in kürzester Zeit erledigt. Ansonsten muss man das bei seinem Provider beantragen. Der DNS läuft anschliessend über die DNS-Server von CloudFlare, damit zum einen die Webseite nach wie vor funktioniert, und zum anderen auch das CDN aktiviert werden kann.

Ich werde nun in den nächsten Tagen und Wochen mal etwas damit rumspielen und die Seite noch weiter optimieren. Auch das derzeit aktivierte Theme gefällt mir nur mässig. Es ist zwar recht schnell, da ziemlich spartanisch. Aber es gibt etwas wenig her, es dürfte etwas farbenfroher sein und vielleicht auch das eine oder andere coole Feature enthalten. Mal sehn was sich hier machen lässt.

CDN CloudFlare