Veeam – Using Starwind VTL with AWS S3 in Veeam

StarWind Cloud VTL

I wanted to test this use case for a long time. Now it’s finally done and i’m happy that everything worked at the first try. Or should i be worried? Well, as Veeam always says “It just works (TM)”. So it did also during the write up of this guide.

Most of you will know this kind of backup media type. And some of you will not only have good memories of them. I’m talking about tapes. Tapes we’re once used for backups. Daily incremental and weekly full backups. It took ages the more data you had. You’ve been happy if a full backup fitted in a 8 hour window throughout the night. You know that. But tapes are coming up more and more again. If you heard about the recent ransomware WannaCry then you know what it means to airgap your backups. Even Google has it’s tape backup system. Yes, Google. And there are reasons why some companies still invent and develop new tape technologies like new LTO standards, new drives and libraries.

To be honest, most of us homelabbers don’t have a tape drive nor a tape library neither. And that’s the point where a Virtual Tape Library comes in very handy! You can emulate a complete tape library with software and even use this emulation in a availability software like Veeam Backup & Replication or Veeam Availability Suite! But that isn’t awesome enough. We want more awesome and that’s the reason we go to the next level.

To make it clear, i’m not only talking about homelabbers. This software is not a beta or alpha or something other. It’s a rocksolid production version which is available on the market. This guide will show you how to install and configure StarWind VTL for AWS and Veeam.

With StarWind Cloud VTL for AWS and Veeam you can leverage your backup data for the usage with a virtual tape library to archive your backups to Amazon S3 storage in the cloud. If you want you can even go further and archive your archived data from the Amazon S3 buckets to Amazon Glacier. Isn’t that awesome?

So let’s do this now! I’ll show you how to install and configure this solution, and how to make it work.

Read more

VMware – Create VAAI supported iSCSI LUNs on Synology

VAAI

Today i was working with storage topics. I tried to create iSCSI connections in my vSphere homelab and tried to figure out how to connect or mount iSCSI storage. I had already some iSCSI storage connected to my nested ESXi hosts. But i felt as there is something not correct. And i was right. After some research on the internet i’ve found out that you should take another approach to add iSCSI storage as i did in my previous post. There is a way that your new iSCSI storage on your Synology NAS is fully vSphere and VAAI compatible. Let me show you how you do that.

  1. Before we start to create storage and add it to our ESXi hosts you have to install the VAAI plugin from Synology:
    1. How do I install Synology NFS VAAI Plug-in on an ESXi host?
  2. Reboot your hosts after plugin installation

Now your hosts are ready to get connected to your VAAI supported Synology NAS. Let’s create now the iSCSI LUNs in the next step.

Read more

VMware – Homelab storage extension installed

storage

Recently i ordered the last piece of hardware for 2016 for use in my VMware vSphere homelab. I failled in the fourth VCP exam in December 2016 and that gave me the kick to extend my homelab a little, and look into storage stuff in detail.

Thoughts and requirements

I had some ideas in mind and received good inputs from my fellow homelab colleagues, but there are so much possibilities for extending storage. There are various NAS manufacturers and storage vendors. You can “extend” your storage even virtually with some virtual storage appliances. But i have to keep my budget small, well as small as possible for my needs. I don’t have a sponsor (would be nice indeed). So for the extension of my homelab any storage device other than a NAS costs way too much money. And i want to use real physical existent storage, so also a no-go for virtual storage appliances (which also requires some physical storage in the back end). This made the field of choice at least a little smaller, not much, and i’m still kicking out some devices to find the one which suits my needs the best.

Another point is network connectivity. My decision was to have four network ports on this specific NAS device. It should support link aggregation, load balancing and failover. The NAS device should also support NFS and iSCSI protocols so i can reach it from my ESXi hosts and use it. It would be the best for the integration into my homelab when i’m already familiar with a specific kind of device / operating system / manufacturer. Yes, i know, that’s not a real decision maker, at least not the best. But why struggle if there exist easy to setup systems? And last but not least it should be supported within VMware, for example with VAAI.

With all this points from above i decided to go for a Synology NAS device.

The hardware

The base system is a Synology DS1515+ NAS device. The technical specifications:

CPU Model Intel Atom C2538
CPU Architecture 64-bit
CPU Frequency Quad Core 2.4 GHz
System Memory 2 GB DDR3
Memory Expandable up to 6 GB (2 GB + 4 GB)
Drive Bay(s) 5
Hot Swappable Drive YES
RJ-45 1GbE LAN Port 4
VMware vSphere 5 with VAAI YES
VMware vSphere 6 with VAAI YES

Details specifications are available here: Synology DS1515+

Disks (capazity / cache)

I ordered also three WD Red SATA disk with 4TB each and two Sandisk X400 SSDs with 512GB each. In this configuration i’ll get enough raw storage space (roughly 8TB usable capazity). With two SSD in a Synology multi-bay NAS i can also configure read-write cache (you’ll get read cache only with one SSD).

So let’s get our hands on the hardware…

Read more

VMware Homelab – Hardware für den Homeserver

Die letzten Wochen über habe ich immer wieder häppchenweise Hardware für mein Homelab resp. den Homeserver bestellt. Ich konnte und wollte nicht alles auf einmal bestellen da ich zum einen, wie in einem vorherigen Post bereits angemerkt, kein unbegrenztes Budget habe, und im Moment auch nicht viel Zeit um die Hardware zusammenzubauen. Zudem will ich alles miteinander verbauen, und nicht jetzt mal etwas und in drei Wochen wieder etwas. Das macht mehr Spass 🙂

Nun ist die Hardware endlich komplett und der Zusammenbau kann beginnen. Als Homeserver habe ich meine ehemalige Game-Workstation wieder in Betrieb genommen. Diese bildet eine recht gute und solide Basis, wie ich finde, vor allem aber bietet sie ausreichend Platz für Hardware und Erweiterungen. Ein Intel Prozessor und ein ASUS Rampage Mainboard bilden das Fundament. Dazu gesellen sich insgesamt 64 GB Ram, ein LSI SAS-Controller, einige SSDs sowie ICY-Docks mit Hotplug-Einschüben.

Das ist die Hardwareliste für den Homeserver

CPU: Intel Core i7-3930K 3,2 GHz (Sandy Bridge E)
Mainboard: ASUS Rampage IV Extreme, Intel X79, Sockel 2011
Ram: Kingston Value RAM (2x, 8GB, DDR3-1600, DIMM 240)
SAS-Controller: LSI SAS 9211-8i HBAi (single)
SAS-Kabel: 3ware CBL-SFF8087OCF-10M, SFF-8087 zu 4 x SATA, 1m
VSAN Cache SSD: Crucial BX200 (240GB, 2.5″)
VSAN Capazity SSD: Samsung 850 EVO Basic (500GB, 2.5″)
Hotplug-Bay für die Disks: ICY DOCK MB996SP-6SB 6-Bay 2.5″ Backplane
Case:

Phanteks Enthoo Primo, schwarz (Big Tower, Schwarz)

Und so sieht das ganze aus

Geplanter Ausbau des Homelab

Auf dem Homeserver wird auf einer eigenen SSD ein ESXi installiert. Auf diesem ESXi wiederum werden drei weitere ESXi als virtuelle Maschinen laufen (nested ESXi). Jeder dieser VM sollen eigene physische Disks zur Verfügung stehen. Das Ziel dieses Homelabs ist eine nested ESXi Umgebung für den Betrieb mit VMware Virtual SAN. Auf den virtuellen ESXi werden schlussendlich einige weitere VMs laufen, um Dinge wie HA, DRS, FT etc. zu testen. Auch werde ich meine liebste Backup Software für die Datensicherung einsetzen. Alles in allem ein kleiner feiner Server. Leider lässt das Board nicht mehr als 64 GB Ram zu. Aber für den Anfang ist das für mich absolut ausreichend.

Vielleicht werde ich auch mal in Intel NUCs investieren und das Homelab weiter ausbauen. Drei Stück, mit all-Flash Konfiguration und 32 GB Ram sind die Basis für ein Homelab mit VSAN. Die bekommt man schon für wenig Geld. Müssen ja keine Hochleistungsrechner sein…

VMware vSphere Homelab: Die erste VM läuft im PoC

vSphere Web Client - vCenter

Heute Abend habe ich endlich wieder Zeit gefunden um mich um meinen Proof of Concept (PoC) zu kümmern. Wie vor einiger Zeit angekündigt arbeite ich derzeit an einem PoC für mein Homelab. Das Ziel des Homelab ist eine Anzahl an nested ESXi auf einem physischen ESXi zu installieren, und ganz oben drauf, auf den nested ESXi, einige VMs zu Testzwecken einzurichten. Schlussendlich soll mir das Homelab zum besseren Verständnis der VMware Technologien und zur Vorbereitung auf Zertifizierungsprüfungen dienen. Da noch nicht die gesamte Hardware bei mir ist (eine gute Basis ist sehr wohl vorhanden, es fehlen aber noch verschiedene Komponenten) musste ich mich etwas einschränken. Im Blogpost über die ersten Gehversuche im Homelab habe ich die ersten Schritte erklärt.

Nun habe ich heute Abend also meine erste VM innerhalb des PoC Homelabs, also dem ESXi Cluster mit VSAN, eingerichtet und installiert. Es war zu Beginn etwas mühsam. Ich bin auf das eine oder andere Problem gestossen welches ich lösen musste. Angefangen bei der VM-Konsole, über das Mounten des ISO-Images für das Betriebssystem bis hin zu DNS.

Problem 1 – PoC und die Eingabegeräte

Besonders mühsam war die VM-Konsole, also der “Bildschirm” über welchen ich die VM anschauen und bedienen kann. Mit vSphere 6 läuft der vSphere Web Client richtig gut. Ich habe im ersten Moment gar nicht daran gedacht den C# Client (Fat Client) zu installieren. Die Performance des Web Client ist toll, ein riesiger Sprung im Vergleich zu dessen Vorgängerversionen. Jedoch ist es so eine Sache mit der VM-Konsole in der HTML5 Oberfläche im Browser. Die Tastatur hat funktioniert, auch klicken mit der Maus war drin, aber den Cursor konnte ich nicht bewegen. Ich denke da herrscht noch Nachholbedarf seitens VMware. So musste ich dennoch den VMware vSphere Client herunterladen und installieren und konnte dann über diesen bequem die VM-Konsole starten.

Problem 2 – ISO-Image in den Datastore laden

Zugegeben, dieses Problem ist noch nicht gelöst. Aufgrund der nichtssagenden Fehlermeldung konnte ich hier auf die Schnelle keine Lösung finden. Es war nicht möglich via Browser (HTML5 Web Client) ein ISO-File in den VSAN Datastore hochzuladen, um dies dann bspw. für die Installation einer VM zu nutzen. Also musste ich das ISO-Image beim virtuellen (nested) ESXi einbinden und durchreichen. Das ist sicher nicht der übliche Weg, aber er hat funktioniert. Und nur für den PoC reichts allemal. Aber ich suche noch nach einer Lösung für dieses Problem.

Problem 3 – DNS, DNS, DNS…

Wenn es in einem Netzwerk zu irgendwelchen Problemen kommt, ist das wohl einer der ersten Punkte den man prüft. DNS. Kann ich den Hostnamen pingen? Wird der Hostname korrekt in eine IP-Adresse aufgelöst? Funktioniert das ganze auch zurück?

"Unable to connect to the MKS: Login (username / password) incorrect"

Das war die Fehlermeldung wenn ich die VM-Konsole starten wollte. Ein erster Ansatz war eine Konfigurationsdatei von VMware Workstation anzupassen und dort drin den “authd.client.port” auf Port 902 zu stellen (war bei mir 903). Anschliessend noch den “VMware Authorization Service” sowie den “VMware Workstation Server” neustarten, dann sollte es gehen. Sollte. Ging aber nicht. Also weitergrübeln und suchen. Ich fand einen Beitrag in der VMware Community der schlussendlich zur Lösung half. Anscheinend sind gewisse VMware Dienste / Programme heikel was DNS angeht. Wenn DNS nicht sauber funktioniert, funktionieren auch bestimmte Dinge bei VMware nicht. So konnte ich mich bspw. über die IP-Adresse der vCenter Server Appliance mit dem vSphere Client anmelden. Sobald ich aber die VM-Konsole öffnen wollte, erschien obige Fehlermeldung.

Sodann habe ich auf meinem Rechner das Hosts-File gesucht und die notwendigen Einträge gemacht. Anschliessend habe ich mich über den FQDN der vCenter Server Appliance mit dem vSphere Client verbunden und konnte erfolgreich die VM-Konsole starten.

Ach ja, so sieht sie aus, die erste VM im PoC Homelab…