Jag har skaffat mig ett SAN till mitt vmware hemma lab. Detta för att jag behöver ett san att leka med för de lite mer avancerade funktionerna samt för att jag behöver utrymme när jag ska byta ut vmware mot Windows 8 och Hyper-v som är min plan så fort det når RTM. Tekniker som man är så blev det ju en hel del pillande för att få så mycket krut som möjligt ur den. Själva sanet är proppfullt med funktioner som DCHP server, webbserver, sql server, iTunes server, backup server osv. Men eftersom jag ska använda SANet med iSCSI och därför formaterat diskarna i “block-level” för bästa prestanda försvinner de funktionerna. Man kan inte heller använda sig av av delar av diskarna då utan allt går åt. Jag har 4 stycken Seagate Barracuda 7200 3000GB SATA 6Gb/s 7200rpm 64MB (ST3000DM001) diskar samt en 2TB western digital green disk som jag hade hemma. SANet har plats till totalt 8 diskar så jag har lite att växa i. Green disken ingår inte i iSCSI lunet eftersom det hade sänkt prestandan på de andra diskarna. Den disken har jag istället för de nämnda SAN funktionerna. De 4 3TB diskarna sitter i ett Raid5.
Jag tog fram allt det man hört om iSCSI och prestanda och började med att implementera det. Det var då främst att sätta på Jumbo frames och att isolera iSCSI nätet från det andra nätet. Efter att jag skapat mina VLAN och separerat näten kom jag på att jag inte kan nå iSCSI nätet från mina maskiner längre för att komma åt SANets egna funktioner på grund av att jag inte har en router eller layer 3 switch hemma. Det kan jag ju leva med tänkte jag men började ändå ifrågasätta vilken prestanda förlust jag kommer få med tanke på att jag inte har 500 datorer hemma. Det visar sig att separationen inte har mycket med prestanda att göra utan snarare handlar om att iSCSI är okrypterad trafik och data kan komma i fel händer. Jag litar ju på min flickvän så pass mycket att det inte är ett problem för mig (kanske mest för att jag är övertygad om att hon inte kan lyssna på okrypterad trafik 🙂 )
Sagt och gjort, mitt SAN får vara i samma nät som allt annat.
Synology boxen har en funktion som heter Link Aggregation (LAG). En funktion din switch måste stödja. Detta är alltså att man bondar ihop de 2 nätverkskorten till ett virtuellt och på det sättet ökar prestandan. Tyvärr stöds inte detta av VMWARE och hela funktionen faller därmed. Det verkar även som att de inte riktigt fungerar som man önskar, dvs att man får dubbla bandbredden. Jag märkte inte mycket skillnad i prestanda.
Det vettiga är alltså att sätta ett ip på varje NIC i NASen och och sen använda sig av VMware ESXs egna Multipath I/O. Den blir väl i slutändan ungefär samma sak, men det är det sättet VMware menar att man ska göra. Hela uppsättningen beskrivs i detalj här: http://forum.synology.com/wiki/index.php/How_to_use_iSCSI_Targets_on_VMware_ESXi_with_Multipath_I/O
Prestandan då? Att kopiera en fil från en maskin till SANet ligger i snitt på 120MB/s. Dvs att den maxar en 1GB lina och verkar inte kunna komma över det. För att nå högre hastigheter måste jag nog ha flera maskiner som kopierar, något jag inte testat. Det verkar inte som att det direkt är något mer än sjävla gigabit linan som stoppar en, för de flesta saker jag testade (en jävla massa, höll på i 4 dagar) resulterade i nästan obefintliga prestanda förändringar, inkl jumbo frames.
Jumbo frames är ett kapitel i sig, jag har valt att inte aktivera jumbo frames på mina maskiner utan bara mellan ESX servern och SANet. Det viktiga är väl att testa att pinga mellan esx och storage lösningen med större paket än 1500 MTU för att se att det verkligen fungerar.
Det som gjorde att jag letade så länge efter mer prestanda var den här posten http://www.microtom.net/os-management/synology-ds1512-versus-ssd-performance-benchmark-on-vmware-scvmm/ där han har modellen mindre än jag har men märkbart bättre prestanda. Efter att ha kollat runt på nätet och läst forum och annat så är han i särklass helt ensam om att lyckas få ut den här prestandan ur SANet. Han använder klart Hyper-V och inte ESX som jag gör, men det är ju då Windows 2008 R2 hyper-v vilket jag är ganska säker på inte har några prestanda fördelar jämfört med ESX.
Fråga är om det nya NIC teaming i windows 8 gör något annorlunda, ska bli spännande att se.