Hej Gutter. Jeg har brug for lidt ekspertise da jeg ved meget lidt om området. Jeg har leget lidt med noget VMware for sjov og fået et system op at køre og det er pefekt til det behov jeg skal bruge. Indtil videre har jeg bare leget med alm. stationære hosts som jern, men jeg kan godt mærke der er nogle fysiske begrænsninger i henhold til alm harddiskes hastighed når vi når en vis antal VM´s.
Mit spørgsmål går derfor på.
Hvis jeg skal lave et system med ca. 50VM´s som skal køre henholdsvis Windows XP og Windows 7. Det forskellige maskiner skal bruges til at køre nogle rimelig lette dataprogrammer(opslagsværk), men nogle af programmerne indeholder en stor mængde data på 40-50gb så selvom selve programmet er let kørt skal der være en god mængde kapacitet på HD´s.
Hvis vi tager udgangspunkt i lad os sige: 35VM´s med XP 1GB ram og 80GB HD 15VM´s med enten XP eller Win7 - min. 2 GB ram og 200GB HD.
Hvad skal jeg anskaffe mig af jern for at det vil kunne køre stabilt 24/7 ?
I må meget gerne smide links og erfaringer også gerne til hvad man evt. bør købe.
SCVMM vælger jeg at køre ved siden af på en ældre HP Proliant med en E7400 4GB Ram.
Jeg er sfl. interesseret i at gøre det så billigt som muligt, men det er man vel altid 🙂
Kan jeg køre videre med dem og evt. anskaffe mig en god NAS og mounte som NFS eller hvad skal jeg gøre for at få så god disk ydelse som muligt til så billige penge som muligt. ?
Hvor mange diske har du til at køre dit setup på? og hvilke RPM kører de på??
Hvis du har 50 virtuelle maskiner skal du forvente at de alene ligger et voldsomt pres på dine diske, normalt vil jeg ikke anbefale dig at køre mere end 3-4 virtuelle maskiner per disk (og der kan de endda være presset)
#4 hvis der skal sådan 2stk i hver maskine bliver jeg hurtigt fattig 😲
Jep, og jeg tror måske ennda det bliver en dårlig løsning, for du bør have noget redundans på. Så en stor NAS / lille SAN vil nok være vejen frem. Om den så skal baseret på SSD eller HDD må være en vurderingssag.
Hvad er dit budget? Du skal have to servere med 64 GB RAM - RAM er relativt billigt, og det er rart at kunne have en server nede, og brugerne stadig kan arbejde med fuld hastighed.
Min 2 netkort i hver maskine.
Et lille SAN eller en krafig NAS. Evt en NAS med SSD Cache. Den skal køre iSCSI så et ekstra netkort til den også.
Køb så kraftige CPU'er du har råd til, gerne 2 CPU pr server. Du kan sagtens starte med de "servere" du har nu, og så opgradere til "rigtige" servere på sigt. Dog tror jeg dine to "små" CPU'er hurtigt vil blive overbelastet. - Så et par nye CPU'er gerne samme model som den anden, så kan du køre vmotion uden problemer.
Kører selv med 2x DELL 720 med 256 GB RAM og dual octo core CPU på arbejdet. Hertil et EMC SAN. Vi har haft et iSCSI setup med 24 diske og det performer bare ikke helt som et SAN.
Måsske noget i den stil - iSCSI SAN - http://www.edbpriser.dk/lagrin... Bemærk det er en listepris, hvis man går til en forhandler og presser dem lidt så kan man få den på bud. Hvis du flotter dig så etpar stykker af disse: http://www8.hp.com/dk/da/produ... #!tab=specs den mangler et par diske, og evt lidt mere RAM. Hvis du har et budget, så spil DELL og HP og evt en tredje part ud mod hinanden, så får du en super pris på det. De vil også være i stand til at rådgive dig.
Altså jeg vil sige at det som sådan kører nu, med den opstilling jeg har nævnt og har gjort det i 2-3år, men man begynder at mærke at diskene er ved at være slidte... så derfor jeg var lidt på udkig efter et alternativt som måske er mere "rigtig" end bare at køre med internal desktop storage diske..
Svaret blev redigeret 1 gang, sidst af Lenze d. 23-02-2015 13:56:23.
Denne NAS ser spændende ud - http://www.edbpriser.dk/nas-se... Sammen med nogle SSD'er og diske så har du en fornuftig NAS, der måske kan løse din udfordring.
#16 Kan du få første link fra #14 til at virke ? 🙂
Ang. #15 Okay, jeg læste bare i en af kommentarene:
After a few days of research I found that Areca 5040 can be both a NAS, and a workstation disk extension. I also needed to store/run lots of VMs for development purposes. I bought 4 2TB WD-FAEX disks with it, put them in RAID5 (resulting in 5.5TB), and successfully configured several computers for automatic backup to the NAS. I connected Areca to the main development workstation via ESATA, and am using it for running VMs. Network backups are performed via shared drive, and I'm not sure if this is right way (or only possible way). Anyway very happy with this device. It is small, quiet, has a great value for me, very fast. Sustained write speed is 85-90MB/s, read - about 100MB/s. Several VMs are currently running simultaneosly from the disk, and they are all fast.
#18 ja, sagtens, der var et . i slutningen af linket... Modellen er fra 2010, jeg vil ikke røre den med en ildtang - den det er selvfølgelig op til dig. 😉
Måske han mente at bruge zfs/freebsd til storage ? Det kan gøres meget billigt med noget ssd cache og log, en stor stak RAM, og så nogle store diske bagved... Mit zfs raid med 3 gamle diske yder noget der ligner 250 MB/s ved sekventiel read... Men at bruge ZFS i produktion er måske lidt farligt. Jeg har i hvert fald ikke tænkt mig at køre det, selvom alle mine private data ligger på flere zfs pools. ZFS understøtter iscsi, nfs mv
Svaret blev redigeret 3 gange, sidst af Swayde d. 23-02-2015 21:57:33.
Værd at notere: Hvis data ikke ligger på samme maskine via en SAN eller NAS løsning, dvs. NFS, iSCSI eller fiberchannel: Overvej kraftigt en UPS. Det vil blive temmeligt skidt, såfremt OS kører videre og "disken" dør. http://www.proshop.dk/UPS.htm
iSCSI understøttes af OS'et. Så hvis netkortet også gør det (altså virker i OS), så er der ingen problemer. Men jeg har nu altid haft en forkærlighed for Intels netkort. FreeBSD og Linux spiller bare max på Intel kontra Qualcomm og Atheros eller hvad de andre nu hedder 🙂
Svaret blev redigeret 1 gang, sidst af Had d. 25-02-2015 09:17:01.
Jeg vil anbefale to dedikerede netværk til iscsi. 2 switche så du kan tåle at den ene switch går ned. Det skal jo køre 24/7. Så et netkabel fra PC til hver switch og et kabel fra NAS til hver switch. Disse skal have andre IP adresser for at adskille dit data netværk og det LAN.
Jeg tror ikke umiddelbart at du får noget ud af at have 1 TB diske i raid 5, så hellere nogle almindelige diske og SSD som cache diske. Er 2 TB disk plads nok til dine 50 maskiner?
Netkort skal være noget Intel der er understøttet af vmware. Vedrørende switch, så kan du vælge at gå "all in" og købe 10 Gbit switche, så skal du selvfølgelig have 10 gbit netkort i serverne. Det er den dyreste løsning. Men en simpel 8 ports burde kunne løse din udfordring. Lidt læsestof: http://www.vmware.com/resource... Switchen skal understøtte jumboframes. I øvrigt, så vil du aldrig kunne udnytte mere end 1000 Mbit dvs max 125 MB/Sek i overførsel fra din NAS til dine servere, med mindre du kører 10 Gbit. Derfor overvej i stedet at nøjes med 2x 512 GB SSD'er og så 3-4 enterprise NAS diske i stedet. FX disse: http://www.edbpriser.dk/harddi...
Dvs. jeg burde egentligt kunne køre videre med mine 2x Intel Intel PRO/1000 GT Desktop Adapter i hver maskine som er gbit adaptere og understøttet af VMware ?
Jumbo frames er ikke alfa og omega. Der bliver talt og skrevet meget om jumbo frames, men det er altså ikke bare at sige "aktivér jumbo" og så er alt tip-top. Min erfaring med dem er, at det kræver en rigtig god netværksforståelse og tweaking af settings før det bliver virkeligt lækkert. Jeg synes du skal sigte efter flow control og Unicast stormcontrol. Din switch har allerede flow control.
Du skal adskille dit klient netværk og dit iscsi netværk, hvis du vil have ordentlig ydelse på systemet, dvs at du skal have flere porte i dine servere. Jeg ville nok vælge nogle enterprise NAS diske i stedet
To kabler fra dine servere til en switch som du har i forvejen, hvor dine almindelige brugere er koblet op på. To andre kabler til to nye switche og hrefra til din NAS Noget i den stil :