eye-q
Goto Top

Serverkomponenten für Hyper-V mit mehreren ServerVMs

Hallo zusammen,

momentan habe ich einen schon etwas älteren Server als Hyper-V Host
2x Intel Xeon E5-2620 v2
128GB RAM
RAID 10
RAID-Controller: Adaptec 6805E
4x SAS-Platten Seagate Constellation ES.3 2TB als RAID 10 Verbund

mit inzwischen 6 Server VMs und das Ganze geht jetzt so langsam in die Knie face-smile
CPU-Auslastung der VMs ist eher gering, ich denke der Flaschenhals sind die Plattenzugriffe

Beim neuen Server würde ich gerne gleich auf auf U.2 NVMe setzen
Die Konfiguration sieht so aus:

Supermicro 2HE SuperChassis 825TQC-R802LPB 800W redundant
Supermicro X12SPi-TF mit 2x 10GBase-T
Intel Xeon Silver 4314, 16C/32T
2x Samsung RDIMM 64GB

Broadcom MegaRAID 9560-8i, PCIe 4.0 x8
2x Samsung OEM Datacenter SSD PM9A3 960GB, U.2 als RAID 1 für den Host
4x Samsung OEM Datacenter SSD PM9A3 3.84TB, U.2 als RAID 10 für die Guests

Guests sind alles Windows-Server (DC und SQL-Datenbank basierte Anwendungen) keine großartigen Terminalgeschichten

Könnte man das so machen oder wie sind eure Erfahrungen Hyper-V mit mehreren ServerVMs?


Danke euch schon mal!!

Content-Key: 94199230718

Url: https://administrator.de/contentid/94199230718

Printed on: April 27, 2024 at 17:04 o'clock

Member: DerMaddin
DerMaddin Sep 19, 2023 at 11:02:47 (UTC)
Goto Top
Die Hardware welche du benötigst sollte allen aktuellen Anforderungen der VMs erfüllen. Daher ist das so pauschal nicht zu beantworten, ob deine Wahl ausreichend ist.

Generell ist zu sagen, dass ein Xeon Silver 4314 eine relativ schwache CPU ist. Mit dem Basistakt 2.40 GHz wird man evtl. schon an evtl. Mindestanforderungen von Apps kommen. Vielleicht besser einen Xeon Gold 6323@2.90GHz nehmen, das sind ca. €500 mehr.

128GB RAM ist schon sehr knapp. SQL, und vor allem die Standard Edition, kann je nach DB Anzahl und Größe schon die Hälfte für sich beanspruchen. DC, DNS, DHCP etc. je 4GB reicht. Nimm 256GB.

SSD als OS Disk ist okay. Für den Rest würde ich evtl. auf eine, wenn möglich hybride Lösung gehen. Also alles was nicht IOPS braucht auf HDD und SQL und zeitkritische Apps auf SSDs.
Mitglied: 8585324113
8585324113 Sep 19, 2023 at 11:05:37 (UTC)
Goto Top
Suche dir bitte jemand der Ahnung hat.
Member: kpunkt
kpunkt Sep 19, 2023 at 11:30:53 (UTC)
Goto Top
Zitat von @Eye-Q:

mit inzwischen 6 Server VMs und das Ganze geht jetzt so langsam in die Knie face-smile
CPU-Auslastung der VMs ist eher gering, ich denke der Flaschenhals sind die Plattenzugriffe

Wenns das ist wirds reichen. RAM ists nicht?
Member: NordicMike
NordicMike Sep 19, 2023 at 11:49:13 (UTC)
Goto Top
ich denke

Prüf doch mal ...
... bevor du anhand der Gedanken investierst.
(Task Manager, Recourcenmonitor)
Member: erikro
erikro Sep 19, 2023 at 13:41:00 (UTC)
Goto Top
Moin,

wie die Kollegen schon gesagt haben, ist das sehr unspezifisch. Deshalb nur ein paar allgemeine Bemerkungen.

Zitat von @Eye-Q:
Supermicro 2HE SuperChassis 825TQC-R802LPB 800W redundant
Supermicro X12SPi-TF mit 2x 10GBase-T

Supermicro werde ich den Rest meines Daseins nie wieder verbauen. Das ist billig, nicht preiswert. Nimm lieber was richtiges von HP oder Dell.

Intel Xeon Silver 4314, 16C/32T

Etwas schwachbrüstig. Wie sieht denn die CPU-Last auf dem bestehenden System aus?

2x Samsung RDIMM 64GB

Wenn es denn reicht. Das musst Du wissen. Wenn Du meinem Rat folgst, dann achte darauf, dass der Speicher vom Hersteller zertifiziert ist. Sonst ist es mit dem Support immer schwierig.

Broadcom MegaRAID 9560-8i, PCIe 4.0 x8

RAID sollte ein anständiger Server von sich aus on board mitbringen.

2x Samsung OEM Datacenter SSD PM9A3 960GB, U.2 als RAID 1 für den Host
4x Samsung OEM Datacenter SSD PM9A3 3.84TB, U.2 als RAID 10 für die Guests

Platten auch immer nur die, die der Hersteller zertifiziert hat.

Guests sind alles Windows-Server (DC und SQL-Datenbank basierte Anwendungen) keine großartigen Terminalgeschichten

Etwas spezifischer sollten die Angaben schon sein. face-wink

hth

Erik
Member: Eye-Q
Eye-Q Sep 19, 2023 updated at 14:18:33 (UTC)
Goto Top
Danke erst mal an alle (außer an 400GBit)!

Xeon Silver ist schwach, das ist mir bewusst - ich hatte ja auch geschrieben, dass CPU-Last jetzt nicht so das Problem ist (lt. Leistungsüberwachung auf dem Host), der Aufpreis für nen Gold kann aber trotzdem sinnvoll sein
RAM ist auch nicht das Problem und nachrüstbar...und ja, der Speicher ist zertifiziert für das Board

@Eric
Supermicro = Billigschrott ist Deine persönliche Meinung, die ich absolut respektiere!
Ich hatte auch schon Server von HP und Dell, die nicht wirklich das Gelbe vom Ei waren und der Onsite-Support seine Freude am Teile tauschen hatte.
Trotzdem interessant, ich werde mir das anschauen

Mir geht es in erster Linie um die Performance der VMs. Hochfahren dauert eine Ewigkeit (selbst bei neu aufgesetzten VMs, Remotesupport ist sehr träge (und an der CPU/RAM-Auslastung liegt es definitiv nicht)

Falls jemand weiß, wie man die Auslastung des RAID/HDD auslesen kann (maxView Storage Manager), wäre ich sehr dankbar.

In erster Linie geht es mir um den Performancegewinn von NVMe im Raidverbund gegenüber SAS...

Danke nochmal!
Member: erikro
erikro Sep 19, 2023 at 14:24:22 (UTC)
Goto Top
Moin,

Zitat von @Eye-Q:
@Eric

Mit K bitte. face-wink

Supermicro = Billigschrott ist Deine persönliche Meinung, die ich absolut respektiere!
Ich hatte auch schon Server von HP und Dell, die nicht wirklich das Gelbe vom Ei waren und der Onsite-Support seine Freude am Teile tauschen hatte.

Das kann man immer haben. Bei Supermicro gibt es aber oft schon für fünf Jahre alte Systeme keine Ersatzteile mehr. Ich hatte z. B. mal einen, dessen Netzteil kaputt gegangen ist. Das musste ich dann gebraucht in der Bucht beschaffen, weil es das neu nicht mehr gab. Und Support war Fehlanzeige. Die konnten mir noch nicht einmal sagen, ob das Teil, das ich gefunden habe, auch wirklich passt. Ich musste mich da dann auf die Aussage des Händlers verlassen. Sowas ist mir bei HP oder Dell noch nie passiert.

Trotzdem interessant....Kannst Du evtl. Serversysteme von HP und Dell empfehlen, die einen Raidcontroller mit U2.NVMe Unterstützung haben?

AFAIK können das alle aktuellen Modelle. HP oder Dell kann ich aus Erfahrung allgemein empfehlen. Um wirklich was konkretes empfehlen zu können, müssten wir, wie schon gesagt, mehr über die Anforderungen wissen.

Mir geht es in erster Linie um die Performance der VMs. Hochfahren dauert eine Ewigkeit (selbst bei neu aufgesetzten VMs, Remotesupport ist sehr träge (und an der CPU/RAM-Auslastung liegt es definitiv nicht)

Das werden schon die drehenden Platten sein. Wie sieht denn die Speicherauslastung beim bestehenden System aus? Wenn der Remotesupport träge ist, könnte es auch das Netz sein.

In erster Linie geht es mir um den Performancegewinn von NVMe im Raidverbund gegenüber SAS...

Da kriegt man erstmal einen Geschwindigkeitsrausch, wenn man drehende Platten gewohnt ist. face-wink

Liebe Grüße

Erik
Mitglied: 8585324113
8585324113 Sep 19, 2023 at 16:52:31 (UTC)
Goto Top
Zitat von @Eye-Q:

Danke erst mal an alle (außer an 400GBit)!


Danke nochmal!

Nicht so sensibel, der Rat würde deinem Setup und deinem Budget gut tun.
Irgendwie sieht dein Setup nicht nach Server aus.
Member: Eye-Q
Eye-Q Sep 19, 2023 at 20:01:57 (UTC)
Goto Top
Zitat von @erikro:

Moin,

Zitat von @Eye-Q:
@Eric

Mit K bitte. face-wink

Supermicro = Billigschrott ist Deine persönliche Meinung, die ich absolut respektiere!
Ich hatte auch schon Server von HP und Dell, die nicht wirklich das Gelbe vom Ei waren und der Onsite-Support seine Freude am Teile tauschen hatte.

Das kann man immer haben. Bei Supermicro gibt es aber oft schon für fünf Jahre alte Systeme keine Ersatzteile mehr. Ich hatte z. B. mal einen, dessen Netzteil kaputt gegangen ist. Das musste ich dann gebraucht in der Bucht beschaffen, weil es das neu nicht mehr gab. Und Support war Fehlanzeige. Die konnten mir noch nicht einmal sagen, ob das Teil, das ich gefunden habe, auch wirklich passt. Ich musste mich da dann auf die Aussage des Händlers verlassen. Sowas ist mir bei HP oder Dell noch nie passiert.

Trotzdem interessant....Kannst Du evtl. Serversysteme von HP und Dell empfehlen, die einen Raidcontroller mit U2.NVMe Unterstützung haben?

AFAIK können das alle aktuellen Modelle. HP oder Dell kann ich aus Erfahrung allgemein empfehlen. Um wirklich was konkretes empfehlen zu können, müssten wir, wie schon gesagt, mehr über die Anforderungen wissen.

Mir geht es in erster Linie um die Performance der VMs. Hochfahren dauert eine Ewigkeit (selbst bei neu aufgesetzten VMs, Remotesupport ist sehr träge (und an der CPU/RAM-Auslastung liegt es definitiv nicht)

Das werden schon die drehenden Platten sein. Wie sieht denn die Speicherauslastung beim bestehenden System aus? Wenn der Remotesupport träge ist, könnte es auch das Netz sein.

In erster Linie geht es mir um den Performancegewinn von NVMe im Raidverbund gegenüber SAS...

Da kriegt man erstmal einen Geschwindigkeitsrausch, wenn man drehende Platten gewohnt ist. face-wink

Liebe Grüße

Erik

Hi Erik, sorry vielmals für das c face-smile
Hast Du Erfahrung mit SSDs im Serverbereich?
SAS3 SSD oder U.2 NVMe? (Warum ist SAS3 teurer, wegen TBW?)


Zitat von @8585324113:

Zitat von @Eye-Q:

Danke erst mal an alle (außer an 400GBit)!


Danke nochmal!

Nicht so sensibel, der Rat würde deinem Setup und deinem Budget gut tun.
Irgendwie sieht dein Setup nicht nach Server aus.

Was wäre denn ein adäquater Server für Dich? Über ein paar Ratschläge würde ich mich sehr freuen.
Mitglied: 8585324113
8585324113 Sep 19, 2023 at 20:25:11 (UTC)
Goto Top
Jedenfalls keine Octa-Channel CPU mit zwei RAM Modulen?

Ein Motherboard teuerer als die CPU? Um dann einen RAID Controller mit den Laufwerken zu langweilen?

Oder ein komisches RAID Design an einem Controller dieser Art und Güte. Warum überhaupt der Controller bei dem Board?

Usw... Usw...
Member: Eye-Q
Eye-Q Sep 19, 2023 at 22:18:46 (UTC)
Goto Top
Zitat von @8585324113:

Jedenfalls keine Octa-Channel CPU mit zwei RAM Modulen?

Ein Motherboard teuerer als die CPU? Um dann einen RAID Controller mit den Laufwerken zu langweilen?

Oder ein komisches RAID Design an einem Controller dieser Art und Güte. Warum überhaupt der Controller bei dem Board?

Usw... Usw...

Dann ohne Controller mittels VROC? Welches RAID Design würdest Du wählen?
Mitglied: 8585324113
8585324113 Sep 20, 2023 at 04:04:08 (UTC)
Goto Top
Für deine Konstruktion reicht es völlig die Laufwerke an das Board anzuschließen.

Der Controller sollte mit mindestens zwölf SSDs versorgt werden, dass seine Investition überhaupt Sinn macht. Und wozu ein R1 für das OS?

Es mutet alles sehr komisch an.

Zwischenzeitlich hättest du bei Dell und HP ein Angebot einholen können.
Member: NordicMike
NordicMike Sep 20, 2023 at 05:52:50 (UTC)
Goto Top
Und wozu ein R1 für das OS?
Das ist nichts ungewöhnliches. Im Gegenteil, alle unsere Server haben ein Raid-1 als OS. Selbst der Dell Powerstore verwendet in jedem seiner Nodes jeweils zwei NVMEs im Raid-1.

Der Controller sollte mit mindestens zwölf SSDs versorgt werden, dass seine Investition überhaupt Sinn macht.
Onbaord Controller sind recht unflexibel, wenn man auf / umrüstet oder im Fehlerfall das Raid Set wo anders hoch fahren möchte. Womit wir zu dem kommen was die Firma überhaupt für Anforderungen hat:

Es kommt immer darauf an, wie die IT Abteilung im Haus aufgestellt ist. Es gibt Firmen, die den Server mit Service kaufen, es gibt Firmen, die IT Techniker im Haus haben und alles selbst machen. Grundsätzlich muss demnach bereits entscheiden werden welche Hardware zum Einsatz kommt. Wenn die Server mit Service eingekauft werden, ist es relativ egal, was drinnen ist und ob der Controller on board ist. Man stellt die Anforderungen von Performance, Sicherheit, Vertragszeit und Reparaturzeit an den Verkäufer und bezahlt es auch dem entsprechend. Wenn man die Techniker im Haus hat, dann holen sie schon mal das Raid Set inkl Controller Steckkarte raus und betreiben es in einem Ersatzserver weiter oder stecken es irgendwo dazu, Hauptsache es läuft sofort wieder. Das ist schneller als jeder Vertrag mit HP oder Dell, die erst einmal anfahren müssten. Auch HP und Dell wollen was verdienen und schlagen einen kalkulierten Gewinn drauf. Diesen Gewinn spart man sich, wenn man das Know How und die Manpower im Haus hat. Bei mehreren Serverräumen im Haus kommt da eine hübsche Summe zustande, die man sich einsparen kann.

Bei Supermicro gibt es aber oft schon für fünf Jahre alte Systeme keine Ersatzteile mehr.
Dafür sind sie deutlich günstiger, wenn man sich zu helfen weiss. Dafür sind mir auch schon in einigen Dell Servern die Boards abgeraucht, während die Supermicro Boards laufen und laufen. Wir haben noch Server mit DDR2 RAM in Betrieb und sie wollen einfach nicht kaputt gehen. Manchmal ist es einfach Glück oder Zufall und so hat jeder seine Meinung und Erfahrung, die mit dem nächsten überhaupt nicht überein stimmt.
Mitglied: 8585324113
8585324113 Sep 20, 2023 at 06:06:47 (UTC)
Goto Top
Dell Powerstore ist ein Produkt! (Was ich sogar sehr gerne habe, mittlerweile)

Ich meinte nicht den OnBoard-Controller, der bei dem Board ohnehin nicht vorhanden ist. Der 9560 ist in der Konfig fehlplatziert.

Die IOPS einer SATA SSD würden reichen.

Wenn es eine dedizierte Raid-Lösung sein muss, als Controller oder Onboard, dann würde ich mindestens 12 SSDs dran hängen. 12x 500GB z. B.
Wozu sonst der Controller?

Die CPU wird keine Anwendungen Virtualisierungen über HV die 10k+ IOPS irgendwie abwickeln kann.

Ich bleibe dabei, die Hardware ist sehr merkwürdig gewählt, vermutlich wegen Unkenntnis.

Sowohl ein Host-Based als auch der Baremetal HV können in de Leistungsklasse beruhigt ohne klassisches Raid laufen. Was auch spätere Probleme nur vereinfacht.
Member: Eye-Q
Eye-Q Sep 20, 2023 at 10:31:13 (UTC)
Goto Top
Zitat von @NordicMike:

Und wozu ein R1 für das OS?
Das ist nichts ungewöhnliches. Im Gegenteil, alle unsere Server haben ein Raid-1 als OS. Selbst der Dell Powerstore verwendet in jedem seiner Nodes jeweils zwei NVMEs im Raid-1.

Der Controller sollte mit mindestens zwölf SSDs versorgt werden, dass seine Investition überhaupt Sinn macht.
Onbaord Controller sind recht unflexibel, wenn man auf / umrüstet oder im Fehlerfall das Raid Set wo anders hoch fahren möchte. Womit wir zu dem kommen was die Firma überhaupt für Anforderungen hat:

Es kommt immer darauf an, wie die IT Abteilung im Haus aufgestellt ist. Es gibt Firmen, die den Server mit Service kaufen, es gibt Firmen, die IT Techniker im Haus haben und alles selbst machen. Grundsätzlich muss demnach bereits entscheiden werden welche Hardware zum Einsatz kommt. Wenn die Server mit Service eingekauft werden, ist es relativ egal, was drinnen ist und ob der Controller on board ist. Man stellt die Anforderungen von Performance, Sicherheit, Vertragszeit und Reparaturzeit an den Verkäufer und bezahlt es auch dem entsprechend. Wenn man die Techniker im Haus hat, dann holen sie schon mal das Raid Set inkl Controller Steckkarte raus und betreiben es in einem Ersatzserver weiter oder stecken es irgendwo dazu, Hauptsache es läuft sofort wieder. Das ist schneller als jeder Vertrag mit HP oder Dell, die erst einmal anfahren müssten. Auch HP und Dell wollen was verdienen und schlagen einen kalkulierten Gewinn drauf. Diesen Gewinn spart man sich, wenn man das Know How und die Manpower im Haus hat. Bei mehreren Serverräumen im Haus kommt da eine hübsche Summe zustande, die man sich einsparen kann.

Bei Supermicro gibt es aber oft schon für fünf Jahre alte Systeme keine Ersatzteile mehr.
Dafür sind sie deutlich günstiger, wenn man sich zu helfen weiss. Dafür sind mir auch schon in einigen Dell Servern die Boards abgeraucht, während die Supermicro Boards laufen und laufen. Wir haben noch Server mit DDR2 RAM in Betrieb und sie wollen einfach nicht kaputt gehen. Manchmal ist es einfach Glück oder Zufall und so hat jeder seine Meinung und Erfahrung, die mit dem nächsten überhaupt nicht überein stimmt.

Danke NordicMike - wir liegen auf einer Wellenlänge
OS/Hyper auf RAID 1, Daten/VMs auf RAID 10, das war bisher immer state of the art
Ich mach das schon seit 25 Jahren mit Hardware-Raidcontrollern und bin immer gut gefahren damit (Wie Du sagst, schneller Wechsel in ein neues System) - kein einziger (ob Adaptec oder LSI) ist bisher ausgefallen - Onboard-Lösungen waren nie ein Thema, aber man lernt ja nie aus.
Bei onboard-Lösungen wie Virtual RAID on CPU (was Board und CPU unterstützen würden) fehlt mir die Erfahrung

Supermicro genau aus Deinem genannten Grund, Dell und HP Server sind überteuert und bieten keinen Mehrwert für mich (im Gegenteil...sind auch schon abgeraucht und der Support war auch nicht der Zuverlässigste).

Hast Du Erfahrungen mit SATA-SSD/SAS-SSD/NVMe im RAID-Verbund in Verbindung mit Hyper-V?
Welches Design würdest Du wählen? Welchen Controller?
Danke Dir!


Zitat von @8585324113:

Dell Powerstore ist ein Produkt! (Was ich sogar sehr gerne habe, mittlerweile)

Ich meinte nicht den OnBoard-Controller, der bei dem Board ohnehin nicht vorhanden ist. Der 9560 ist in der Konfig fehlplatziert.
Der Controller deshalb, wegen der U.2 NVMe-Unterstützung


Die IOPS einer SATA SSD würden reichen.
Dann würde ein kleinerer Controller ausreichen


Wenn es eine dedizierte Raid-Lösung sein muss, als Controller oder Onboard, dann würde ich mindestens 12 SSDs dran hängen. 12x 500GB z. B.
Wozu sonst der Controller?
Weil er U.2 NVMe unterstützt


Die CPU wird keine Anwendungen Virtualisierungen über HV die 10k+ IOPS irgendwie abwickeln kann.
Darum geht's auch nicht


Ich bleibe dabei, die Hardware ist sehr merkwürdig gewählt, vermutlich wegen Unkenntnis.

Sowohl ein Host-Based als auch der Baremetal HV können in de Leistungsklasse beruhigt ohne klassisches Raid laufen. Was auch spätere Probleme nur vereinfacht.
Ich würde mich immer noch über ein Designvorschlag freuen
Member: DerMaddin
DerMaddin Sep 20, 2023 at 11:03:17 (UTC)
Goto Top
Zitat von @Eye-Q:

Hast Du Erfahrungen mit SATA-SSD/SAS-SSD/NVMe im RAID-Verbund in Verbindung mit Hyper-V?
Welches Design würdest Du wählen? Welchen Controller?

SATA, SAS oder U.2 (NVMe ist kein Interface sondern ein Protokoll) und andere haben ihre Limits. SATA mit 6Gb/s ist nicht das schnellste. SAS gibt es mittlerweile mit 12Gb/s und auch 24Gb/s, das ich aber bisher kaum in der freien Wildbahn gesehen habe und auch sehr teuer ist. U.2 ist speziell für den Enterprise Bereich, die Geschwindigkeit ist abhängig von der SSD Generation/Controller und natürlich dem PCIe Controller den du einsetzt.

Ob HyperV oder VMware oder anderer Hypervisor, macht keinen Unterschied. Die Leistung wird bei allen in etwa gleich sein, vorausgesetzt alles ist richtig im Host OS/Hypervisor konfiguriert. Wir haben kein lokales Storage für die VM-Daten sondern ein SAN mit All Flash (NVMe an SAS 12Gb/s) die per DAC (je 4x 10Gb/s) mit den Hosts angeschlossen sind und trotzdem können wir mit keiner Software und App die Leistung abrufen. Lt. SAN Monitoring bist zu 50k IOPS. Im Wochenschnitt eher bei 5-8k. Schaut man sich je nach Tageszeit die letzten 30 Minuten an, dann noch weniger.
Mitglied: 8585324113
8585324113 Sep 20, 2023 at 16:08:02 (UTC)
Goto Top
Zitat von @Eye-Q:

Ich würde mich immer noch über ein Designvorschlag freuen

Da du meinst, dass Dell und HP zu teuer und nicht gut genug sind und ich meine und weiß, dass die beiden jeden Preis unterbieten können, ist eine Hilfe schwer.
Erschwerend kommt hinzu, dass die selbstgebauten Server in vielerlei Hinsicht keinen "echten" Support haben. Bestenfalls Garantie oder Gewährleistung und einen Download für Treiber.

Ich persönlich würde für deinen Workload zwei SATA oder SAS-SSDs direkt an ein Board hängen. ein raid für OS und eine Raid für HV ist irgendwie 1997 und war damals schon ungewöhnlich.

Wenn du unbedingt einen dedizierten Controller haben willst, was ich gut verstehen kann als Nerd, dann sollte der entsprechend seiner Stärken befüttert werden. Heißt genug Laufwerke für ein Raid 6, 10, 50 oder 60 bekommen.

Bei Supermicro, was übrigens wirklich sehr sehr gute Hardware ist, kann man gezielt Boards und Server nach NVME und SAS aussuchen. Für seine Belange sollte onboard SAS genauer geprüft werden.

Ich finde auch die "Twin" Server von SM sehr gut. wir schaffen sie zur Zeit als Proxy-Hardwares für unsere WCF-Webserver an und es ist schon praktisch, wenn zwei Server in dem Gerät sind.
Mitglied: 8585324113
8585324113 Sep 20, 2023 at 16:13:33 (UTC)
Goto Top
Übrigens, wenn Du bei Dell auf der Homepage dir die Server samt Preise abguckst, dass ist bei weitem nciht der Preis, denn dir der Vertrieb machen wird, wenn du da anrufst. Dem vertrieb musst Du aber auch sagen, dass du HP oder SM kaufen wirst, wenn der Preis nicht simmt.

Ich persönlich würde in deinem Fall wohl zu einem R6515/R6615 oder R6525/R6625 greifen mit Gehäuse für bis zu 10 2,5" Laufwerken. Den HV würde ich Baremetal betreiben.
Member: DerMaddin
DerMaddin Sep 21, 2023 at 06:41:10 (UTC)
Goto Top
Zitat von @8585324113:

Ich persönlich würde für deinen Workload zwei SATA oder SAS-SSDs direkt an ein Board hängen. ein raid für OS und eine Raid für HV ist irgendwie 1997 und war damals schon ungewöhnlich.

Ich kann dieser Aussage nur widersprechen. Es hat schon einen Sinn warum OS Disks ein eigenes RAID1 haben und Daten auf einem RAID10/5/6 liegen. Nur um einige Gründe zu nennen:

*RAID1 Rebuild ist wesentlich schneller als 5/6/10
*OS Disks können wesentlich kleiner dimensioniert werden als Daten Disks => Kosten
*Sicherheit: OS von Daten trennen
*Performance: OS Disk Aktivitäten beeinflussen nicht das Daten RAID
Mitglied: 8585324113
8585324113 Sep 21, 2023 at 06:43:28 (UTC)
Goto Top
Da muss ich dir wiedersprechen.

Ein RAID kann auch in Minuten sich neu rappeln, dafür gibt es Gründe.
Member: DerMaddin
DerMaddin Sep 21, 2023 at 07:15:02 (UTC)
Goto Top
Zitat von @8585324113:

Da muss ich dir wiedersprechen.

Ein RAID kann auch in Minuten sich neu rappeln, dafür gibt es Gründe.

Absolut FALSCH. RAID1 ist hier eine Ausnahme, da eine Disk gespiegelt wird und hier quasi nur 1:1 kopiert wird. Bei RAID5/6 müssen die Daten aus den verteilten Paritäten errechnet werden durch den Controller. Das dauert je nach Disk Größe und deren Durchsatz eine laaaange Zeit. RAID5 1TB so ca. 3-4 Tage, RAID6 aber schon eine Woche und mehr.

Aber bitte, zeig mir den Grund warum das nur Minuten dauert?
Mitglied: 8585324113
8585324113 Sep 21, 2023 at 07:21:16 (UTC)
Goto Top
Weil man nicht alle Stripes allokieren muss und jedes größere und bessere System so arbeitet, weil sonst die Performance Weg ist?

Außer gibt es Systeme die auf dem Storage-Drive mehrere RAID Modus gleichzeitig fahren.
Member: DerMaddin
DerMaddin Sep 21, 2023 at 07:53:22 (UTC)
Goto Top
Deine Theorie basiert auf der Annahme, dass ein Volume nicht besonders voll ist und somit das Storage nicht alle Data-Stripes allokiert hat. Deine Minuten für den Rebuild können nur passen, wenn es wenig allokierte Daten-Stripes gibt, das Storage entsprechend schnelle SSDs hat, wenig IO Aktivität und Last vorhanden ist.

In einem produktiven Umfeld ist immer eine Grundlast und IO vorhanden und ich zweifle daran, dass man extrem große LUNs erstelle, die dann unter 10% genutzt werden.
Mitglied: 8585324113
8585324113 Sep 21, 2023 at 07:58:23 (UTC)
Goto Top
Nein basiert sie nicht und ist auch keine Theorie.

Habe ich richtig verstanden, dass die Blocklevel und Filekevel nicht mal klar ist im Bezug auf die Diskussion hier? 1997 IT Knowledge mit viel Selbstbewusstsein?
Member: DerMaddin
DerMaddin Sep 21, 2023 at 08:08:25 (UTC)
Goto Top
Ich sehe das führt hier nur zu einer Klug###erei. Ich klinke mich aus aus diesem Thread, 400GBit geht 0% auf den TO bzw. dessen Thema ein. Sieht man schon am ersten Post.
Member: Eye-Q
Eye-Q Sep 21, 2023 at 16:30:00 (UTC)
Goto Top
Zitat von @DerMaddin:

Ich sehe das führt hier nur zu einer Klug###erei. Ich klinke mich aus aus diesem Thread, 400GBit geht 0% auf den TO bzw. dessen Thema ein. Sieht man schon am ersten Post.

@DerMaddin
Danke für Deine Einschätzung - bin da ganz bei Dir, "400Gbit" schwebt in seiner Sphäre face-wink was ich respektiere.
Ich werde es weiter so machen, wie immer - da hab ich die besten Erfahrungen mit, alles andere ist mir zu experimentell und ich habe auch keine Zeit, mich damit zu beschäftigen.
Dann wird's halt wieder der gute alte Adaptec 8805 mit RAID-1 und RAID-10
entweder mit SATA-SSDs oder SAS-SSDs, wobei Letztere schon echt noch teuer sind...