Storage-Spaces-Direct_1180x290

Microsoft Windows Server 2016 besitzt eine leistungsfähige „eingebaute“ Lösung für Software Defined Storage: Storage Spaces Direct. Sie macht zusätzliche Storage Arrays und komplexe Software von Drittanbietern überflüssig, nutzt kostengünstige Standard-Server und spart Administrationskosten. Storage Spaces Direct (in Deutsch als „Direkte Speicherplätze“ bezeichnet und oft mit S2D abgekürzt)  ist ein Feature der Datacenter Edition von Windows Server 2016. Wir beraten Sie bei der Auswahl der optimalen Hardware für Storage Spaces Direct. 

Wichtige Vorteile

  • Einfachheit. Wechseln Sie in weniger als 15 Minuten von branchenüblichen Servern unter Windows Server 2016 zu Ihrem ersten „Direkte Speicherplätze“-Cluster. Für System Center-Benutzer erfolgt die Bereitstellung über ein einziges Kontrollkästchen.
  • Unübertroffene Leistung. Ganz gleich, ob All-Flash- oder Hybridspeicher, mit „Direkte Speicherplätze“ erreichen Sie mühelos über 150.000 gemischte zufällige 4K-Random-IOPS (E/A-Vorgänge pro Sekunde) pro Server mit konsistenter, geringer Latenz dank der in den Hypervisor eingebetteten Architektur, dem integrierten Lese-/Schreibcache und der Unterstützung für innovative, direkt auf dem PCIe-Bus montierte NVMe-Laufwerke.
  • Fehlertoleranz. Integrierte Resilienz kompensiert Laufwerk-, Server- oder Komponentenausfälle mit kontinuierlicher Verfügbarkeit. Größere Bereitstellungen können auch für Gehäuse- und Rack-Fehlertoleranz konfiguriert werden. Bei Ausfall von Hardware brauchen Sie diese nur auszutauschen. Die Software setzt sich selbst und ohne komplizierte Verwaltungsschritte wieder instand.
  • Ressourceneffizienz. Erasure Coding bietet bis zu 2,4 x höhere Speichereffizienz mit einzigartigen Innovationen wie Code für die lokale Wiederherstellung und ReFS-Ebenen in Echtzeit, um diese Effizienz auf Festplattenlaufwerke und gemischte Hot/Cold-Workloads auszudehnen, und das alles bei gleichzeitiger Minimierung der CPU-Auslastung, um Ressourcen dorthin zurückzugeben, wo sie am meisten benötigt werden: an die VMs.
  • Verwaltbarkeit. Verwenden Sie Storage QoS-Steuerelemente, um zu gewährleisten, dass übermäßig ausgelastete VMs die Mindest- und Höchstgrenzen für IOPS pro-VM nicht unter- bzw. überschreiten. Der Integritätsdienst bietet fortlaufende integrierte Überwachung- und Warnfunktionen, und neue APIs erleichtern das Sammeln umfassender, clusterweiter Leistungs- und Kapazitätsmetriken.
  • Skalierbarkeit. Skalierung auf bis zu 16 Server und über 400 Laufwerke für bis zu 1 Petabyte (1.000 Terabyte) Speicher pro Cluster möglich. Zum horizontalen Skalieren fügen Sie einfach Laufwerke oder weitere Server hinzu. „Direkte Speicherplätze“ integriert und nutzt neue Laufwerke automatisch. Speichereffizienz und Leistung lassen sich berechenbar in großem Maßstab verbessern.

Bereitstellungsoptionen

„Direkte Speicherplätze“ wurde für zwei unterschiedliche Bereitstellungsoptionen entwickelt:

Konvergente Bereitstellung
Speicher und Compute in separaten Clustern. Die Option der konvergenten Bereitstellung ordnet einen Dateiserver mit horizontaler Skalierung (Scale-out File Server, SoFS) in Ebenen über „Direkte Speicherplätze“ an, um NAS über SMB3-Dateifreigaben bereitzustellen. Dies ermöglicht die Skalierung von Compute/Workload unabhängig vom Speichercluster, was für Dienstanbieter und Unternehmen bei größeren Bereitstellungen wie Hyper-V-IaaS (Infrastruktur als Dienst) unerlässlich ist.
„Direkte Speicherplätze“ stellt Speicher mit dem Feature „Dateiserver mit horizontaler Skalierung“ für Hyper-V-VMs in einem anderen Server oder Cluster bereit

Hyperkonvergente Bereitstellung
Ein einzelner Cluster für Computer und Speicher. Die Option der hyperkonvergenten Bereitstellung führt virtuelle Hyper-V-Computer oder SQLServer-Datenbanken direkt auf den Servern aus, stellt den Speicher bereit und speichert die Dateien der virtuellen Computer auf den lokalen Volumes. Dadurch entfällt die Notwendigkeit, den Zugriff auf Dateiserver und die entsprechenden Berechtigungen zu konfigurieren, und die Hardwarekosten für kleine und mittelständische Unternehmen oder Installationen in Remotebüros/Filialen werden gesenkt. 

Hardwareanforderungen für „Direkte Speicherplätze“

  • Mindestens zwei, maximal 16 physiche Server vom gleichen Fabrikat/Modell
  • Mindestens Intel Nehalem oder höher
  • 4 GB RAM pro Terabyte Cachelaufwerkkapazität pro Server zur Speicherung von Metadaten
  • Alle Server haben dieselben Laufwerkstypen
  • Netzwerkschnittstelle mit mindestens 10 Gbit/s für die Kommunikation innerhalb des Clusters


Anforderungen an die Netzwerkschnittstelle

  • Netzwerkkarten müssen die RDMA-Funktion unterstützen (Remote Direct Memory Access)
  • Durch RDMA wird der Overhead des Netzwerktraffics stark reduziert
  • RDMA ist für die Verwendung von SMB Direct erforderlich
  • 2 × 10 Gbit/s Anschlüsse werden benötigt (Redundanz, Leistung)
  • Windows Server unterstützt folgende drei RDMA-Technologien: Infiniband (IB), Internet Wide Area RDMA Protocol (iWARP), RDMA over Converged Ethernet (RoCE)


Auswählen von Laufwerken für Direkte Speicherplätze

Direkte Speicherplätze funktioniert derzeit mit drei Arten von Laufwerken:

NVMe SSD HDD
für hohe IOPS-Wert und E/A-Durchsatz mit geringerer Latenz

dient dem Zwischen-speichern von Daten
dient der Datenspeicherung und Archivierung große Speicherkapazitäten

dient der Datenspeicherung und Archivierung

Option 1 – Maximieren der Leistung

Für das Erreichen einer einheitlichen Latenz über alle Lese- und Schreibvorgänge sowie für besonders hohe IOPS ist diese Flash-Bereitstellung empfehlenswert:

Nur NVMe NVMe + SSD Nur SSD
Die ausschließliche Verwendung von NVMe bietet unübertroffene Leistung bei äußerst niedriger Latenz. Wenn das Modell aller Laufwerke identisch ist, gibt es keinen Cache. Dadurch können Sie jederzeit auf die verwendbare Speicherkapazität jedes Laufwerks zugreifen. Es gibt keine „überschüssige” Kapazität beim Zwischenspeichern, was bei einer Skalierung von kleineren Laufwerken von Vorteil sein kann. Bei der Verwendung von NVMe und SSD-Laufwerken dient die NVMe als Cache für Schreibvorgänge. Diese werden gesammelt und erst bei Bedarf auf die SSDs geschrieben. Dadurch werden die Flash-Zellen der SSDs geschont und so deren Lebensdauer erhöht. Wie bei allen NVMe-Laufwerken ist auch hier kein Cache vorhanden, wenn das Modell aller Laufwerke identisch ist.

Option 2 – Ausgleich von Leistung und Kapazität

Für Umgebungen mit einer Vielzahl von Anwendungen und Workloads – einige davon mit strengen Leistungsanforderungen und andere, die eine beträchtliche Speicherkapazität erfordern – empfiehlt sich eine Hybrid-Bereitstellung:

NVMe + HDD SSD + HDD NVMe + SSD + HDD
NVMe-Laufwerke beschleunigen sowohl Lese- als auch Schreibvorgänge durch ein Zwischenspeichern beider Vorgänge. Diese Variante bietet NVMe-ähnliche Merkmale der Schreib- und Lesevorgänge für häufig oder kürzlich gelesene Daten. Ähnlich wie die oben genannten Vorgänge, beschleunigen SSDs Lese- und Schreibvorgänge durch deren Zwischenspeichern. Dies ermöglicht SSD-ähnliche Merkmale der Schreib- und Lesevorgänge für häufig oder kürzlich gelesene Daten. Bei der Verwendung von Laufwerken aller drei Typen übernimmt der NVME-Speicher das Zwischenspeichern. Im gleichen Cluster können Volumes auf SSDs und HDDs erstellt werden, die alle von der NVMe-Beschleunigung profitieren.

Option 3 – Maximieren der Kapazität

Für Workloads, die eine große Kapazität erfordern, empfiehlt sich eine Kombination aus einigen SSDs für die Zwischenspeicherung von Lese- und Schreibvorgängen mit mehreren großen HDDs zur Erhöhung der Speicherkapazität.

SSD + HDD

 

Sie haben Fragen

Unser Consulting-Team berät Sie gerne unter 03448 755-120 oder per E-Mail unter consulting@bluechip.de

Filter schließen