Bezpośrednie wytyczne dotyczące miejsc do przechowywania

12

Niedawno wdrożyłem WS2016 DC na 4x DL380 G7 do celów PoC. Każdy serwer ma 4x dyski SAS 10 GB o pojemności 10 KB, a także mam kilka dysków SSD Intel, które mogę tymczasowo wypożyczyć w mojej firmie. Moim głównym celem jest przetestowanie różnych „trybów” repliki pamięci masowej i wdrożenie roli serwera plików skalowalnego w poziomie poza Storage Spaces Direct.

Mniej więcej miesiąc temu miałem trudności z wdrożeniem 2-węzłowego miejsca do magazynowania bezpośrednio na innej konfiguracji sprzętowej (2 serwery Supermicro). Szczerze mówiąc, proces instalacji nie był „prosty”. Wystąpił problem z WinRM, błąd „nieobsługiwanego typu magistrali” podczas próby „-Enable-ClusterS2D” i kilka problemów później, gdy próbowałem utworzyć nową przestrzeń warstwową.

Zasadniczo szukam najbardziej aktualnych wskazówek, jak skonfigurować bezpośrednie miejsca do magazynowania w środowisku 4 węzłów za pomocą programu PowerShell. Typ odporności nie jest ważny, ponieważ chciałbym przetestować różne ustawienia odporności.

Dziękuję za pomoc!

Mwilliams
źródło

Odpowiedzi:

11

Mówiąc krótko, sekwencja wdrażania wygląda następująco:

  1. Wdróż niezbędne role i funkcje WS
  2. Sprawdź poprawność klastra pracy awaryjnej
  3. Utwórz klaster pracy awaryjnej
  4. Włącz bezpośrednie miejsca do magazynowania

-EnableStorageS2D

  1. Utwórz i skonfiguruj pule pamięci

Przykładowe dane wejściowe:

New-StoragePool -StorageSubSystemName #CLUSTER_NAME# -FriendlyName #POOL_NAME# -WriteCacheSizeDefault 0 -ProvisioningTypeDefault Fixed -ResiliencySettingNameDefault Simple -PhysicalDisk (Get-StorageSubSystem -Name #CLUSTER_NAME# | Get-PhysicalDisk)

  1. Twórz i konfiguruj dyski wirtualne

Przykładowe dane wejściowe:

New-Volume -StoragePoolFriendlyName #POOL_NAME# -FriendlyName #VD_NAME# -PhysicalDiskRedundancy 2 -FileSystem CSVFS_REFS –Size 100GB

  1. Wdróż SOFS
  2. Utwórz udziały plików To wszystko!

Oto dwa artykuły, które uważam za pomocne:

Link1 https://www.starwindsoftware.com/blog/microsoft-storage-spaces-direct-4-node-setup-2

Link2 https://technet.microsoft.com/en-us/windows-server-docs/storage/storage-spaces/hyper-converged-solution-using-storage-spaces-direct

Net Runner
źródło
2
Skonfigurowałem Storage Spaces Direct zgodnie z podanymi przez ciebie wskazówkami i teraz wdrożę SOFS, aby dalej testować tę konfigurację. Dzięki za pomoc!
Mwilliams,
2
Zastanów się dwa razy: 2-węzłowy S2D nie obsługuje lokalnych kodów rekonstrukcji i wykonuj tylko dwukierunkowe kopie lustrzane. TL; DR: awaria dysku podczas restartu łaty drugiego węzła spowoduje wyłączenie klastra. Również wydajność wcale nie jest taka świetna: brak pamięci podręcznej zapisu DRAM, a CSV jest tylko do odczytu.
BaronSamedi1958,
Może nadal być wystarczająco dobry, aby uzyskać wstępny POC.
TomTom
4

Mój aktualny skrypt do oceny Direct Spaces Direct

# windows server installation
Install-WindowsFeature Hyper-V, Data-Center-Bridging, Failover-Clustering, RSAT-Clustering-Powershell, Hyper-V-PowerShell -IncludeManagementTools

# before creating cluster set correct MediaType for all disks
#note before setting MediaType disks have to be assigned to a Storage Pool which can be deleted right after setting
Get-Physicaldisk | where size -gt 506870912000 | Set-PhysicalDisk MediaType HDD

# Create the cluster
New-Cluster -Name w16hyper -Node w16hyper1, w16hyper2, w16hyper3 -NoStorage -StaticAddress 192.168.2.100

# hack to use RAID cards as JBOD
(Get-Cluster).S2DBusTypes=0x100

Enable-ClusterStorageSpacesDirect -CacheState Disabled

Get-StorageSubSystem Cluster*
Get-StorageSubSystem Cluster* | Get-Volume

#statistics
Get-StorageSubSystem Cluster* | Get-StorageHealthReport

#jobs running on background (eg. rebuild)
Get-StorageJob | ? JobState -Eq Running

#status
Get-StoragePool S2D* | Get-PhysicalDisk | Group OperationalStatus -NoElement
Get-StoragePool S2D* | Get-PhysicalDisk | Sort Model, OperationalStatus

#get log info
Get-StorageSubSystem Cluster* | Debug-StorageSubSystem

Get-VirtualDisk
Get-PhysicalDisk -Usage Retired

#create new mirrored volume (survive 1 fail for 2node system, 2 simultaneous fails for more nodes)
New-Volume -FriendlyName "Volume A" -FileSystem CSVFS_ReFS -StoragePoolFriendlyName S* -Size 1TB

#create hybrid volume (mirror + parity) with recommended 10% mirror part size
New-Volume -FriendlyName "Volume A" -FileSystem CSVFS_ReFS -StoragePoolFriendlyName S* -StorageTierFriendlyNames Performance, Capacity -StorageTierSizes 100GB, 900GB

#cleanup (pool has to be deleted on each node)
Disable-ClusterStorageSpacesDirect
Get-StoragePool S2D* | Set-StoragePool -IsReadOnly $false
Get-StoragePool S2D* | Remove-StoragePool
Jan Zahradník
źródło