Mam sieć z serwerami na żywo, akceptacją użytkowników, staging i programistycznymi (w tym przypadku Windows to głównie 2012r2, wszyscy goście Hyper-V). Każda z tych części sieci ma serwer frontend i serwer backend. Serwery zaplecza zawierają proporcjonalnie duże ilości danych. Na serwerach akceptacji użytkowników, serwerach pośrednich i programistycznych dane te nie ulegają zmianie (oprócz sporadycznego odświeżania z trybu na żywo) i rzadko są dostępne poza cyklem programowania.
W takim środowisku, jak zminimalizować zużycie pamięci i uniknąć marnowania miejsca na dane statyczne i rzadko dostępne. Dane składają się z 1000 plików, takich jak pdf, json, dwgs i pngs.
Rzeczy, które rozważałem.
Usuwanie serwerów, gdy nie są używane - Nie jest to świetna opcja, ponieważ czasami czas na przywrócenie tych serwerów waży czas, który programiści będą z nich korzystać. Naszym rozwiązaniem do tworzenia kopii zapasowych jest menedżer MS Data Protection.
Usuwanie dysków z danymi, gdy nie są używane - Nieco lepiej niż powyżej, ale znów liczy się czas.
Przenoszenie dysków z danymi między serwerami - ponieważ są gośćmi Hyper-V, mogłem po prostu dołączyć dyski z danymi w razie potrzeby, jednak zdarza się, że w tym samym czasie jest używanych więcej niż jedno środowisko.
Odpowiedzi:
Możesz sprawdzić niektóre hybrydowe serwery plików, z których jeden przenosi zimne dane do chmury publicznej, gdzie przechowywanie jest tanie (S3) lub prawie darmowe (Glacier). Jeśli masz umowę Enterprise na platformie Azure, możesz wypróbować program StorSimple firmy Microsoft, zarówno fizyczny, jak i wirtualny.
https://azure.microsoft.com/en-us/services/storsimple/
Nasuni jest także miły, ale jak dotąd nie ma niezawodnego SMB3.
https://www.nasuni.com
źródło
Na rynku jest wiele interesujących rozwiązań, nie próbowałem Nasuni, ale wygląda na pasującego. Możesz także rzucić okiem na Aclouda, który może być używany jako brama sprzętowa i prezentować pamięć w chmurze jako dysk lokalny i automatycznie odładowywać dane do chmury. Można go zainstalować na serwerze lokalnym jako dysk SATA / SAS z łącznością z chmurą Amazon lub Azure. http://aclouda.com/
źródło
Ponieważ masz znaczną ilość danych, które nie zmieniają się zbytnio z czasem, zdecydowanie zaleciłbym wdrożenie pewnego rodzaju warstwowania (miejsca do magazynowania z automatyczną warstwą powinny pasować). Chodzi o to, że warstwa „gorąca”, czyli lokalna pamięć masowa, powinna zawierać najnowsze dane, do których należy szybko uzyskać dostęp, a warstwę „zimną” można przenieść do chmury.
Pomysł nie jest nowy - Nasuni https://www.nasuni.com/ robi rzeczy bardzo podobne do tego podejścia. Opcją DIY jest S3Fuse https://www.interserver.net/tips/kb/mount-s3-bucket-centos-ubuntu-using-s3fs/, który pozwala zamontować pamięć w chmurze jako dysk lokalny. StorSimple https://azure.microsoft.com/en-us/services/storsimple/ to inny wybór, ale jest ściśle związany z platformą Azure.
Jeśli nie chcesz instalować / konfigurować i utrzymywać żadnego dodatkowego oprogramowania, możesz skorzystać z bramy sprzętowej, takiej jak AcloudA http://aclouda.com/, która wykona zadanie bez potrzeby instalowania dodatkowego oprogramowania lub sterowników.
źródło
Ponieważ goście są Windows 2012 R2, można uruchomić deduplikację w maszynie wirtualnej. Z wyjątkiem początkowego indeksowania, okazało się, że nie wymaga to zbyt dużych zasobów. W sklepach z dokumentami moje oszczędności wynosiły 55% lub więcej.
Jeśli Twoje miejsce do przechowywania znajdowało się na serwerze Windows (Miejsca do magazynowania i tym podobne), możesz deduplikować sklep VHD. Użycie opcji VDI podczas konfigurowania dedupe na woluminie włącza deduplikację otwartych dysków VHD. Zobacz https://technet.microsoft.com/en-us/library/dn486808.aspx
źródło