W mojej pracy prawie dwie dekady temu eksperci IT utrzymywali rozmiar głównej partycji Windows (dysku C) bardzo mały w porównaniu z innymi partycjami. Twierdzili, że działa na PC z optymalną prędkością bez spowalniania.
Ale wadą jest to, że dysk C: łatwo się zapełnia, jeśli jest mały, i wkrótce nie będzie można zainstalować nowego oprogramowania, ponieważ zabraknie mu miejsca. Nawet jeśli zainstaluję oprogramowanie na dysku D: część z nich jest zawsze kopiowana do C: który je wypełnia.
Moje pytanie, czy ta praktyka jest nadal dobra? Dlaczego to jest zrobione. Jakie są jego główne zalety, jeśli w ogóle? Jednym z oczywistych jest to, że jeśli partycja podstawowa ulegnie awarii, Twoje dane są bezpieczne na dodatkowym.
Zadaję to pytanie, ponieważ próbuję zaktualizować program Visual Studio, a nie mogę, ponieważ mam tylko 24 MB na partycji podstawowej.
Odpowiedzi:
Ogólnie: nie .
W starszych wersjach systemu Windows występowały problemy z wydajnością dużych dysków (a dokładniej: dużych systemów plików), głównie dlatego, że system plików FAT używany przez system Windows nie obsługiwał dobrze dużych systemów plików. Jednak wszystkie nowoczesne instalacje systemu Windows używają zamiast tego systemu plików NTFS, co rozwiązało te problemy. Zobacz na przykład Czy wydajność NTFS znacznie spada w przypadku woluminów większych niż pięć lub sześć TB? , co wyjaśnia, że nawet partycje o rozmiarze terabajta zwykle nie stanowią problemu.
W dzisiejszych czasach generalnie nie ma powodu, aby nie używać pojedynczej, dużej partycji C:. Własny instalator Microsoft domyślnie tworzy pojedynczy, duży dysk C:. Gdyby istniały dobre powody, aby utworzyć oddzielną partycję danych, instalator to zaoferowałby - dlaczego Microsoft miałby pozwolić na instalację systemu Windows w sposób, który stwarza problemy?
Głównym powodem wielu dysków jest to, że zwiększa złożoność - co zawsze jest złe w IT. Stwarza nowe problemy, takie jak:
Istnieją specjalne przypadki, w których wiele partycji ma sens:
Aby odnieść się do niektórych argumentów często podnoszonych na korzyść małych / oddzielnych partycji:
Naprawdę powinieneś i tak wykonać kopię zapasową wszystkich danych, ponieważ podział ich na partycje naprawdę nie pomaga. Ponadto, jeśli naprawdę musisz to zrobić, całe oprogramowanie do tworzenia kopii zapasowych, które znam, umożliwia selektywne tworzenie kopii zapasowej części partycji.
Chociaż jest to teoretycznie prawda, nie ma gwarancji, że uszkodzenia będą się dobrze ograniczać do jednej partycji (a jeszcze trudniej jest to sprawdzić w przypadku problemów), więc daje to tylko ograniczoną gwarancję. Ponadto, jeśli masz dobre, zbędne kopie zapasowe, dodatkowe bezpieczeństwo jest zwykle zbyt małe, aby było warte zawracania głowy. A jeśli nie masz kopii zapasowych, masz znacznie większe problemy ...
Chociaż może to być prawdą w teorii, w praktyce wiele programów zapisuje ustawienia i inne ważne dane na dysku C: (ponieważ niestety są to na stałe zapisane, lub ponieważ przypadkowo zapomniałeś zmienić ich ustawienia). Dlatego IMHO jest bardzo ryzykowne, aby na tym polegać. Ponadto potrzebujesz dobrych kopii zapasowych (patrz wyżej), więc po ponownej instalacji możesz przywrócić kopie zapasowe, co da ci ten sam rezultat (po prostu bezpieczniej). Nowoczesne wersje systemu Windows przechowują już dane użytkownika w osobnym katalogu (katalogu profilu użytkownika), więc możliwe jest selektywne przywracanie.
Zobacz także Czy zainstalujesz oprogramowanie na tej samej partycji co system Windows? po więcej informacji.
źródło
Historyczny powód tej praktyki jest najprawdopodobniej zakorzeniony we właściwościach obrotowych magnetycznych dysków twardych. Obszar na wirujących dyskach o najwyższej prędkości dostępu sekwencyjnego to najbardziej oddalone sektory (w pobliżu początku napędu).
Jeśli używasz całego dysku dla swojego systemu operacyjnego, prędzej czy później (poprzez aktualizacje itp.) Twoje pliki systemu operacyjnego zostaną rozłożone na całej powierzchni dysku. Tak więc, aby upewnić się, że pliki systemu operacyjnego fizycznie pozostają w najszybszym obszarze dysku, należy utworzyć małą partycję systemową na początku dysku i rozłożyć resztę dysku na dowolną liczbę partycji danych.
Opóźnienie szukania zależy również częściowo od tego, jak daleko muszą się przesunąć głowice, więc trzymanie wszystkich małych plików nieco blisko siebie ma również przewagę na dyskach obrotowych.
Ta praktyka straciła cały swój powód wraz z pojawieniem się pamięci SSD.
źródło
Oto kilka powodów, aby to zrobić:
Może to stanowić zaletę, choć niezauważalną, dlatego można ją zignorować, ponieważ tak naprawdę nie ma znaczenia. @ Odpowiedź WooShell jest bardziej związana z problemem związanym z wydajnością, nawet jeśli nadal można ją pominąć.
Kolejną rzeczą do odnotowania jest to, że w przypadku dysku SSD + HDD lepiej jest przechowywać system operacyjny na dysku SSD i wszystkie osobiste pliki / dane na dysku twardym. Najprawdopodobniej nie potrzebujesz zwiększenia wydajności dzięki posiadaniu dysku SSD dla większości twoich plików osobistych, a dyski półprzewodnikowe klasy konsumenckiej zwykle nie mają na nich dużo miejsca, więc wolisz nie próbować zapełniać go plikami osobistymi .
Opisał niektóre z powodów, dla których tak się dzieje. I tak, jest to nadal aktualne, choć nie wydaje się już dobrą praktyką. Najbardziej znaczące wady to to, że użytkownicy końcowi będą musieli śledzić, gdzie aplikacje sugerują instalację swoich plików i zmianę tej lokalizacji (możliwe podczas prawie każdej instalacji oprogramowania, szczególnie jeśli opcja instalacji zaawansowanej / zaawansowanej jest opcją), więc partycja startowa nie „ t wypełnić, ponieważ system operacyjny musi czasami aktualizować, a kolejną wadą jest to, że podczas kopiowania plików z jednej partycji na drugą, faktycznie musi je skopiować, a jeśli były one na tej samej partycji, po prostu aktualizuje MFT i metadane nie muszą ponownie zapisywać całych plików.
Niektóre z nich mogą niestety powodować więcej problemów:
Aby uniknąć występującego problemu, musisz:
Nie twierdzę również, że najlepszym rozwiązaniem jest posiadanie wielu partycji z małą główną. Wszystko zależy od celu systemu i chociaż wprowadza lepszy sposób organizowania plików, ma swoje wady, które w systemach Windows w obecnych czasach są czymś więcej niż profesjonalistami.
Uwaga: Jak już wspomniałeś, dane w oddzielnych partycjach są bezpieczne na wypadek awarii partycji rozruchowej.
źródło
Jestem programistą, ale spędziłem też czas na wykonywaniu „zwykłych” / informatycznych zadań back-office. Zwykle przechowuję system operacyjny i aplikacje na dysku C :, a moje pliki osobiste na dysku D :. Nie muszą to być osobne dyski fizyczne, ale obecnie używam stosunkowo małego dysku SSD jako mojego dysku „systemowego” (C :) i „tradycyjnego” dysku (tj. Z obracającymi się talerzami magnetycznymi) jako „domu” dysk (D :).
Wszystkie systemy plików podlegają fragmentacji. W przypadku dysków SSD nie jest to w zasadzie problem, ale nadal występuje w przypadku tradycyjnych napędów dyskowych.
Przekonałem się, że fragmentacja może znacznie obniżyć wydajność systemu. Na przykład odkryłem, że pełna kompilacja dużego projektu oprogramowania uległa poprawie o ponad 50% po defragmentacji dysku - a ta kompilacja zajęła większą część godziny, więc nie była to trywialna różnica.
Przechowując moje pliki osobiste na osobnym woluminie, znalazłem:
Zauważyłem to na kilku generacjach komputerów PC z kilkoma wersjami systemu Windows.
(Jak zauważył komentator, ułatwia to również tworzenie kopii zapasowych.)
Powinienem zauważyć, że narzędzia programistyczne, których używam, mają tendencję do generowania dużej liczby plików tymczasowych, które wydają się w znacznym stopniu przyczyniać do problemu fragmentacji. W związku z tym dotkliwość tego problemu będzie się różnić w zależności od używanego oprogramowania; możesz nie zauważyć różnicy lub tak dużej. (Ale są też inne działania - na przykład kompozycja i edycja wideo / audio - które są intensywne we / wy i zależnie od używanego oprogramowania mogą generować dużą liczbę plików tymczasowych / pośrednich. Chodzi mi o to, że nie pisz wyłączono to jako coś, co wpływa tylko na jedną klasę użytkowników).
Uwaga: w przypadku nowszych wersji systemu Windows (od wersji 8) stało się to znacznie trudniejsze, ponieważ foldery użytkowników na woluminie innym niż C: nie są już oficjalnie obsługiwane. Mogę powiedzieć, że nie byłem w stanie przeprowadzić uaktualnienia w miejscu z Windows 7 do Windows 10, ale YMMV (istnieje wiele różnych sposobów na [ponowne] zlokalizowanie folderu użytkownika, nie wiem, których to dotyczy) .
Jedna dodatkowa uwaga: jeśli utrzymujesz dwa osobne woluminy na tradycyjnym dysku, możesz skonfigurować plik stronicowania na woluminie D:. Z powodów opisanych w odpowiedzi WooShell, skróci to czas wyszukiwania podczas pisania do pliku strony.
źródło
Krótka odpowiedź: już nie.
Z mojego doświadczenia (ponad 20 lat pracy w administracji IT), głównym powodem tej praktyki (inne są wymienione poniżej) jest to, że użytkownicy zasadniczo nie ufali Windowsowi ze swoimi danymi i miejscem na dysku twardym.
System Windows od dawna notorycznie źle radził sobie z utrzymywaniem stabilności w czasie, czyszczeniem po sobie, utrzymywaniem zdrowej partycji systemowej i zapewnianiem wygodnego dostępu do danych użytkownika na niej. Dlatego użytkownicy woleli odrzucić hierarchię systemu plików, którą Windows zapewnił, i rozwinąć ją poza nią. Partycja systemowa działała także jako getto, które odmawiało Windowsowi możliwości siać spustoszenie poza jego granicami.
RegClean
narzędzie MS zostało odwołane po wydaniu pakietu Office 2007, który złamał założenia dotyczące rejestru, na którym był oparty). Fakt, że wiele programów zapisywało swoje dane w dowolnych miejscach, jeszcze bardziej utrudniał oddzielanie danych użytkownika od systemu operacyjnego, co spowodowało, że użytkownicy instalowali programy również poza hierarchią systemu operacyjnego.Tak więc posiadanie danych w katalogu głównym oddzielnego dysku było postrzegane jako wygodniejsza struktura danych niż w systemie Windows.
Downloads
, aby zaoszczędzić potrzeby przeglądania dla nich za każdym razem.Drugi powód to:
C:\Users
na dysk danych. Przenoszenie tylko jeden profil lub nawet po prostuDocuments
,Downloads
iDesktop
okazał się gorszy „bo innych częściach profilu iPublic
mogą rosnąć w sposób niekontrolowany (patrz«oddzielna konfiguracji i danych konfiguracji»poniżej).źródło
Prawie dwie dekady temu byłby zdominowany przez system Windows 98 do XP, w tym NT4 i 2000 po stronie stacji roboczej / serwera.
Wszystkie dyski twarde byłyby również kablami magnetycznymi PATA lub SCSI, ponieważ dyski SSD kosztują więcej niż komputer, a SATA nie istnieje.
Jak mówi odpowiedź WooShell, niższe sektory logiczne na dysku (poza talerzem) są zwykle najszybsze. Moje dyski Velociraptor 1 TB WDC zaczynają się od 215 MB / s, ale w sektorach zewnętrznych spadają do 125 MB / s, co stanowi spadek o 40%. Jest to 2,5-calowy napęd talerza, więc większość dysków 3,5-calowych generalnie odnotowuje coraz większy spadek wydajności, większy niż 50% . Jest to główny powód utrzymywania małej partycji głównej, ale ma ona zastosowanie tylko wtedy, gdy partycja jest mała w stosunku do wielkości dysku.
Innym głównym powodem, dla którego partycja była mała, było użycie FAT32 jako systemu plików, który nie obsługiwał partycji większych niż 32 GB. Jeśli korzystałeś z systemu plików NTFS, partycje do 2 TB były obsługiwane przed Windows 2000, a następnie do 256 TB.
Jeśli partycja jest zbyt mała w stosunku do ilości danych, które zostaną zapisane, łatwiej jest zostać pofragmentowanym i trudniej defragmentować. Możesz po prostu zabraknąć miejsca, jak to się stało. Jeśli masz zbyt wiele plików w stosunku do rozmiarów partycji i klastra, zarządzanie tabelą plików może być problematyczne i wpływać na wydajność. Jeśli używasz woluminów dynamicznych do nadmiarowości, utrzymanie nadmiarowych woluminów tak małych, jak to konieczne, pozwoli zaoszczędzić miejsce na innych dyskach.
Dzisiaj jest inaczej, w pamięci masowej klienta dominują dyski flash SSD lub dyski magnetyczne z przyspieszeniem flash. Pamięć masowa jest na ogół obfita i łatwo jest dodać więcej do stacji roboczej, podczas gdy w dniach PATA mogło być tylko jedno nieużywane połączenie dysku dla dodatkowych urządzeń pamięci masowej.
Czy to wciąż dobry pomysł, czy ma jakieś zalety? To zależy od przechowywanych danych i sposobu zarządzania nimi. Moja stacja robocza C: ma tylko 80 GB, ale sam komputer ma ponad 12 TB przestrzeni dyskowej na wielu dyskach. Każda partycja zawiera tylko określony typ danych, a rozmiar klastra jest dopasowywany zarówno do typu danych, jak i rozmiaru partycji, co utrzymuje fragmentację na poziomie zbliżonym do 0 i zapobiega nadmiernemu zwiększeniu MFT.
Zmniejszeniem jest to, że jest nieużywane miejsce, ale wzrost wydajności bardziej niż kompensuje, a jeśli chcę więcej miejsca, dodaję więcej dysków. C: zawiera system operacyjny i często używane aplikacje. P: zawiera rzadziej używane aplikacje i jest dyskiem SSD 128 GB o niższej klasie trwałości zapisu niż C :. T: znajduje się na mniejszym dysku SLC SSD i zawiera pliki tymczasowe użytkownika i systemu operacyjnego, w tym pamięć podręczną przeglądarki. Pliki wideo i audio są zapisywane w pamięci magnetycznej, podobnie jak obrazy maszyn wirtualnych, kopie zapasowe i zarchiwizowane dane, zwykle mają one rozmiar klastra 16 KB lub większy, a odczyt / zapis jest zdominowany przez dostęp sekwencyjny. Uruchamiam defragmentację tylko raz w roku na partycjach o dużej objętości zapisu, a wykonanie całego systemu zajmuje około 10 minut.
Mój laptop ma tylko jeden dysk SSD 128 GB i inny przypadek użycia, więc nie mogę zrobić tego samego, ale nadal dzielę się na 3 partycje, C: (80 GB OS i programy), T: (8 GB temp) i F: ( 24 GB plików użytkownika), który dobrze kontroluje fragmentację bez marnowania miejsca, a laptop zostanie wymieniony na długo, zanim zabraknie mi miejsca. Ułatwia także tworzenie kopii zapasowych, ponieważ F: zawiera jedyne ważne dane, które regularnie się zmieniają.
źródło
Pracowałem kiedyś w branży IT i oto, co wiem i pamiętam.
W przeszłości, jak powiedzieli inni, istniała realna korzyść z posiadania małej partycji C na początku dysku. Nawet dzisiaj w niektórych niższych laptopach może to być prawda. Zasadniczo, mając mniejszą partycję, masz mniej fragmentacji i utrzymując ją na początku dysku, lepiej jest wyszukiwać, a tym samym czytać czasy. Jest to nadal aktualne w przypadku laptopów (zwykle) i wolniejszych „zielonych” dysków twardych.
Inną wielką korzyścią, z której wciąż korzystam, jest posiadanie „danych” i „systemu operacyjnego” na osobnych dyskach lub jeśli nie mogę zarządzać tymi oddzielnymi partycjami. Nie ma rzeczywistego wzrostu prędkości, jeśli używasz SSD lub nawet szybszych napędów magnetycznych, ale istnieje ogromna opcja łatwej naprawy, gdy system operacyjny w końcu się zapełni. Po prostu zamień dysk lub ponownie ducha tej partycji. Dane użytkownika są nienaruszone. Po prawidłowym skonfigurowaniu między dyskiem D: a profilami mobilnymi ponowna instalacja systemu Windows nie stanowi problemu przez 5 minut. To dobry krok dla technologii poziomu 1.
źródło
Oto jeden powód, ale nie sądzę, że jest to prawidłowy powód dla dzisiejszych (nowoczesnych) komputerów.
Wraca to do Windows 95/98 i XT. Prawdopodobnie nie dotyczy to Visty i nowszych, ale było to ograniczenie sprzętowe, więc uruchomienie nowszego systemu operacyjnego na starym sprzęcie nadal musiałoby sobie z tym poradzić.
Uważam, że ograniczenie wynosiło 2 GB, ale wcześniej mogło istnieć ograniczenie 1 GB (lub może inne).
Problem polegał na tym (coś w tym rodzaju): partycja BOOT musiała znajdować się w pierwszych 2 GB (być może 1 GB wcześniej) fizycznej przestrzeni na dysku. Mogło być tak, że 1) START partycji BOOT musiał znajdować się w granicach limitu lub 2) CAŁA partycja rozruchowa musiała mieścić się w granicach limitu. Możliwe, że w różnych momentach każdy z tych przypadków był zastosowany, ale jeśli zastosuje się to do drugiego, to prawdopodobnie nie trwało to długo, więc zakładam, że to pierwszy.
Tak więc, z numerem 1, START partycji BOOT musiał znajdować się w pierwszych 2 GB przestrzeni fizycznej. Nie wyklucza to utworzenia 1 dużej partycji dla Boot / OS. Problem polegał jednak na rozruchu podwójnym / wielokrotnym. Jeśli kiedykolwiek wydawało się, że istnieje możliwość podwójnego / wielokrotnego rozruchu dysku, musiała być dostępna przestrzeń poniżej znaku 2 GB, aby utworzyć inne partycje rozruchowe na dysku. Ponieważ w czasie instalacji może nie być znane, czy dysk będzie kiedykolwiek potrzebował innej partycji rozruchowej, powiedzmy Linix, lub bootowalnej partycji debugowania / rozwiązywania problemów / odzyskiwania, często zaleca się (i często nie wiadomo, dlaczego) instalację na „małej” „Partycja rozruchowa systemu operacyjnego.
źródło
Zastanawiam się, czy twój stary dział IT od dziesięcioleci martwił się o tworzenie kopii zapasowych. Ponieważ C: jest partycją rozruchową / OS, typowym rozwiązaniem jest użycie pewnego rodzaju kopii zapasowej obrazu, ale w przypadku partycji danych / programu można użyć przyrostowej kopii zapasowej pliku i folderu. Zmniejszenie miejsca używanego na partycji C: skróciłoby czas i miejsce potrzebne do utworzenia kopii zapasowej systemu.
Komentarz na temat mojego osobistego użytkowania partycji C:. Mam system wielokrotnego rozruchu, w tym Win 7 i Win 10 i nie mam żadnego systemu operacyjnego na partycji C: tylko pliki rozruchowe. Korzystam z kopii zapasowej obrazu systemu Windows zarówno dla Win 7, jak i Win 10, a kopia zapasowa obrazu systemu Windows zawsze zawiera partycję C: (rozruchową), oprócz partycji Win 7 lub Win 10, więc jest to kolejny scenariusz, w którym zmniejszenie ilości dane i programy na partycji C: skracają czas i miejsce potrzebne do utworzenia kopii zapasowej obrazu systemu (lub przywrócenia w razie potrzeby).
Opuszczam tę sekcję w mojej odpowiedzi z powodu poniższych komentarzy.
Ponieważ mój system działa w trybie wielokrotnego rozruchu, ponowne uruchomienie w innym systemie operacyjnym sprawia, że tworzenie kopii zapasowych partycji danych / programów jest prostsze, ponieważ podczas tworzenia kopii zapasowej nie ma żadnej aktywności na partycjach. Napisałem prosty program do tworzenia kopii zapasowych, który wykonuje kopię folderu + pliku wraz z informacjami dotyczącymi bezpieczeństwa i ponownej analizy, ale nie działa całkiem dobrze dla partycji systemu Windows 7 lub Windows 10, więc używam kopii zapasowej obrazu systemu dla C ;, Win 7 i wygraj 10 partycji systemu operacyjnego.
źródło
Nie, nie w przypadku systemu Windows i jego głównych pakietów oprogramowania nalegających na powiązania z systemem: pomimo zainstalowania ich w programach :. (Jest to zinstytucjonalizowana konieczność zbudowana w większości systemów operacyjnych.) Wolumen danych: ma sens, ale oddzielny dysk wymienny dla danych (lub NAS lub selektywne lub przyrostowe kopie zapasowe na takim dysku wymiennym) ma jeszcze większy sens.
Partycjonowanie w systemach z wieloma systemami operacyjnymi również ma sens, ale każda partycja zmusza do wybrania twardego górnego limitu pamięci. Generalnie jest lepiej z oddzielnymi dyskami nawet w tym przypadku.
Dzisiaj maszyny wirtualne i dyski w chmurze uzupełniają wiele z tych opcji.
źródło
Jest jeden szczególny powód - używanie migawek woluminów.
Migawka woluminu jest kopią zapasową całej partycji. Podczas przywracania z tego rodzaju kopii zapasowej przepisujesz całą partycję, skutecznie przywracając system do poprzedniego stanu.
Administrator systemu może regularnie tworzyć takie migawki w ramach przygotowań do wszelkiego rodzaju awarii oprogramowania. Mogą nawet przechowywać je na innej partycji tego samego dysku. Dlatego chcesz, aby partycja systemowa była względnie mała.
Podczas korzystania z tego schematu zachęca się użytkowników do przechowywania danych na dysku sieciowym. W przypadku problemów z oprogramowaniem administrator systemu może po prostu przywrócić system do stanu roboczego. Byłoby to niezwykle czasochłonne w porównaniu do ręcznego zbadania przyczyn problemu i jego rozwiązania.
źródło
Programuję od prawie pół wieku. Inna odpowiedź mówi historyczną, a inna długa odpowiedź Wiele dysków fizycznych .
Chcę podkreślić, że wiele dysków fizycznych jest najprawdopodobniej tym, co zapoczątkowało zalecenie. Ponad pół wieku temu, kiedy nie było takich rzeczy jak partycje, niezwykle często stosowano osobny dysk fizyczny dla systemu. Głównym tego powodem jest fizyczny ruch głowic i wirowanie napędów. Te zalety nie istnieją w przypadku partycji, gdy dysk fizyczny jest często używany do innych celów.
Zauważ też, że Unix dzieli system i dane na osobne partycje. Istnieje wiele dobrych powodów, aby to zrobić, jak wyjaśniono w wielu innych odpowiedziach, ale dla wydajności oddzielne dyski fizyczne są podstawowym uzasadnieniem.
źródło
Powodem, dla którego robiliśmy 2 partycje, były wirusy. Niektóre wirusy zastępują sektor rozruchowy i początek dysku.
Kopie zapasowe na komputerach użytkowników sprowadzały się do kopii całego programu na dyskietce. (W rzeczywistości nie ma kopii zapasowej)
Kiedy więc wirus „zjadł” początek dysku, zwykle tylko system musiał zostać ponownie zainstalowany.
A jeśli nie było kopii zapasowych, odzyskiwanie danych było łatwiejsze, jeśli druga partycja była nienaruszona.
Więc jeśli masz kopie zapasowe, ten powód jest nieprawidłowy.
źródło