Dlaczego sprzęt z czasem staje się wolniejszy? Jestem właścicielem komputera od 1990 roku i każdy komputer, który miałem w życiu, stał się naprawdę bardzo powolny po 3-4 latach (nawet przy pełnej ponownej instalacji systemu). Tak jest w przypadku komputerów z systemem Windows. Dotyczy to również sprzętu Apple. Dlaczego to się dzieje? Czy można tego uniknąć?
performance
Aleksiej Kulikow
źródło
źródło
Odpowiedzi:
Czasami jest to sprzęt, zwłaszcza z laptopami. Nowoczesne procesory mają obwody chroniące je przed przegrzaniem i celowo zmniejszają szybkość procesora, jeśli temperatura rdzenia staje się zbyt wysoka (lub też w celu oszczędzania energii, gdy zapotrzebowanie jest niskie i pracujesz na bateriach - Intel nazywa funkcję „SpeedStep” na ich procesory). Jeśli zauważysz, że wentylator cały czas pracuje lub urządzenie nadmiernie się nagrzewa wokół wylotu wentylatora chłodzącego, „drogi oddechowe” komputera mogą być zapchane kurzem.
Miałem Dell Latitude, który działał jak nowy po tym, jak go otworzyłem i usunąłem grubą na ćwierć cala „gąbkę” pyłu z wentylatora i radiatora. Dell faktycznie udostępnia instrukcje serwisowe do pobrania na swojej stronie internetowej, które wyjaśniają wszystkie kroki, aby otworzyć urządzenie i wejść do środka w celu skorzystania z tego rodzaju usługi. Jeśli nie czujesz się z tym dobrze, prawdopodobnie masz przyjaciela technika, który ci pomoże. Zdecydowanie warto ryzykować, jeśli w przeciwnym razie planujesz pozbyć się maszyny!
Jeśli uważasz, że tak może być na twoim komputerze, spróbuj pobrać narzędzie takie jak „SpeedFan”, które pozwala sprawdzić temperaturę procesora, a także innych komponentów. Dzięki tej aplikacji możesz wykreślić temperatury przy pierwszym uruchomieniu urządzenia. Jeśli zaczną się szybko wspinać i nigdy nie wydają się zmniejszać, możesz założyć, że chłodzenie jest problemem. W moim przypadku użyłem również bezpłatnej aplikacji o nazwie „CS Fire Monitor”, aby pokazać mi rzeczywistą prędkość mojego procesora i stwierdziłem, że gdy się nagrzeje, spada do mniej niż połowy prędkości. Istnieje wiele dobrych darmowych programów, które pokażą ci tego rodzaju informacje; po prostu Google „CPU Temp Freeware” lub „CPU Speed Freeware” lub coś w tym stylu, a znajdziesz wiele różnych opcji.
Mamy nadzieję, że uratuje to kilka osób przed wymianą lub wyrzuceniem przyzwoitego sprzętu, który wymaga tylko terapii oddechowej!
źródło
Tutaj jest kilka efektów:
Razem wzięte sprawiają wrażenie, że sprzęt zwalnia.
Mogą również występować inne efekty związane ze zużyciem sprzętu (fragmentacja dysku, opóźnienie pamięci).
źródło
Kiedy uruchomiłem testy porównawcze (zarówno trywialne, jak bogomips , jak i bardziej poważne, takie jak Dhrystone i Whetstone ) na sprzęcie od pięciu do ośmiu lat, zawsze stwierdziłem, że przyniosło to takie same wyniki, jak wtedy, gdy było nowe. (Zawsze w systemie Linux i Mac OS boxen, BTW.)
Mam mniej doświadczenia z dyskami twardymi, ale przetestowałem jeden szybki i szeroki dysk SCSI2 około pięć lat na (z
hdparm
) i uzyskałem odpowiedzi porównywalne z oryginalną specyfikacją.Myślę więc, że jest to głównie, jak powiedzieli inni, połączenie nowych oczekiwań i cięższego oprogramowania.
To powiedziawszy, obecnie mam powerbooka G4, który mógłby korzystać z testów, ponieważ z pewnością jest teraz wolniejszy niż kiedyś. Sugestia powyżej tego, że dławienie zegara może wejść w grę, jeśli układ chłodzenia zostanie zanieczyszczony, jest dobra.
źródło
Prawo strony ;)
źródło
Pewne spowolnienie jest spowodowane fragmentacją dysku twardego , której lekarstwem jest Defragmentacja .
jest to zdefiniowane jako:
W systemie Windows jest inny powód, dla rejestru systemu Windows
Z czasem czas rejestru kumuluje śmieci, a także musi zostać wyczyszczony i zoptymalizowany.
Innym wyjaśnieniem jest to, że nowsze wersje systemu operacyjnego są zwykle bardziej rozdęte i wolniejsze. Oznacza to, że po zainstalowaniu najnowszej wersji O / S lub poprawek możesz po kilku latach nagle zauważyć, że komputer działa teraz wolniej i nadszedł czas, aby zainwestować w nowy sprzęt, który może skutecznie obsługiwać wymagania najnowszej wersji twojego system operacyjny.
źródło
Przyzwyczajasz się do prędkości i teraz odczuwasz ją szybko.
Na przykład miałem klienta, który miał rutynę (którą uważali za przestój), która zajęła ponad godzinę na starym komputerze, a kiedy zaktualizowali swój komputer, proces ten zajął pięć minut, co sprawiło, że byli bardzo szczęśliwi.
Kilka lat do przodu, a teraz narzekają, że ta rutyna zajmuje pięć minut. I za każdym razem, gdy narzekają, naprawdę zapominają o czasie, jaki zajęło to godzinę.
źródło
Jest pewien problem z percepcją, ale jeśli faktycznie mierzysz zmniejszenie wydajności, chciałbym spojrzeć na ruchome części w systemie.
„Części ruchome”, pytasz, „jakie części ruchome?”
Dwie łatwe kategorie do sprawdzenia: wentylatory i napędy dyskowe. Wentylatory są oczywiste, ale oprócz samego wentylatora upewnij się, że przepływ powietrza i chłodzenie nie są zakłócone, aby zapewnić, że temperatury elementów wewnętrznych były również tam, gdzie były, gdy pudełko było nowe. Dyski są nieco bardziej subtelne, ale pogarszający się dysk może znacznie obniżyć wydajność podczas pracy. Sprawdź, czy testy porównawcze dysków odpowiadają nowej wydajności lub czy liczba błędów znacznie wzrosła.
Chociaż tak naprawdę się nie poruszają, są moralnym odpowiednikiem: złącza kablowe. Dowolny odłączany koniec każdego kabla. Odłącz, zapewnij czystość, podłącz ponownie i zapewnij szczelność.
źródło
Być może zależy to wyłącznie od twojej percepcji.
3-4 lata temu błyszczał nowy sprzęt, który był szybszy niż sprzęt poprzedniej generacji, dlatego czuł się bardzo szybko.
Za 3-4 lata od tamtej pory bez wątpienia korzystałeś z komputerów z lepszym sprzętem, więc nawet jeśli wykonasz czystą instalację na starym komputerze, twoje doświadczenia na nowym sprzęcie pozostaną bezbarwne.
Czy masz dowody empiryczne, że maszyna faktycznie działa wolniej?
źródło
Uważam, że niektóre aktualizacje sterowników mogą obecnie aktualizować oprogramowanie wewnętrzne na powiązanym urządzeniu. Istnieją również potencjalne aktualizacje mikrokodu procesora, choć rzadkie.
Widziałem niektóre popularne narzędzia diagnostyczne / testowe, które twierdzą, że wszystko działało z normalną prędkością, ale wystąpił pewien problem z niskim poziomem sterownika / sprzętu, który spowodował, że wskaźnik myszy zaczął się czołgać i skakać. W tamtym czasie nie wiedziałem o pomiarze opóźnienia DPC - to narzędzie prawdopodobnie wskazywałoby na problem.
Chodzi o to - możliwe, że rzeczy mogą spowolnić w sposób, który powoduje, że czują się wolniej, ale nie pojawiają się w narzędziach, z których korzystają zwykli użytkownicy komputerów.
Jeśli ktoś chce się w to zagłębić, myślę, że powinien mieć 2 identyczne komputery, drugi nigdy nie łączy się z siecią, nigdy nie otrzymuje aktualizacji ani nowych sterowników. I dla pewności zmień czas obu komputerów za pomocą zewnętrznego timera / sprawdź czas z NTP. - a po 4 latach powtórz czas i jeśli jest jakaś różnica, sklonuj dysk z niepołączonego komputera na podłączony i spróbuj ponownie. I sprawdź zmiany wersji oprogramowania układowego itp. Edytuj: A kiedy mówię „czas”, mam na myśli synchronizację jakiegoś niestandardowego zadania, nie używając istniejącego testu porównawczego. Zarówno producenci GPU, jak i procesorów zostali złapani na znanych testach gier według Anandtech i kilku innych witryn w ciągu ostatnich lat, które przeczytałem.
źródło
W rzeczywistości nie jest to problem techniczny, ale raczej problem ludzkiego mózgu. To może cię zaskoczyć, ale pozwól mi wyjaśnić. Mam dobrą podstawę do tego, co mówię.
Część problemu polega na tym, jak są stosowane aktualizacje oprogramowania i poprawki, ale to nie jest sedno problemu, który nie wydaje mi się.
Maszyny sprzętowe faktycznie stały się znacznie szybsze na przestrzeni lat, ale zdolność oprogramowania do ich ładowania wzrosła w jeszcze szybszym tempie, dając wrażenie i rzeczywistość, że niektóre rzeczy są wolniejsze.
Na przykład moje pierwsze pudełko Z-80 miało taktowanie 1 mega herca. Teraz moja platforma programistyczna działa z częstotliwością 2,66 GHz lub ponad 2000 razy szybciej. Nie pamiętam dokładnie, ale cały CPM mieści się w około 16 kb. Teraz Windows wie, jak duży, ale o wiele, wiele większy. Wykorzystuje wiele warstw abstrakcji, dzięki którym można robić niesamowite rzeczy w bardziej ogólny sposób, ale te warstwy odbijają się na wydajności.
Wróćmy do ludzkiego mózgu. Dobrze zrozumiałe jest to, że inżynierowie oprogramowania od wielu lat mówili i wierzyli z jakiegoś dobrego powodu, że sprzęt będzie po prostu coraz szybszy i dlatego oprogramowanie nie musi uważać na problemy związane z optymalizacją. Dlatego programiści robili rzeczy, aby wszystko działało szybko i kosztem szybkości ... myśląc, że ludzie sprzętu zajmą się tym problemem. Tak więc aktualizacje i łatki są wykonywane z myślą, że są tymczasowe, tj. Krótkoterminowe.
Jest to: krótkoterminowe, mikro myślenie, w długim okresie problem makro.
Przeczytałem interesującą książkę wiele lat temu, w której kilku naukowców przedstawiło ten krótkoterminowy i długofalowy problem myślenia ludzkiego i przeprowadziło eksperymenty na wielu ludziach, aby zobaczyć, w jaki sposób dokonują tych kompromisów. Ich książką jest New World New Mind, a autorami są Paul Ehrlich i Robert Ornstein. Uznałbym to za najważniejszą książkę, którą przeczytałem w ciągu ostatnich 20 lat, ponieważ zapewnił solidne ramy dla naszego rozwiązania problemu.
Zauważyli, że ludzki mózg ewoluował w czasie, gdy podejmowanie krótkoterminowych decyzji miało sens. Żyj chwilą i dniem, ale nie myśl zbyt wiele o przyszłości. To po prostu nie było tego warte. Nasze wyczucie rzeczy, których często używamy do podejmowania decyzji, jest bardzo starą częścią mózgu i nie jest dobrze dostosowane do wielu współczesnych problemów. A mózg nie miał realistycznego czasu na ewolucję, ponieważ świat szybko się zmienił wraz ze wzrostem populacji i wpływem technologii na rzeczy.
Ehrlich i Ornstein profesora odkryli, że bardzo inteligentni i dobrze wykształceni doktoranci, ale także dozorcy popełniali te same błędy, gdy przedstawiano im problemy krótko- i długoterminowe. Nie jest to coś, co ogólnie uważamy za przypadek.
Jeden bardzo dobry i przekonujący przykład tego, jak ten sam problem występuje obecnie na świecie, NIE dotyczy środowiska sprzętowego, ale jest to starszy brat całe cholerne środowisko, w którym żyjemy. My, ludzie, obecnie popełniamy błąd życia dzisiaj, ale w rzeczywistości globalne ocieplenie jest nad nami dokładnie dlatego, że nie pozwoliliśmy na to ani nie podjęliśmy środków, aby sobie z tym poradzić. Jest to spowolnienie sprzętu przez problem z oprogramowaniem od nowa, ale w innym kontekście.
Ornstein i Ehrlich zasugerowali, że możemy być w stanie podejmować bardziej trafne decyzje, opierając naszą decyzję nie na naszym instynkcie jelitowym, ale raczej na danych i statystykach. Na przykład, jeśli inżynier oprogramowania ma statystyki dotyczące tego, jak szybko jego oprogramowanie puchnie w stosunku do tego, jak szybko sprzęt robi się coraz szybszy, mogą podejmować lepsze decyzje, co uwzględnić, co pominąć i ile zoptymalizować algorytmy. Innymi słowy, jeśli wykorzystali rzeczywiste dane do podjęcia decyzji, a nie instynkt.
Dziękuję za dobre pytanie. Czasami proste pytania są najlepsze. dało mi to możliwość spojrzenia na to z nowej perspektywy. Nigdy wcześniej nie widziałem analogii między problemem oprogramowania sprzętowego w ludzkim kontekście.
źródło
Większość (jeśli w ogóle) testów porównawczych nie jest wiarygodna w mierzeniu szybkości działania systemu operacyjnego. O ile testem porównawczym nie jest jakiś system USB-na-USB, który kontroluje interfejs użytkownika innego komputera, naśladując mysz / klawiaturę, ścieżki wykonywania będą zupełnie inne. Powolność komputerów, o których wiem, wynika z aktualizacji sterowników / zabezpieczeń, które mogą również aktualizować oprogramowanie (i nie wiesz, czy aktualizacja fw w sterowniku się utrzymuje, czy nie), więc jedynym prawdziwym porównaniem jabłek z jabłkami jest zakup 2 komputerów i nigdy nie podłączaj drugiego do Internetu ani nie aktualizuj sterowników po pierwszej instalacji, ale zachowaj go do późniejszego porównania za pomocą takiego zewnętrznego narzędzia do testowania.
Zacząłem podejrzewać wszystkie testy, kiedy znalazłem przypadek, w którym test zwrócił „wszystkie dobre” liczby, podczas gdy jakiś problem ze sprzętem powodował zawieszanie się myszy, a system był właściwie ledwo kontrolowany - najwyraźniej na testy nie wpłynęły niektóre niskie poziom rzeczy, które mogą wpływać np. szybkość i sterowność komputera.
(Nieco inny, ale podobny przypadek: mimo że test porównawczy Q6600 był mniej więcej taki sam jak równoważny dwurdzeniowy Ghz, zauważyłem, że czas reakcji był wyraźnie niższy. Wyjaśniono to, że planista Win-Vista nie był dobry z 4 rdzeniami - chodzi o to - po prostu ponieważ większość testów porównawczych pokazujących FPS nie wykrywa drobnych drgań, które odczuwa użytkownik, testy porównawcze stosowane przez prasę komputerową nie mierzą takich rzeczy jak „Przerwij przetwarzanie opóźnień” i pokazują statystyki tego, a nie tylko średnią)
edytuj: A jeśli wykonujesz taką konfigurację z nietkniętym komputerem referencyjnym, jeśli ma on baterię i jest zasilany, hw maker może oszukiwać, uruchamiając LFO, aby potajemnie przestarzały sprzęt, np. spowalniając niektóre operacje, których testy porównawcze nie przeprowadzają. Lepszym niż zwykle testem porównawczym dla prasy do gier byłoby uruchomienie np. dosbox, emulatory, pomiary opóźnień w oprogramowaniu vmware / hyperv, które obciążą procesor w bardziej złożony sposób niż w inny sposób.
edit2: a jeśli naprawdę chcieli, mogliby zamontować coś, co się starzeje lub jakiś licznik i bardzo niski pobór mocy, kondensator lub niewielką baterię naładowaną fabrycznie. Więc bez względu na to, czy nigdy nie zasilasz urządzenia, mogą one spowolnić z czasem, ale tego rodzaju rzeczy mogą być odpowiedzialnością, jeśli ktoś je znajdzie, ale nie miałoby to tak naprawdę znaczenia, chyba że zostanie to nielegalne, a grzywny wystarczą, aby je zgasić biznesu.
źródło