Dlaczego sprzęt z czasem staje się wolniejszy?

38

Dlaczego sprzęt z czasem staje się wolniejszy? Jestem właścicielem komputera od 1990 roku i każdy komputer, który miałem w życiu, stał się naprawdę bardzo powolny po 3-4 latach (nawet przy pełnej ponownej instalacji systemu). Tak jest w przypadku komputerów z systemem Windows. Dotyczy to również sprzętu Apple. Dlaczego to się dzieje? Czy można tego uniknąć?

Aleksiej Kulikow
źródło
17
Wróżki komputerowe nudzą się i idą w szybsze miejsce :(
Phoshi
1
@ Phoshi wróżki komputerowe? Myślałem, że to gremliny pochłaniają cykle procesora.
alex
2
Wróżki lepiej utrzymują cykl pracy CPU. To ciągła bitwa.
Phoshi
11
wróżki komputerowe? bah. dobrze wiadomo, że starsze chomiki nie biegają tak szybko jak młodsze. musisz od czasu do czasu otwierać skrzynkę i zamieniać świeżego chomika.
quack quixote
2
największym pytaniem jest, co zrobić ze zużytymi chomikami. Ostatnie dwa nazwałem „Tańsze niż” i „Karma dla kotów”, ale nie jestem przekonany, że to najlepsza metoda usuwania.
quack quixote

Odpowiedzi:

32

Czasami jest to sprzęt, zwłaszcza z laptopami. Nowoczesne procesory mają obwody chroniące je przed przegrzaniem i celowo zmniejszają szybkość procesora, jeśli temperatura rdzenia staje się zbyt wysoka (lub też w celu oszczędzania energii, gdy zapotrzebowanie jest niskie i pracujesz na bateriach - Intel nazywa funkcję „SpeedStep” na ich procesory). Jeśli zauważysz, że wentylator cały czas pracuje lub urządzenie nadmiernie się nagrzewa wokół wylotu wentylatora chłodzącego, „drogi oddechowe” komputera mogą być zapchane kurzem.

Miałem Dell Latitude, który działał jak nowy po tym, jak go otworzyłem i usunąłem grubą na ćwierć cala „gąbkę” pyłu z wentylatora i radiatora. Dell faktycznie udostępnia instrukcje serwisowe do pobrania na swojej stronie internetowej, które wyjaśniają wszystkie kroki, aby otworzyć urządzenie i wejść do środka w celu skorzystania z tego rodzaju usługi. Jeśli nie czujesz się z tym dobrze, prawdopodobnie masz przyjaciela technika, który ci pomoże. Zdecydowanie warto ryzykować, jeśli w przeciwnym razie planujesz pozbyć się maszyny!

Jeśli uważasz, że tak może być na twoim komputerze, spróbuj pobrać narzędzie takie jak „SpeedFan”, które pozwala sprawdzić temperaturę procesora, a także innych komponentów. Dzięki tej aplikacji możesz wykreślić temperatury przy pierwszym uruchomieniu urządzenia. Jeśli zaczną się szybko wspinać i nigdy nie wydają się zmniejszać, możesz założyć, że chłodzenie jest problemem. W moim przypadku użyłem również bezpłatnej aplikacji o nazwie „CS Fire Monitor”, aby pokazać mi rzeczywistą prędkość mojego procesora i stwierdziłem, że gdy się nagrzeje, spada do mniej niż połowy prędkości. Istnieje wiele dobrych darmowych programów, które pokażą ci tego rodzaju informacje; po prostu Google „CPU Temp Freeware” lub „CPU Speed ​​Freeware” lub coś w tym stylu, a znajdziesz wiele różnych opcji.

Mamy nadzieję, że uratuje to kilka osób przed wymianą lub wyrzuceniem przyzwoitego sprzętu, który wymaga tylko terapii oddechowej!

Todd Corson
źródło
38

Tutaj jest kilka efektów:

  1. Zmienia się twoje postrzeganie szybkości komputera. Kiedy pierwszy raz dostajesz nowy sprzęt, masz coś konkretnego do porównania - stary sprzęt. To daje empiryczną miarę poprawy prędkości. W miarę upływu czasu pamięć o tym, jak powoli stary sprzęt zanika, masz tylko szybkość, z jaką ostatnio był porównywany.
  2. Pojawiają się nowe wersje oprogramowania, które dodają nowe funkcje rozszerzające funkcjonalność lub wykorzystujące nowy sprzęt. Będzie to z definicji większy program niż poprzednio, który zajmie więcej zasobów, powodując w ten sposób nieco wolniejsze działanie twojego sprzętu.
  3. Nagromadzenie sterowników, programów / zadań działających w tle itp. Każde dodatkowe zadanie sterownika / tła zajmuje nieco więcej zasobów - miejsce na dysku twardym, pamięć, cykle procesora itp. Chociaż każde z nich nie jest duże, efekt jest kumulatywny. Ludzie oczekują, że nowoczesne programy same się zaktualizują, więc są uruchomione dodatkowe zadania, o których nie masz pojęcia. Im dłużej masz komputer, tym więcej programów prawdopodobnie zainstalujesz.

Razem wzięte sprawiają wrażenie, że sprzęt zwalnia.

Mogą również występować inne efekty związane ze zużyciem sprzętu (fragmentacja dysku, opóźnienie pamięci).

ChrisF
źródło
10
To nie jest prawda. Na przykład sfilmowałem siebie za pomocą mojego nowego PowerBooka G4 kilka dni po jego nadejściu. Nie musiałem czekać ani sekundy na otwarcie Findera i wykonanie zwykłych czynności związanych z zarządzaniem plikami. Średnie obciążenie procesora wynosiło poniżej 2%. Aby to udowodnić, ponownie zainstalowałem TIGER całkowicie formatujący dysk twardy. Nadal otrzymuję średnie obciążenie procesora wynoszące 30% i muszę czekać 3-4 sekundy, zanim zakończy się jakakolwiek operacja szukacza.
Alexey Kulikov
1
@Alexey Kulikov - ChrisF nie powiedział „To wszystko w twojej głowie” było jedynym powodem spowolnienia sprzętu. Zużycie sprzętu może również powodować to, co opisujesz. Jest tak wiele zmiennych, że trudno dokładnie powiedzieć, dlaczego.
J. Polfer
1
Czy pełna ponowna instalacja obejmowała stosowanie aktualizacji? W takim przypadku porównanie jabłek z jabłkami nie jest prawdziwe.
Chris Nava
5
@Chris - „Jabłka do jabłek”, lol. Pun zamierzał?
Mosze
3
@Moshe Chciałbym powiedzieć Tak, ale nigdy nie przyszło mi to do głowy. :-( Poważnie, łatki (szczególnie poprawki bezpieczeństwa) często mają wpływ na wydajność, więc testowanie w pełni poprawionego systemu w porównaniu z tym, co pamiętasz sprzed lat, jest obarczone niezliczonymi zmiennymi.
Chris Nava
14

Kiedy uruchomiłem testy porównawcze (zarówno trywialne, jak bogomips , jak i bardziej poważne, takie jak Dhrystone i Whetstone ) na sprzęcie od pięciu do ośmiu lat, zawsze stwierdziłem, że przyniosło to takie same wyniki, jak wtedy, gdy było nowe. (Zawsze w systemie Linux i Mac OS boxen, BTW.)

Mam mniej doświadczenia z dyskami twardymi, ale przetestowałem jeden szybki i szeroki dysk SCSI2 około pięć lat na (z hdparm) i uzyskałem odpowiedzi porównywalne z oryginalną specyfikacją.

Myślę więc, że jest to głównie, jak powiedzieli inni, połączenie nowych oczekiwań i cięższego oprogramowania.

To powiedziawszy, obecnie mam powerbooka G4, który mógłby korzystać z testów, ponieważ z pewnością jest teraz wolniejszy niż kiedyś. Sugestia powyżej tego, że dławienie zegara może wejść w grę, jeśli układ chłodzenia zostanie zanieczyszczony, jest dobra.

dmckee
źródło
12

Prawo strony ;)

Prawo Wirtha, znane również jako prawo Pagea, prawo Gatesa i prawo Maya, to powiedzenie informatyczne, które stwierdza, że ​​oprogramowanie działa wolniej niż sprzęt.

sYnfo
źródło
3
+1 To nie jest sprzęt, ale oprogramowanie działa wolniej
Ivo Flipse
Miałem to jako uderzenie w twarz, kiedy dostałem łącze szerokopasmowe (i dzięki temu mogłem pobrać nowe oprogramowanie). PC tak szybko
zwolnił
6
haha, wspomniano również Prawo Bramy: „... prędkość komercyjnego oprogramowania ogólnie spada o pięćdziesiąt procent co 18 miesięcy, tym samym negując wszystkie zalety prawa Moore'a”.
Bratch
6

Pewne spowolnienie jest spowodowane fragmentacją dysku twardego , której lekarstwem jest Defragmentacja .
jest to zdefiniowane jako:

fragmentacja systemu plików, czasami nazywana starzeniem się systemu plików, jest niezdolnością systemu plików do sekwencyjnego (ciągłego) układania powiązanych danych, nieodłącznym zjawiskiem w systemach plików opartych na pamięci masowej, które pozwalają na lokalną modyfikację ich zawartości. Jest to szczególny przypadek fragmentacji danych. Fragmentacja systemu plików zwiększa ruch głowicy dysku lub szuka, które utrudniają przepustowość. Korekta istniejącej fragmentacji polega na reorganizacji plików i zwolnieniu miejsca z powrotem na sąsiadujące obszary, proces zwany defragmentacją.

W systemie Windows jest inny powód, dla rejestru systemu Windows

Rejestr systemu Windows to baza danych przechowująca ustawienia i opcje dla systemów operacyjnych Microsoft Windows. Zawiera informacje i ustawienia dotyczące sprzętu, oprogramowania systemu operacyjnego, większości programów nieoperacyjnych oraz ustawień poszczególnych użytkowników. Rejestr zapewnia również okno działania jądra, odsłaniając informacje o środowisku wykonawczym, takie jak liczniki wydajności i aktualnie aktywny sprzęt.

Z czasem czas rejestru kumuluje śmieci, a także musi zostać wyczyszczony i zoptymalizowany.

Innym wyjaśnieniem jest to, że nowsze wersje systemu operacyjnego są zwykle bardziej rozdęte i wolniejsze. Oznacza to, że po zainstalowaniu najnowszej wersji O / S lub poprawek możesz po kilku latach nagle zauważyć, że komputer działa teraz wolniej i nadszedł czas, aby zainwestować w nowy sprzęt, który może skutecznie obsługiwać wymagania najnowszej wersji twojego system operacyjny.

harrymc
źródło
zakładając, że „nowa instalacja” obejmuje formatowanie dysku systemowego, żadne z nich nie wpływa na nową instalację systemu operacyjnego na starszym sprzęcie.
quack quixote
Wpływ fragmentacji zależy również od niskiego stopnia używanego systemu plików. Niektóre systemy plików (FAT) do odrobina cierpi dużo , a inni cierpią bardzo niewiele. Nie wszystkie systemy operacyjne używają nieskończenie rosnącej scentralizowanej bazy danych do przechowywania różnych przełączników i opcji.
dmckee
Mam zamiar wyjść tutaj na całość i oświadczyć, że po 20 latach intensywnego użytkowania komputera nigdy nie zauważyłem zauważalnego przyspieszenia systemu po rozpakowaniu dysku. Czy są jakieś obiektywne dowody, które mogą zaprzeczać doświadczeniu.
Matthew Lock
1
to zależy od tego, co robisz. trollowanie przez mój niesystemowy dysk danych (powiedzmy, wykonywanie obliczeń md5) jest znacznie szybsze, gdy wszystkie pliki na dysku są defragmentowane, niż gdy pliki 1 + GB są rozproszone w ponad 200 fragmentach. jeśli nie widzisz przyspieszenia systemu po defragmentacji, być może twoje pliki systemowe nie były pofragmentowane.
quack quixote
Aby dodać do komentarza Matthew, nigdy nie widziałem przyspieszenia komputera po wyczyszczeniu rejestru. W przypadku setek tysięcy wpisów, usunięcie kilkuset nie ma żadnego znaczenia.
Richard
4

Przyzwyczajasz się do prędkości i teraz odczuwasz ją szybko.

Na przykład miałem klienta, który miał rutynę (którą uważali za przestój), która zajęła ponad godzinę na starym komputerze, a kiedy zaktualizowali swój komputer, proces ten zajął pięć minut, co sprawiło, że byli bardzo szczęśliwi.

Kilka lat do przodu, a teraz narzekają, że ta rutyna zajmuje pięć minut. I za każdym razem, gdy narzekają, naprawdę zapominają o czasie, jaki zajęło to godzinę.

sgmoore
źródło
2

Jest pewien problem z percepcją, ale jeśli faktycznie mierzysz zmniejszenie wydajności, chciałbym spojrzeć na ruchome części w systemie.

„Części ruchome”, pytasz, „jakie części ruchome?”

Dwie łatwe kategorie do sprawdzenia: wentylatory i napędy dyskowe. Wentylatory są oczywiste, ale oprócz samego wentylatora upewnij się, że przepływ powietrza i chłodzenie nie są zakłócone, aby zapewnić, że temperatury elementów wewnętrznych były również tam, gdzie były, gdy pudełko było nowe. Dyski są nieco bardziej subtelne, ale pogarszający się dysk może znacznie obniżyć wydajność podczas pracy. Sprawdź, czy testy porównawcze dysków odpowiadają nowej wydajności lub czy liczba błędów znacznie wzrosła.

Chociaż tak naprawdę się nie poruszają, są moralnym odpowiednikiem: złącza kablowe. Dowolny odłączany koniec każdego kabla. Odłącz, zapewnij czystość, podłącz ponownie i zapewnij szczelność.

mpez0
źródło
1

Być może zależy to wyłącznie od twojej percepcji.

3-4 lata temu błyszczał nowy sprzęt, który był szybszy niż sprzęt poprzedniej generacji, dlatego czuł się bardzo szybko.

Za 3-4 lata od tamtej pory bez wątpienia korzystałeś z komputerów z lepszym sprzętem, więc nawet jeśli wykonasz czystą instalację na starym komputerze, twoje doświadczenia na nowym sprzęcie pozostaną bezbarwne.

Czy masz dowody empiryczne, że maszyna faktycznie działa wolniej?

JRT
źródło
Tak, istnieją dowody - sfilmowałem siebie za pomocą mojego nowego PowerBooka G4 kilka dni po jego dostarczeniu. Nie musiałem czekać ani sekundy na otwarcie Findera i wykonanie zwykłych czynności związanych z zarządzaniem plikami. Średnie obciążenie procesora wynosiło poniżej 2%. Aby to udowodnić, ponownie zainstalowałem TIGER całkowicie formatujący dysk twardy. Nadal otrzymuję średnie obciążenie procesora wynoszące 30% i muszę czekać 3-4 sekundy, zanim zakończy się jakakolwiek operacja szukacza.
Alexey Kulikov
Ok, moja inna myśl byłaby taka, że ​​z czasem na twardym dysku pojawiły się uszkodzone sektory, co pociągnęłoby za sobą konieczność ponownego odczytu danych, które nie przeszły kontroli integralności. Wystąpiłoby to nawet po pełnym formacie.
JRT
Jak długo trwało opóźnienie między filmowaniem się przy użyciu nowego PowerBooka a ponownym instalowaniem TIGER?
J. Polfer
4 lata. Zawsze miałem wrażenie, że sprzęt się zużywa, a kilka dni temu znalazłem screencast, który nagrałem 4 lata temu. Więc poszedłem na eksperyment i voila - cały fakt.
Alexey Kulikov
1

Uważam, że niektóre aktualizacje sterowników mogą obecnie aktualizować oprogramowanie wewnętrzne na powiązanym urządzeniu. Istnieją również potencjalne aktualizacje mikrokodu procesora, choć rzadkie.

Widziałem niektóre popularne narzędzia diagnostyczne / testowe, które twierdzą, że wszystko działało z normalną prędkością, ale wystąpił pewien problem z niskim poziomem sterownika / sprzętu, który spowodował, że wskaźnik myszy zaczął się czołgać i skakać. W tamtym czasie nie wiedziałem o pomiarze opóźnienia DPC - to narzędzie prawdopodobnie wskazywałoby na problem.

Chodzi o to - możliwe, że rzeczy mogą spowolnić w sposób, który powoduje, że czują się wolniej, ale nie pojawiają się w narzędziach, z których korzystają zwykli użytkownicy komputerów.

Jeśli ktoś chce się w to zagłębić, myślę, że powinien mieć 2 identyczne komputery, drugi nigdy nie łączy się z siecią, nigdy nie otrzymuje aktualizacji ani nowych sterowników. I dla pewności zmień czas obu komputerów za pomocą zewnętrznego timera / sprawdź czas z NTP. - a po 4 latach powtórz czas i jeśli jest jakaś różnica, sklonuj dysk z niepołączonego komputera na podłączony i spróbuj ponownie. I sprawdź zmiany wersji oprogramowania układowego itp. Edytuj: A kiedy mówię „czas”, mam na myśli synchronizację jakiegoś niestandardowego zadania, nie używając istniejącego testu porównawczego. Zarówno producenci GPU, jak i procesorów zostali złapani na znanych testach gier według Anandtech i kilku innych witryn w ciągu ostatnich lat, które przeczytałem.

Anonimowy Tchórz
źródło
0

W rzeczywistości nie jest to problem techniczny, ale raczej problem ludzkiego mózgu. To może cię zaskoczyć, ale pozwól mi wyjaśnić. Mam dobrą podstawę do tego, co mówię.

Część problemu polega na tym, jak są stosowane aktualizacje oprogramowania i poprawki, ale to nie jest sedno problemu, który nie wydaje mi się.

Maszyny sprzętowe faktycznie stały się znacznie szybsze na przestrzeni lat, ale zdolność oprogramowania do ich ładowania wzrosła w jeszcze szybszym tempie, dając wrażenie i rzeczywistość, że niektóre rzeczy są wolniejsze.

Na przykład moje pierwsze pudełko Z-80 miało taktowanie 1 mega herca. Teraz moja platforma programistyczna działa z częstotliwością 2,66 GHz lub ponad 2000 razy szybciej. Nie pamiętam dokładnie, ale cały CPM mieści się w około 16 kb. Teraz Windows wie, jak duży, ale o wiele, wiele większy. Wykorzystuje wiele warstw abstrakcji, dzięki którym można robić niesamowite rzeczy w bardziej ogólny sposób, ale te warstwy odbijają się na wydajności.

Wróćmy do ludzkiego mózgu. Dobrze zrozumiałe jest to, że inżynierowie oprogramowania od wielu lat mówili i wierzyli z jakiegoś dobrego powodu, że sprzęt będzie po prostu coraz szybszy i dlatego oprogramowanie nie musi uważać na problemy związane z optymalizacją. Dlatego programiści robili rzeczy, aby wszystko działało szybko i kosztem szybkości ... myśląc, że ludzie sprzętu zajmą się tym problemem. Tak więc aktualizacje i łatki są wykonywane z myślą, że są tymczasowe, tj. Krótkoterminowe.

Jest to: krótkoterminowe, mikro myślenie, w długim okresie problem makro.

Przeczytałem interesującą książkę wiele lat temu, w której kilku naukowców przedstawiło ten krótkoterminowy i długofalowy problem myślenia ludzkiego i przeprowadziło eksperymenty na wielu ludziach, aby zobaczyć, w jaki sposób dokonują tych kompromisów. Ich książką jest New World New Mind, a autorami są Paul Ehrlich i Robert Ornstein. Uznałbym to za najważniejszą książkę, którą przeczytałem w ciągu ostatnich 20 lat, ponieważ zapewnił solidne ramy dla naszego rozwiązania problemu.

Zauważyli, że ludzki mózg ewoluował w czasie, gdy podejmowanie krótkoterminowych decyzji miało sens. Żyj chwilą i dniem, ale nie myśl zbyt wiele o przyszłości. To po prostu nie było tego warte. Nasze wyczucie rzeczy, których często używamy do podejmowania decyzji, jest bardzo starą częścią mózgu i nie jest dobrze dostosowane do wielu współczesnych problemów. A mózg nie miał realistycznego czasu na ewolucję, ponieważ świat szybko się zmienił wraz ze wzrostem populacji i wpływem technologii na rzeczy.

Ehrlich i Ornstein profesora odkryli, że bardzo inteligentni i dobrze wykształceni doktoranci, ale także dozorcy popełniali te same błędy, gdy przedstawiano im problemy krótko- i długoterminowe. Nie jest to coś, co ogólnie uważamy za przypadek.

Jeden bardzo dobry i przekonujący przykład tego, jak ten sam problem występuje obecnie na świecie, NIE dotyczy środowiska sprzętowego, ale jest to starszy brat całe cholerne środowisko, w którym żyjemy. My, ludzie, obecnie popełniamy błąd życia dzisiaj, ale w rzeczywistości globalne ocieplenie jest nad nami dokładnie dlatego, że nie pozwoliliśmy na to ani nie podjęliśmy środków, aby sobie z tym poradzić. Jest to spowolnienie sprzętu przez problem z oprogramowaniem od nowa, ale w innym kontekście.

Ornstein i Ehrlich zasugerowali, że możemy być w stanie podejmować bardziej trafne decyzje, opierając naszą decyzję nie na naszym instynkcie jelitowym, ale raczej na danych i statystykach. Na przykład, jeśli inżynier oprogramowania ma statystyki dotyczące tego, jak szybko jego oprogramowanie puchnie w stosunku do tego, jak szybko sprzęt robi się coraz szybszy, mogą podejmować lepsze decyzje, co uwzględnić, co pominąć i ile zoptymalizować algorytmy. Innymi słowy, jeśli wykorzystali rzeczywiste dane do podjęcia decyzji, a nie instynkt.

Dziękuję za dobre pytanie. Czasami proste pytania są najlepsze. dało mi to możliwość spojrzenia na to z nowej perspektywy. Nigdy wcześniej nie widziałem analogii między problemem oprogramowania sprzętowego w ludzkim kontekście.

Widok eliptyczny
źródło
0

Większość (jeśli w ogóle) testów porównawczych nie jest wiarygodna w mierzeniu szybkości działania systemu operacyjnego. O ile testem porównawczym nie jest jakiś system USB-na-USB, który kontroluje interfejs użytkownika innego komputera, naśladując mysz / klawiaturę, ścieżki wykonywania będą zupełnie inne. Powolność komputerów, o których wiem, wynika z aktualizacji sterowników / zabezpieczeń, które mogą również aktualizować oprogramowanie (i nie wiesz, czy aktualizacja fw w sterowniku się utrzymuje, czy nie), więc jedynym prawdziwym porównaniem jabłek z jabłkami jest zakup 2 komputerów i nigdy nie podłączaj drugiego do Internetu ani nie aktualizuj sterowników po pierwszej instalacji, ale zachowaj go do późniejszego porównania za pomocą takiego zewnętrznego narzędzia do testowania.

Zacząłem podejrzewać wszystkie testy, kiedy znalazłem przypadek, w którym test zwrócił „wszystkie dobre” liczby, podczas gdy jakiś problem ze sprzętem powodował zawieszanie się myszy, a system był właściwie ledwo kontrolowany - najwyraźniej na testy nie wpłynęły niektóre niskie poziom rzeczy, które mogą wpływać np. szybkość i sterowność komputera.

(Nieco inny, ale podobny przypadek: mimo że test porównawczy Q6600 był mniej więcej taki sam jak równoważny dwurdzeniowy Ghz, zauważyłem, że czas reakcji był wyraźnie niższy. Wyjaśniono to, że planista Win-Vista nie był dobry z 4 rdzeniami - chodzi o to - po prostu ponieważ większość testów porównawczych pokazujących FPS nie wykrywa drobnych drgań, które odczuwa użytkownik, testy porównawcze stosowane przez prasę komputerową nie mierzą takich rzeczy jak „Przerwij przetwarzanie opóźnień” i pokazują statystyki tego, a nie tylko średnią)

edytuj: A jeśli wykonujesz taką konfigurację z nietkniętym komputerem referencyjnym, jeśli ma on baterię i jest zasilany, hw maker może oszukiwać, uruchamiając LFO, aby potajemnie przestarzały sprzęt, np. spowalniając niektóre operacje, których testy porównawcze nie przeprowadzają. Lepszym niż zwykle testem porównawczym dla prasy do gier byłoby uruchomienie np. dosbox, emulatory, pomiary opóźnień w oprogramowaniu vmware / hyperv, które obciążą procesor w bardziej złożony sposób niż w inny sposób.

edit2: a jeśli naprawdę chcieli, mogliby zamontować coś, co się starzeje lub jakiś licznik i bardzo niski pobór mocy, kondensator lub niewielką baterię naładowaną fabrycznie. Więc bez względu na to, czy nigdy nie zasilasz urządzenia, mogą one spowolnić z czasem, ale tego rodzaju rzeczy mogą być odpowiedzialnością, jeśli ktoś je znajdzie, ale nie miałoby to tak naprawdę znaczenia, chyba że zostanie to nielegalne, a grzywny wystarczą, aby je zgasić biznesu.

Anonimowy Tchórz
źródło