Dlaczego istnieje rozbieżność w liczbie bajtów w kilobajcie? W niektórych miejscach widziałem liczbę 1024 (2 10 ), podczas gdy w innych jest to 1000 (i różnica staje się coraz większa w przypadku M, G, T itp.).
Nie jest to dyskusja na temat tego, czy powinna ona wynosić 1024 czy 1000 (choć można to omówić w komentarzach), ale na temat tego, gdzie / kiedy ta sytuacja się pojawiła i / lub stała się powszechna.
O ile mi wiadomo, Linux i producenci sprzętu nigdy nie używają wariantu 1024. To i słyszę, że myślę, że MS-DOS sprawił, że ta wersja jest powszechna, ale jakie są fakty?
gigabyte
prawidłowo używają tego terminu ?Odpowiedzi:
Cofa się od dawna i jest szczegółowo opisane tutaj . Wygląda na to, że możesz winić IBM, jeśli ktokolwiek.
Zastanawiając się nad tym, obwiniłbym Amerykanów jako całość, za ich rażące lekceważenie dla Système international d'unités : P
źródło
Na początku wszystkie obliczenia były na niskim poziomie. A przy programowaniu na niskim poziomie liczba „1000” jest całkowicie bezużyteczna i potrzebowali prefiksów dla większych ilości, więc ponownie wykorzystali te z SI. Wszyscy wiedzieli o tym w terenie, nie było zamieszania. Służył dobrze przez 30 lat lub kto wie.
Nie dlatego, że byli Amerykanami, więc za wszelką cenę musieli przełamać SI. :-)
Nie ma programisty, którego znam i który mówi kibibyte. Mówią kilobajty i oznaczają 1024 bajty. Algorytmy są pełne potęg 2. 2. Nawet dzisiaj „1000” jest naprawdę bezużyteczną liczbą między programistami.
Mówienie kibi i mibi jest po prostu zbyt zabawne i zwraca uwagę na ten temat. Z radością oddajemy go sektorom telekomunikacyjnym i pamięci dyskowych :-). I napiszę kibibajty na interfejsach użytkownika, w których mogą go czytać nieprogramiści.
źródło
Jest poprawne i ma sens, aby ludzie techniczni używali 1024 = 1 K.
Dla użytkowników końcowych zwykle lepiej jest powiedzieć 1000 = 1k, ponieważ wszyscy są przyzwyczajeni do systemu liczbowego opartego na 10.
Problem polega na tym, gdzie narysować linię. Czasami osobom zajmującym się marketingiem lub reklamą tak naprawdę nie udaje się „tłumaczyć” ani dostosowywać danych technicznych i języka do użytkowników końcowych.
źródło
Obwiniaj producentów półprzewodników (dostarczają nam tylko sprzęt binarny) [1]
Jeszcze lepiej: obwinianie samej logiki (logika binarna jest tylko najbardziej elementarną logiką).
Jeszcze lepiej: kogo winić za nieszczęsny system dziesiętny ?
Ma znacznie więcej wad niż system binarny. Kaszel opierał się na średniej liczbie palców u kaszlu gatunku ludzkiego
Oooo ...
[1] Chcę mój kwantowy komputer z trzema kubitami !!! Teraz!
źródło
1024 nie można winić, jest to naprawdę bardzo dobra rzecz, ponieważ jest to powód, dla którego komputer (cyfrowy) może być tak szybki i tak wydajny jak obecnie. Ponieważ komputer używa tylko 2 wartości (0,1), usuwa z równania trudność i złożoność (niedokładność) systemu anologicznego.
Byłoby bardziej skomplikowane, gdybyśmy powiedzieli, że kilobajt to 1000 bitów, ponieważ 2 do jakiej mocy jest 1000? więc nawet 1 kilobajt byłby niedokładny, ponieważ będzie miał zmiennoprzecinkowe lub przybliżone wartości.
Ale w dużej mierze obwiniam marketing za sprzedaż 8 gigabajtów * i dodanie tego w małym druku
szkoda, tak samo jest z szybkością połączenia, twój dostawca usług internetowych mówi 1,5 Mb / s zamiast mówić ~ 150 kilobajtów. to po prostu bardzo mylące
źródło
Jeśli weźmiesz pod uwagę, że liczby na komputerach są binarne, a 2 ^ 10 to 1024, ma to sens. O wiele łatwiej jest pracować z 1024 niż 1000, ponieważ można łatwo podzielić przez 1024, używając tylko matematyki liczb całkowitych i przesunięcia bitów . Dzielenie przez 1000 jest znacznie droższą operacją, która może wymagać matematyki zmiennoprzecinkowej.
Na przykład
źródło