Widziałem, że procesory i systemy operacyjne przesunęły się w górę pod względem bitów od 8-bitowych do 16-bitowych, do 32-bitowych i obecnie do 64-bitowych. Rozumiem, że ta zmiana ma na celu zwiększenie maksymalnej ilości pamięci adresowalnej przez CPU.
Nie rozumiem, dlaczego zawsze podwaja się rozmiar autobusu. Czy podwojenie rozmiaru autobusu jest decyzją arbitralną / biznesową, czy może jest inny powód?
Dlaczego nie możemy mieć 33-bitowego procesora? A jeśli to nie wystarczy, 34-bitowy procesor? 64-bit wydaje się być tak ogromnym i niepotrzebnym (drogim?) Skokiem w przestrzeni adresowej i przypuszczalnie złożonością bazowego krzemu.
Odpowiedzi:
Widziałem 12, 14, 15, 17, 18, 20, 24 i 48-bitowych procesorów. Ale przy nowoczesnej technologii VLSI (czy to już ULSI?) Dodawanie kolejnych bitów do ścieżki danych nie jest tak drogie. Twórcy wiórów wciskają na układ jak najwięcej szerokości, ponieważ zwiększa to przepustowość przy stosunkowo niewielkich kosztach dodatkowych i przy niewielkim opóźnieniu czasowym cyklu.
Osiągnięcie większej prędkości / przepustowości dzięki wąskiej ścieżce danych i krótszemu cyklowi jest znacznie trudniejsze.
źródło
W przeciwieństwie do wielu okoliczności w komputerze, na przykład adresowania, gdzie zwiększenie długości adresu o jeden bit zwiększa ilość pamięci adresowalnej o moc 2 (i dlaczego moc 2 jest tak powszechna w pamięci), rzeczywista długość słowa procesora może być dowolną dogodną wartością.
Typowe długości słów dla procesorów (16, 32 i 64 bity) powstały w rzeczywistości jako wielokrotności liczby 8 (zamiast potęgi 2, chociaż oczywiście te poszczególne wielokrotności liczby 8 również są potęgami 2), przy czym 8 bitów jest minimalny rozmiar pojedynczego znaku , sam najmniejszy powszechnie używany typ danych pierwotnych.
Ponieważ 8 bitów jest zbyt nieprecyzyjne, aby było bardzo przydatne w przypadku wartości liczbowych (lub nawet rozszerzonych zestawów znaków, takich jak UTF-16), słowa większe niż 8 bitów pozwalają na znacznie większą wydajność podczas pracy z wartościami wykorzystującymi więcej niż tyle bitów precyzji , a wielokrotności 8 bitów (najmniejszy powszechnie używany typ danych) są nadal naturalnym wyborem, pozwalając na zapisanie liczby całkowitej (np. 2, 4 lub 8) znaków w słowie bez pozostawiania zmarnowanych, niewykorzystanych bitów.
Artykuł w Wikipedii na temat słów zawiera sekcję Wybór rozmiaru słowa z jeszcze nieco bardziej szczegółowymi szczegółami.
źródło