To trochę „jeden megabajt powinien wystarczyć każdemu”, ale ...
64-bitowa płaska przestrzeń adresowa zapewnia do 4,3 miliarda razy więcej miejsca niż 32-bitowa przestrzeń adresowa. To 17 179 869 184 GiB.
Oczywiście przejście z 8 bitów na 16 bitów było dość szybkie (oglądam rzeczy po nastolatku w latach 80., ignorując te wszystkie komputery mainframe i minis, ponieważ nie mogły one obsługiwać portu Elite). Przejście z 16 bitów na 32 bity trwało nieco dłużej, a 32 bity trwały dość długo.
Teraz mamy 64 bity, czy głupotą byłoby powiedzieć „17 179 869 184 GiB powinno wystarczyć każdemu”?
To pytanie programistów, ponieważ naprawdę mam na myśli punkt widzenia programowania. Nawet jeśli pewnego dnia komputer ma pozornie nieskończoną ilość pamięci roboczej, nie oznacza to, że aplikacje będą musiały zobaczyć pozornie nieskończoną płaską przestrzeń adresową.
Zasadniczo, czy programiści mogą odetchnąć z ulgą i powiedzieć „cóż, cokolwiek by to zrobiły liczby całkowite lub zmiennoprzecinkowe, przynajmniej nie muszę się martwić, że moje wskaźniki wzrosną?”.
źródło
Odpowiedzi:
Nie sądzę, żebyśmy mieli maszyny z więcej niż 2 ^ 64 bajtami pamięci RAM w dającej się przewidzieć przyszłości, ale to nie wszystko, do czego przydatna jest przestrzeń adresowa.
Do niektórych celów przydatne jest mapowanie innych rzeczy w przestrzeni adresowej, których ważnym przykładem są pliki. Czy rozsądne jest, aby w dającej się przewidzieć przyszłości do komputera podłączyć więcej niż 2 ^ 64 bajty dowolnego rodzaju pamięci?
Musiałbym powiedzieć tak. Tam musi być znacznie ponad 2 ^ 64 bajtów pamięci, ponieważ to tylko około 17 milionów ludzi z dyskami twardymi o pojemności terabajta. Od kilku lat mamy bazy danych zawierające wiele petabajtów, a 2 ^ 64 to tylko około 17 tysięcy petabajtów.
Myślę, że w ciągu kilku następnych dziesięcioleci prawdopodobnie użyjemy przestrzeni adresowej> 2 ^ 64.
źródło
O ile komputery nie zaczną stosować przełomowych technologii, które jeszcze nie istnieją nawet w laboratoriach, posiadanie ponad 2 64 adresowalnej przestrzeni nie jest fizycznie możliwe przy obecnej technologii krzemowej . Technologia osiąga granice fizyczne . Limit prędkości (GHz) został osiągnięty już kilka lat temu. Limit miniaturyzacji jest również bardzo bliski. Obecnie najbardziej zaawansowana technologia produkcji to 20 nm, w laboratoriach 4 nm z tranzystorami wykonanymi z 7 atomów.
Po prostu z perspektywy czasu, jak długo zajmuje opracowanie nowej technologii: obecne komputery oparte są na tranzystorach wynalezionych w 1925 roku, a obecna technologia krzemowa pochodzi z 1954 roku.
Jeśli chodzi o technologie alternatywne:
źródło
for(unsigned __int128 i=0; i<2^128; i++){}
. Przy obecnej technologii nie ma większego zastosowania 128-bitowych liczb całkowitych. Oprócz powrotu do niezabezpieczonej przestrzeni adresowej, ponieważ przypadkowe nadepnięcie na pamięć innych aplikacji w 128-bitowej przestrzeni adresowej byłoby prawie niemożliwe, nawet gdybyś pisał losowo na losowe adresy.Połączony superkomputer Thorbjoern ma około 2 ^ 47 B pamięci fizycznej.
Zakładając, że prawo Moore'a dotyczy pamięci superkomputerów, stanie się 2 ^ 64 B pamięci fizycznej za zaledwie 34 lata. To jest jak „OMG, damy radę to zobaczyć !!!!”. Może. I rzeczywiście jest fascynujący. Ale równie nieistotne.
Pytanie brzmi: czy potrzebuję 128-bitowej przestrzeni adresowej, aby użyć 2 ^ 65 B pamięci fizycznej?
Odpowiedź brzmi NIE . Potrzebuję 128-bitowej przestrzeni adresowej, aby adresować 2 ^ 65 B pamięci wirtualnej z jednego procesu .
To jest kluczowy punkt pytania: „Czy aplikacje świata rzeczywistego będą kiedykolwiek potrzebować 128-bitowej płaskiej przestrzeni adresowej?”. „ Potrzeba ”, nie absolutnie, można sobie poradzić z mniejszym, zmapować przestrzeń adresową (nie płaską); ale wtedy nie byłoby „płaskiej 128-bitowej przestrzeni adresowej”.
Jako przykład załóżmy, że chciałeś przypisać atomom fizyczny adres pamięci (z dowolnego powodu, głównie w celu podania tego prostego przykładu), zacznij od zera i licz dalej (wróć do mnie, kiedy skończysz). Teraz ktoś inny chce zrobić to samo na Kepler-10c (w odległości 568 km).
Nie chcesz się starcia adres, by druga osoba przydziela wysokiej adres pamięci w płaskiej przestrzeni pamięci dostępnej, który pozwala, je, a następnego ludzie być bezpośrednio skierowana, bez mapowania pamięci. Jeśli nie będziesz tego robić lub nie będziesz w stanie poradzić sobie bez relacji jeden-do-jednego między pamięcią a jej adresem (jesteś gotów zaimplementować rzadką tablicę), możesz sobie poradzić z pamięcią o 64-bitowej pamięci lub mniej.
Ilekroć ktoś zaproponuje „ X ilość Y będzie wystarczająca ”, taka prognoza często pozostaje krótkotrwała.
Pytanie zatem brzmi: jak szybko będziemy mieli pojedyncze procesy , które zużyją 2 ^ 65 B pamięci. Mam nadzieję, że nigdy.
Dużym problemem naszych czasów jest to, że moc obliczeniowa pojedynczego procesora jest ograniczona. Istnieje granica wielkości określona przez wielkość atomów, a dla danego rozmiaru istnieje granica częstotliwości zegara, podana przez prędkość światła, prędkość, z jaką propagowane są informacje o zmianach pól magnetycznych w naszym wszechświecie.
W rzeczywistości limit został osiągnięty kilka lat temu, a my ustaliliśmy stawki taktowania poniżej tego, co poprzednio. Moc procesora nie będzie już powiększana liniowo. Wydajność jest teraz zwiększona poprzez wykonanie poza kolejnością, przewidywanie gałęzi, większe pamięci podręczne, więcej kodów operacyjnych, operacje wektorowe i inne. Nastąpiła optymalizacja architektoniczna .
Ważnym pomysłem jest równoległość. Problem z równoległością polega na tym, że nie skaluje się. Jeśli napisałeś wolny kod 20 lat temu, działał on znacznie szybciej 10 lat temu. Jeśli teraz napiszesz wolny kod, nie będzie on znacznie szybszy za 10 lat.
Procesy wykorzystujące 2 ^ 65 B pamięci są oznaką największej głupoty. To pokazuje, że nie było optymalizacji architektonicznej . Aby rozsądnie przetworzyć te dane, potrzebujesz około 10 milionów rdzeni, z których większość spędziłaby czas czekając, aż jakiś zasób stanie się dostępny, ponieważ te rdzenie, które faktycznie nabyły zasób, używają pamięci fizycznej przez sieć Ethernet na zupełnie innym komputerze. Kluczem do radzenia sobie z dużymi, złożonymi problemami jest ich rozkład na małe, proste problemy i nie budowanie coraz większych i coraz bardziej złożonych systemów. Potrzebujesz partycjonowania poziomego, gdy masz do czynienia z sh * ładunkami danych.
Ale nawet zakładając, ten obłęd powinien iść dalej, pewny, 128 bit jest wystarczająco :
Aby użyć 128-bitowej przestrzeni adresowej, potrzebujemy 2 ^ 133 bitów, więc potrzebujemy 2 ^ 152 atomów . Zakładając równy rozkład atomów na ziemi, zobaczmy, ile skorupy musimy wziąć, aby je uzyskać:
Masz 130 metrów do pokonania na całej powierzchni (w tym 80% pokrytych wodą, piaskiem lub lodem). To się nie wydarzy. Nawet zakładając, że możesz go wykopać (lol) i cała ta materia nadaje się do przetworzenia na chipy, skąd weźmiesz energię?
źródło
Cóż, zdecydowanie możemy użyć dużej przestrzeni adresowej.
Wyobraź to sobie:
Przestrzeń adresowa nie jest ograniczona do jednego komputera. Zamiast tego adres jednoznacznie identyfikuje komórkę pamięci w uniwersalnej przestrzeni adresowej. Możesz mieć wskaźnik do komórki pamięci na dowolnym komputerze na świecie. Potrzebny będzie protokół umożliwiający odczyt ze zdalnej pamięci, ale to szczegół implementacji. :-)
Pamięć to Write One, Read Many, tzn. Dane można zapisać tylko raz na adres pamięci. Aby uzyskać zmienną wartość, będziesz musiał przydzielić nowy kawałek pamięci za każdym razem, gdy się zmieni. My, programiści, zaczęliśmy dostrzegać zalety niezmienności i pamięci transakcyjnej, więc konstrukcja sprzętu, która nawet nie pozwala na nadpisywanie pamięci, może nie być tak niemożliwym pomysłem.
Połącz te dwa pomysły, a będziesz potrzebować ogromnej przestrzeni adresowej.
źródło
Im bardziej wydajne stają się komputery, tym bardziej złożone problemy wymagają współpracy.
Największy superkomputer wymieniony na top500.org to http://www.top500.org/system/10587 z około 220 TB pamięci RAM i 180000 rdzeni. Innymi słowy, z tym mogą współpracować „aplikacje z prawdziwego życia” na tej platformie.
Dzisiejsze komputery są tak potężne jak superkomputery 10–15 lat temu (nawet jeśli moc obliczeniowa może być ukryta na karcie graficznej).
Zatem współczynnik 100 w pamięci za 10-15 lat będzie oznaczał, że 64-bitowa przestrzeń adresowa będzie czynnikiem ograniczającym za około 100 lat (ponieważ log (100 milionów) / log (100) wynosi około 6), jeśli obecny trend się utrzyma.
źródło
Cały ten wątek jest dość zabawny do przeczytania, bardzo silna opinia za i przeciw ...
Tutaj coś ..
Rozumiem z pytania, że był on niezależny od technologii i nie był związany czasem. W związku z tym obecny rozwój komputerów krzemowych, komputerów kwantowych lub Infacite Monkey Peddling Abacus jest w rzeczywistości nieistotny.
Obliczenia i ekstrapolacje są również dość zabawne, chociaż odpowiedź back2dos działa całkiem dobrze, aby zilustrować rozmiar tego, co reprezentuje ta liczba. więc pracujmy z tym.
Wyobraźcie sobie przyszłość, w której człowiek nie jest już ograniczony do małej planety, opracowano realistyczny środek transportu, który umożliwia transport na bardzo duże odległości, a struktury społeczne (gospodarcze, polityczne itp.) Ewoluowały, by przekroczyć pokolenia. Projekty faraońskie stały się powszechnymi miejscami. Skoncentrujmy się jednak na dwóch aspektach tej dalekosiężnej wizji przyszłości, jeśli jednak chcemy poświęcić czas na wyjaśnienie wszystkich szczegółów, jestem pewien, że można to zracjonalizować poprzez serię prawdopodobnych zmian w obecnych technologiach. Innymi słowy, prawdopodobna, choć mało prawdopodobna przyszłość ... w każdym razie ...
Pierwszy projekt o nazwie Colossus ku pamięci tego pierwszego komputera elektronicznego, ponieważ jest to pierwszy komputer planetarny. Bractwo Kolosów rzeczywiście wymyśliło sposób na schwytanie małej planetoidy i przekształcenie jej w działający komputer. Niedawno odkryte w pasie Kuypera, który jest perkulująco bogaty w topliwe izotopy, co czyni go energetycznie autonomicznym, uczyniły proces budowy całkowicie autonomicznym z sondami, robotami itp., Dzięki czemu system komputerowy sam się naprawia i buduje. W tym stanie można sobie wyobrazić, że przestrzeń adresowa 2 ^ 64 jest nieco ograniczona dla tego projektu, ponieważ chcą uzyskać ciągłą przestrzeń adresową do łatwego przenoszenia aplikacji już istniejących dla innego projektu, również w toku.
Drugi projekt to raczej eksperyment w sieci niż system fizyczny, jednak szybko wykazał, że potrzebna jest większa przestrzeń adresowa. 540 lat temu młody haker bawił się pomysłem stworzenia gigantycznej sieci botów. Internet już się rozszerzył, obejmując powstające kolonie wokół Układu Słonecznego, opierając się na znacznych postępach w dziedzinie energii syntezy jądrowej. Jego ideą było, aby małe boty były rozmieszczone w sieci, ale ładunek miał zapewnić zunifikowaną maszynę wirtualną, w której kod byłby zapisywany, zakładając, że ma on moc wszystkich botów razem. Wielkie wysiłki włożono w kompilator i wdrożenie, próbując zoptymalizować opóźnienia i wyrafinowane algorytmy zaprojektowane w celu uwzględnienia nieodłącznej niewiarygodności podstawowego medium. Specjalnie napisano język, by kierować reklamy na ten nowy „ zamiast tego nasz haker stworzył firmę parasolową i sprzedaje moc obliczeniową oferentowi, który zaoferuje najwyższą cenę. Kiedy zmarł, podarował ten botnet i wszystkie technologie fundacji. W tym momencie botnet działał już od 64 lat i już dość dawno przekroczył przestrzeń adresową 2 ^ 64, niszcząc 1000-letnie przekonanie, że nigdy nie będziemy potrzebować większej przestrzeni adresowej. Obecnie 2 ^ 128 jest normą i tym, co zostanie użyte dla Kolosa, ale są już plany rozszerzenia tego do 2 ^ 256. zamiast tego nasz haker stworzył firmę parasolową i sprzedaje moc obliczeniową oferentowi, który zaoferuje najwyższą cenę. Kiedy zmarł, podarował ten botnet i wszystkie technologie fundacji. W tym momencie botnet działał już od 64 lat i już dość dawno przekroczył przestrzeń adresową 2 ^ 64, niszcząc 1000-letnie przekonanie, że nigdy nie będziemy potrzebować większej przestrzeni adresowej. Obecnie 2 ^ 128 jest normą i tym, co zostanie użyte dla Kolosa, ale są już plany rozszerzenia tego do 2 ^ 256.
Prawdopodobnie mógłbym wymyślić bardziej quasi-prawdopodobne scenariusze, które pokazują, że tak ... jest całkiem możliwe, nie, prawie pewne, że pewnego dnia będziemy potrzebować większej przestrzeni adresowej.
To powiedziawszy, jednak nie sądzę, żebym przespał to, jeśli twoja aplikacja wymaga pewnej przestrzeni adresowej do poprawnego działania, najprawdopodobniej będzie żyła na maszynie wirtualnej, która daje wszystko, czego potrzebuje ...
Tak więc ... krótka odpowiedź ...
TAK, najprawdopodobniej
ale
Dlaczego nie poradzić sobie z tym, gdy pojawia się problem ... Osobiście nigdy nie zakładam w swoich programach, więc nigdy nie mam niespodzianek.
źródło
Lokalizacje adresów mają logarytmiczny koszt w odniesieniu do szerokości adresu, dzięki czemu możemy rozważyć górne granice na podstawie danych parametrów:
Możemy przyjąć możliwe konfiguracje za górną granicę największego fizycznie możliwego do zbudowania adresu pamięci.
źródło
Cóż, myślę, że przez kilka lat prawdopodobnie odetchniesz z ulgą. Patrząc na szybkość innowacji w sprzęcie, można zauważyć, że w ciągu ostatnich kilku lat nie nastąpił znaczący przełom. Procesory z częstotliwościami 2.x GHz istnieją już od jakiegoś czasu, a każdy wzrost mocy obliczeniowej w dzisiejszych czasach wynika z upakowania większej liczby rdzeni na chipie. Pojemność napędu wciąż rośnie, ale nie w takim samym tempie jak 10 lat temu.
Myślę, że nasza obecna technologia zbliża się do granic fizyki.
Co to oznacza dla przyszłości? Myślę, że w celu uzyskania nowych skoków kwantowych w przetwarzaniu informacji konieczne będzie wykorzystanie całkowicie nowych technologii. Technologie te prawdopodobnie wykorzystają „oprogramowanie”, choć być może w kontekście zupełnie innym niż to, czym jest dzisiaj. A kto wie, jakie wymagania dotyczące przestrzeni adresowej mają lub mogą zapewnić? A może przestrzeń adresowa jest nawet sensowną koncepcją w tej technologii?
Więc jeszcze nie przechodź na emeryturę.
źródło
Tak, będzie. (Gry? Rzeczy związane ze sztuczną inteligencją?)
Bardziej odpowiednim pytaniem może być jednak to, czy będzie się liczyć do typowego programisty. Pomyśl o tym, jak Ruby automatycznie konwertuje liczby z FixNum na BigNum iz powrotem w razie potrzeby. Byłbym zaskoczony, gdyby inne języki (przynajmniej te dynamiczne) ostatecznie nie zrobiły tego samego.
źródło
Przechowywanie takiej ilości informacji to jedno, a robienie z nimi czegoś pożytecznego to drugie. Z mojego punktu widzenia nie widzę potrzeby korzystania z tej pamięci, chyba że mamy moc obliczeniową do jej wykorzystania. Być może buforowanie ogromnych baz danych to jedno, ale myślę, że najpierw potrzebujemy procesorów.
źródło
Czy aplikacje będą kiedykolwiek potrzebować tyle pamięci? Całkiem możliwe. Aplikacje takie jak prognozy pogody, ogólnie symulacje fizyczne lub kryptografia prawdopodobnie zawsze skorzystają z większej pamięci i większej mocy obliczeniowej. A kto wie, jaka będzie aplikacja dla zabójców za 50-100 lat? Wyświetlacze holograficzne? Tęczowe tabele dla każdego możliwego hasła składającego się z 100 znaków?
Czy fizycznie możliwe jest reprezentowanie tak dużej ilości pamięci? Zdecydowanie możliwe. Na przykład komputer kwantowy o 100 kubitach może reprezentować tę samą liczbę stanów, co klasyczny komputer 2–100 bitowy. O wiele więcej niż 2 ^ 67 bitów przestrzeni adresowej, którą mamy teraz. (Wiem, 100-kubitowy komputer kwantowy brzmi jak science fiction. Nie jestem przekonany, czy kiedykolwiek będzie można go zbudować. Z drugiej strony to samo można by prawdopodobnie powiedzieć o każdej technologii, która zostanie użyta 50 lub za 100 lat.)
Ale poważnie wątpię, że do tego czasu głównym zmartwieniem będą „płaskie przestrzenie adresowe”. Być może do tego czasu opracujemy algorytmy kwantowe, w których koncepcja „przestrzeni adresowej” nie ma większego sensu. Nawet jeśli komputery pozostaną „klasyczne”, prawdopodobnie będziemy mieli do czynienia z przerażającą liczbą jednostek przetwarzających z dołączoną niejednolitą pamięcią.
źródło
Co by się stało, gdyby każda lokalizacja pamięci miała globalnie unikalny adres?
FILE
,fopen()
itpźródło
Po prostu „głośno myślę” tutaj, ale przyszło mi do głowy, że można zrobić ciekawe rzeczy semantyczne z pozostałymi 64 bitami na, powiedzmy, 128-bitowym komputerze. Por. sposób, w jaki działa IP.
Jestem pewien, że ludzie mogą wymyślić zabawne zastosowania dla czegoś takiego. :) Czy ktoś wie, do czego PS3 używa swoich 128-bitowych adresów? Na pewno nie zmarnowałbyś całej dodatkowej pamięci (a mówię tylko o pamięci dla rzeczywistych adresów, a nie o tym, na co wskazują te adresy). Adresy jako dane. Możesz nawet zakodować gałąź w samym adresie ... tzn. 0x [ifAddress] [elseAddress] Systemy wielordzeniowe również mogą skorzystać z tego rodzaju segmentacji. I i...
źródło
Czy jest jakiś powód, aby wyjść ponad architekturę 64-bitową? (18446,744,073,709,551,615 bajtów pamięci adresowalnej)
Stosując standard IEEE 1541-2002 dotyczący stosowania prefiksów dla binarnych wielokrotności jednostek miar związanych z elektroniką cyfrową i obliczeniami, widzimy, że:
1 bajt = 8 bitów, 1 kilobajt = 1024 bajtów, 1 megabajt = 1024 KB, 1 gigabajt = 1024 MB, 1 terabajt = 1024 GB, 1 petabajt = 1024 TB, 1 eksabajt = 1024 PB
I tak dalej w przypadku Zettabyte, Yottabyte, Xenottabyte, Shilentnobyte, Domegemegrottebyte, Icosebyte i Monoicosebyte.
Szacuje się, że całkowita pamięć dyskowa Ziemi będzie wynosić około 2500 eksabajtów na 2016 r.
64-bitowy rejestr ma bezpośredni dostęp do 15 eksabajtów pamięci. Do rejestru 128-bitowego można uzyskać bezpośredni dostęp do 3,40282367 × 10 ^ 35 Zettabajtów. Lub 295,147,905,247,928,000 Monoicosebytes.
Widzimy więc, że 128-bitowy rejestr byłby w dobrej sytuacji, aby uzyskać dostęp do całej pamięci Ziemi, wszystkiego, co kiedykolwiek wysłano w Internecie, każdego słowa, które kiedykolwiek powiedziano lub napisano, każdego filmu i wielu innych rzeczy, przez dłuższy czas .
Tak więc odpowiedź brzmi: tak , w oczekiwaniu na strukturę, która może wskazywać na każdą cyfrową rzecz, która kiedykolwiek była lub będzie .
źródło
Najlepsze oszacowanie, jakie mogę znaleźć dla liczby neuronów w przeciętnym ludzkim mózgu, wynosi około 86 miliardów. Ogólnie nie możemy bezpośrednio porównać pamięci RAM z neuronami, ale w sieci neuronowej można to zrobić. Zajmuje wiele adresów reprezentujących stan neuronu lub synapsy. Więc wyrzucę zgadywankę i powiem, że patrzymy na coś w rodzaju bilionów adresów, aby stworzyć sieć neuronową, która byłaby porównywalna z ludzkim mózgiem. Więc jeśli można to zrobić, nie rozumiem, dlaczego nie poszedłby o wiele dalej. Rodzaje problemów, które taka sieć mogłaby rozważyć, wykraczałyby poza nasze możliwości zrozumienia, a także dlaczego musiałyby być tak duże, aby to zrobić.
źródło
To przestrzeń adresowa. Powiedzmy, że zmieniamy standard C, aby realloc nie mógł zmienić używanego wskaźnika. Mogę dziś przydzielić 2 ^ 33 bloków pamięci (wymagałoby 192 GB pamięci RAM na moim komputerze Mac, 8 miliardów razy 8-bajtowy wskaźnik i 16-bajtowej przydzielonej przestrzeni, więc nie mogę teraz tego zrobić, ale mogę kupić komputer Mac, który może to zrobić bez zaciągania nowej hipoteki).
I mogę ponownie przydzielić dowolny z tych wskaźników, aby pomieścić 2 ^ 33 bajty. Jednak niewiele w tym samym czasie :-) Jeśli realloc nie pozwala na przesuwanie wskaźników, a dozwolone są 2 ^ 33 bajty, oryginalne wskaźniki muszą znajdować się w odległości 2 ^ 33 bajtów, co oznacza, że potrzebne są 2 ^ 66 bajtów pamięci.
źródło
Jasne, nie widzę powodu, dla którego taka ilość miejsca nie byłaby potrzebna w przyszłości. Jeśli weźmiesz pod uwagę tworzenie gier, nie ma ograniczeń co do tego, jak realistyczna lub złożona może być gra, prawda? (Szczegół grafiki / liczby zastosowanych wielokątów i algorytmów definiujących interakcję i zachowanie obiektów)?
Kto wie, za 10 lat będziemy mogli grać w gry o pojemności 10 TB z minimalnymi wymaganiami pamięci RAM 12 GB i 8-rdzeniowym procesorem. : P
źródło
20 lat temu na świecie żyło o 2 miliardy ludzi mniej, a większość systemów komputerowych miała pamięć adresowalną, którą można było zmierzyć w kilobajtach. Obecnie populacja świata rośnie w tym samym tempie, a liczba użytkowników komputerów rośnie wykładniczo każdego roku.
Prawdą jest, że bardzo niewiele systemów potrzebuje pełnej 64-bajtowej przestrzeni adresowej. Jednak niektóre systemy przechowują terabajty informacji każdego dnia. Było to możliwe dzięki wzrostowi liczby użytkowników komputerów i prędkości Internetu. Możemy już obsługiwać prędkości Internetu 10 GB / s już po 23 latach od wynalezienia HTTP. Przy takim tempie myślę, że głupotą byłoby nie oczekiwać prędkości Internetu 1 TB / s lub wyższej za 50 lat. Kiedy wszyscy możemy przenieść dane tak szybko, będzie ich więcej, a więcej osób będzie je przechowywać i prawie nieuniknione będzie kolejne szerokie przejście do systemu 128-bitowego, a ostatecznie 256 i 512 bitów.
źródło
tak, aplikacje nie wypełniają każdego bajtu przestrzeni wirtualnej. Największą korzyścią byłaby randomizacja układu przestrzeni adresowej.
źródło