To pytanie ma już odpowiedź tutaj:
Wiem, że jest poprzednie pytanie na ten temat, ale nie ma żadnych prawdziwych odpowiedzi, mimo że obejrzano go 12 400 razy i fakt, że został zamknięty. Pamiętając o tym...
Dlaczego na świecie rozdzielczość 1366 x 768 jest prawdziwa? Ma współczynnik kształtu 683: 384, co jest najdziwniejszą rzeczą, o jakiej kiedykolwiek słyszałem, żyjąc w świecie 16: 9.
Wszystkie ekrany i rozdzielczości, które znam, mają proporcje 16: 9. Mój ekran, 1920 x 1080, ma format 16: 9. 720p, który znam, to 1280 x 720, a także 16: 9. Znana mi rozdzielczość 4K, 3840 x 2160, to także 16: 9. A jednak 1366 x 768 to 683: 384, pozornie dzikie zerwanie ze standardem.
Wiem, że wszędzie jest wiele innych rozdzielczości, ale 1366 x 768 zdaje się dominować w świecie laptopów o średniej cenie, a także wydaje się być wyjątkowy w świecie laptopów. Dlaczego laptopy nie używają 1280x720 lub czegoś innego jako standardu?
źródło
Odpowiedzi:
Według Wikipedii (moje podkreślenie):
Cytaty nie są podane, ale jest to uzasadnione wytłumaczenie: jest to najbliższe 16: 9, jakie mogliby uzyskać, utrzymując 768 rozdzielczość pionową z 1024x768, która była szeroko stosowana do produkcji wczesnych wyświetlaczy LCD 4: 3. Może to pomogło obniżyć koszty.
źródło
W chwili, gdy popularne stały się pierwsze szerokie ekrany komputerowe, zwykła rozdzielczość na panelach 4: 3 wynosiła 1024x768 (standard wyświetlania XGA). Tak więc, dla uproszczenia i kompatybilności wstecznej, rozdzielczość XGA została zachowana jako podstawa do uzyskania rozdzielczości WXGA, aby grafika XGA mogła być łatwo wyświetlana na ekranach WXGA. Po prostu zwiększenie szerokości i utrzymanie tej samej wysokości było również prostsze technicznie, ponieważ musiałbyś tylko dostosować czas odświeżania w poziomie, aby go osiągnąć. Jednak standardowy współczynnik proporcji dla szerokiego wyświetlacza wynosił 16/9, co nie jest możliwe przy szerokości 768 pikseli, więc wybrano najbliższą wartość, 1366 x 768.
WXGA może również odnosić się do rozdzielczości 1360 x 768 (i innych mniej popularnych), która została opracowana w celu zmniejszenia kosztów w układach scalonych. 1366 x 768 pikseli 8-bitowych wymagałoby przechowywania nieco powyżej 1 MB (1024,5 kB), więc nie zmieściłoby się w 8-bitowym układzie pamięci, musiałbyś wziąć 16-bitowy jeden, aby zapisać kilka pikseli. Właśnie dlatego wzięto coś nieco niższego niż 1366. Dlaczego 1360? Ponieważ można go podzielić przez 8 (lub nawet 16), co jest znacznie prostsze w obsłudze podczas przetwarzania grafiki i może doprowadzić do zoptymalizowanych algorytmów.
źródło
W 2007 roku miałem to samo pytanie, ponieważ mój komputer nie obsługuje mojej domyślnej rozdzielczości telewizora 1366 x 768 i znalazłem to:
Polecam przeczytać cały artykuł tutaj:
http://hd1080i.blogspot.com.ar/2006/12/1080i-on-1366x768-resolution-problems.html
źródło
768 to suma dwóch potęg 2 (512 + 256), a 1366 to 16/9 razy 768, zaokrąglone w górę do następnej liczby całkowitej. Ale tylko osoba, która wybrała tę rozdzielczość, może odpowiedzieć na pytanie „dlaczego”. Niektórzy ludzie lubią moc 2.
Ponadto 768 razy 1366 to nieco ponad jeden Mebipixel (2 ^ 20), czyli około 1,05 megapiksela (1,05 * 10 ^ 6). 768 razy 1365 jest poniżej tego, więc marketing prawdopodobnie też się pojawił.
źródło