Hvorfor er lodret opløsning Monitor Resolution så ofte en flere af 360?
Stare på en liste med skærmopløsninger længe nok, og du kan muligvis bemærke et mønster: Mange af de vertikale opløsninger, især de af spil eller multimedie skærme, er multipler på 360 (720, 1080, 1440 osv.) Men hvorfor er det præcis sag? Er det vilkårligt eller er der noget mere på arbejde?
Dagens Spørgsmål & Svar session kommer til os med venlig hilsen af SuperUser-en underafdeling af Stack Exchange, en community-driven gruppe af Q & A-websteder.
Spørgsmålet
SuperUser-læser Trojandestroy har for nylig bemærket noget om hans displayinterface og har brug for svar:
YouTube tilføjede for nylig 1440p funktionalitet, og for første gang indså jeg, at alle (mest?) Lodrette opløsninger er multipler på 360.
Er dette bare fordi den mindste fælles opløsning er 480 × 360, og det er praktisk at bruge multipler? (Ikke tvivl om at multipler er praktisk.) Og / eller var den første optagelige / bekvemt størrelse opløsning, så hardware (tv'er, skærme osv.) Voksede med 360 i tankerne?
Tager det videre, hvorfor ikke have en firkantet opløsning? Eller noget andet usædvanligt? (Forudsat det er normalt nok at det kan ses). Er det kun en behagelig øjelse situation?
Så hvorfor er skærmen et multiplum på 360?
Svaret
SuperUser bidragyder User26129 tilbyder os ikke bare et svar på, hvorfor det numeriske mønster eksisterer, men en historie med skærmdesign i processen:
Okay, der er et par spørgsmål og mange faktorer her. Beslutninger er et rigtig interessant område for psykooptiksmøde marketing.
Først og fremmest, hvorfor er de lodrette opløsninger på youtube multipla 360. Dette er selvfølgelig bare vilkårlig, der er ingen reel grund til at det er tilfældet. Årsagen er, at opløsning her ikke er den begrænsende faktor for Youtube videoer - båndbredde er. Youtube skal omkode alle videoer, der uploades et par gange, og forsøger at bruge så små genkodningsformater / bitrater / opløsninger som muligt til at dække alle de forskellige brugssager. For low-res mobile enheder har de 360 × 240, for højere res mobil er der 480p, og for computer publikum er der 360p for 2xISDN / multiuser fastnet, 720p for DSL og 1080p for højere hastighed internet. I et stykke tid var der nogle andre kodeker end h.264, men disse bliver langsomt udfaset med h.264, idet de i det væsentlige har "vundet" formatkriget og alle computere er udstyret med hardware codecs til dette.
Nu er der også nogle interessante psykooptiske ting. Som jeg sagde: Beslutning er ikke alt. 720p med virkelig stærk kompression kan og vil se værre end 240p ved en meget høj bitrate. Men på den anden side af spektret: At kaste flere bit ved en bestemt opløsning gør det ikke magisk bedre end noget punkt. Der er et optimalt her, hvilket naturligvis afhænger af både opløsning og codec. Generelt: Den optimale bitrate er faktisk proportional med opløsningen.
Så det næste spørgsmål er: Hvilke slags beslutningstrin giver mening? Tilsyneladende har folk brug for en 2x stigning i opløsningen for virkelig at se (og foretrække) en markant forskel. Noget mindre end det og mange mennesker vil simpelthen ikke forstyrre de højere bithastigheder, de vil hellere bruge deres båndbredde til andre ting. Dette er blevet undersøgt for en lang tid siden og er den største grund til, at vi gik fra 720 × 576 (415 kpix) til 1280 × 720 (922 kpix), og derefter igen fra 1280 × 720 til 1920 × 1080 (2 MP). Mellemliggende ting er ikke et rentabelt optimeringsmål. Og igen er 1440P ca. 3,7 MP, en anden ~ 2x stigning over HD. Du vil se en forskel der. 4K er det næste skridt efter det.
Næste op er det magiske antal 360 vertikale pixels. Faktisk er det magiske nummer 120 eller 128. Alle opløsninger er nogle form for flere af 120 pixel i dag, tilbage på den dag, de plejede at være multipler på 128. Dette er noget, der netop voksede ud af LCD-panelindustrien. LCD-paneler bruger hvad der kaldes linjedrivere, små chips, der sidder på siderne af din LCD-skærm, der styrer, hvor lyse hver subpixel er. Fordi historisk nok, for grund til det jeg ikke rigtig ved sikkert, sandsynligvis hukommelsesbegrænsninger, eksisterede disse multiple-of-128 eller multiple-of-120-opløsninger, blev branchens standardlinjedrivere drivere med 360-linieudgange (1 pr. Subpixel) . Hvis du ville nedrive din 1920 × 1080 skærm, ville jeg lægge penge på der er 16 linjekører på toppen / bunden og 9 på en af siderne. Åh hej, det er 16: 9. Gæt, hvor oplagt det beslutningsvalg var tilbage, da 16: 9 var "opfundet".
Så er der spørgsmålet om billedforhold. Dette er virkelig et helt andet felt inden for psykologi, men det koger ned til: Historisk har folk troet og målt, at vi har en slags verdensomspændende skærmbillede. Naturligvis troede folk, at den mest naturlige repræsentation af data på en skærm ville være i en bredskærmsvisning, og her er den store anamorfe revolution fra 60'erne, der kom fra, da film blev skudt i stadig større aspektforhold.
Siden da er denne form for viden blevet raffineret og for det meste debunked. Ja, vi har en vidvinkel, men det område, hvor vi faktisk kan se skarpt - midt i vores vision - er ret rund. Lidt elliptisk og squashed, men ikke rigtig mere end 4: 3 eller 3: 2. Så for detaljeret visning, for eksempel til læsning af tekst på en skærm, kan du udnytte det meste af din detaljerede vision ved at anvende en næsten kvadratisk skærm, lidt som skærmen frem til midten af 2000'erne.
Men igen er det ikke sådan markedsføring tog det. Computere i gamle dage blev brugt for det meste for produktivitet og detaljeret arbejde, men da de kom i gang og som computeren som medieforbrugsenhed udviklede sig, brugte folk ikke nødvendigvis deres computer til arbejde for det meste af tiden. De brugte det til at se medieindhold: film, tv-serier og fotos. Og for den slags visning får du den mest 'nedsænkningsfaktor', hvis skærmen fylder så meget af din vision (herunder din perifere vision) som muligt. Hvilket betyder widescreen.
Men der er stadig mere markedsføring. Når detaljeret arbejde stadig var en vigtig faktor, plejede folk at gå i opløsning. Så mange pixels som muligt på skærmen. SGI solgte næsten 4K CRT'er! Den mest optimale måde at få det maksimale antal pixels ud af et glasunderlag er at skære det så firkantet som muligt. 1: 1 eller 4: 3 skærme har flest pixel pr. Diagonal tomme. Men med skærme bliver mere forbrug, blev tommestørrelse vigtigere, ikke mængden af pixels. Og dette er et helt andet optimeringsmål. For at få de mest diagonale inches ud af et substrat, vil du gøre skærmen så bred som muligt. Først blev vi 16:10, så 16: 9, og der har været moderat succesfulde panelfabrikanter, der laver 22: 9 og 2: 1 skærme (som Philips). Selvom pixeltætheden og den absolutte opløsning gik ned i et par år, steg tomme størrelser op, og det er det, der sælges. Hvorfor købe en 19 "1280 × 1024, når du kan købe en 21" 1366 × 768? Eh ...
Jeg synes, at omfatter dækker alle de store aspekter her. Der er mere selvfølgelig; båndbredde grænser for HDMI, DVI, DP og selvfølgelig VGA spillede en rolle, og hvis du går tilbage til før 2000'erne, spillede grafikhukommelse, computer-bandwdith og simpelthen grænserne for kommercielt tilgængelige RAMDAC'er en vigtig rolle. Men for dagens overvejelser handler det om alt hvad du behøver at vide.
Har du noget at tilføje til forklaringen? Lyde af i kommentarerne. Vil du læse flere svar fra andre tech-savvy Stack Exchange brugere? Tjek den fulde diskussionstråd her.