Hjemmeside » hvordan » Alt du ved om billedopløsning er sandsynligvis forkert

    Alt du ved om billedopløsning er sandsynligvis forkert

    "Opløsning" er et udtryk folk ofte kaster rundt - nogle gange forkert - når man taler om billeder. Dette koncept er ikke så sort og hvid som "antallet af pixels i et billede." Fortsæt læsning for at finde ud af, hvad du ikke ved.

    Som med de fleste ting, når du dissekerer et populært udtryk som "opløsning" til et acedemisk (eller geeky) niveau, finder du, at det ikke er så enkelt, som du måske har fået til at tro. I dag skal vi se, hvor langt begrebet "resolution" går, kort tale om betydningen af ​​begrebet, og lidt om, hvad højere opløsning betyder i grafik, trykning og fotografering.

    Så, duh, billeder er lavet af pixels, højre?

    Sådan har du sikkert fået en løsning forklaret til dig: Billeder er et væld af pixels i rækker og kolonner, og billederne har et foruddefineret antal pixels, og større billeder med større antal pixels har bedre opløsning. Derfor er du så fristet af det 16 megapixel digitalkamera, fordi mange pixels er de samme som høj opløsning, ikke? Nå, ikke ligefrem, fordi opløsningen er lidt mildere end det. Når du taler om et billede som om det kun er en skov pixel, ignorerer du alle de andre ting, der går ud på at gøre et billede bedre i første omgang. Men uden tvivl er en del af, hvad der skaber et billede med "høj opløsning", mange pixels for at skabe et genkendeligt billede.

    Det kan være praktisk (men nogle gange forkert) at kalde billeder med masser af megapixel "høj opløsning." Da opløsning går ud over antallet af pixels i et billede, ville det være mere præcist at kalde det et billede med høj pixel opløsning, eller høj pixeldensitet. Pixel tæthed måles i pixels per inch (PPI), eller nogle gange punkter pr. Tomme (DPI). Fordi pixeldensiteten er et mål for prikker i forhold til en tomme, en tomme kan have ti pixels i den eller en million. Og billederne med højere pixeldensitet vil være i stand til at løse detaljer bedre - i det mindste til et punkt.

    Den noget misforstået idé om "høj megapixel = høj opløsning" er en form for overførsel fra de dage, hvor digitale billeder simpelthen ikke kunne vise nok billeddetaljer, fordi der ikke var nok af de små byggesten til at udgøre et anstændigt billede. Så som digitale displays begyndte at have flere billedelementer (også kendt som pixels), kunne disse billeder beslutte mere detaljeret og give et klarere billede af, hvad der foregik. På et bestemt tidspunkt ophører behovet for millioner og millioner af flere billedelementer at være nyttigt, da det når den øvre grænse for de andre måder, som detaljerne i et billede er løst. Fascineret? Lad os se.

    Optik, detaljer og løsning af billeddata

    En anden vigtig del af billedets opløsning er direkte relateret til den måde, den er fanget på. Nogle enheder skal parse og optage billeddata fra en kilde. Sådan skabes de fleste slags billeder. Det gælder også for de fleste digitale billeddannelsesenheder (digitale spejlreflekskameraer, scannere, webkameraer osv.) Samt analoge billeddannelsesmetoder (som filmbaserede kameraer). Uden at komme ind i for meget teknisk gobbledygook om hvordan kameraer virker, kan vi tale om noget, der hedder "optisk opløsning."

    Simpelthen sagt, beslutning, med hensyn til enhver form for billeddannelse, betyder "evne til at løse detaljer."Her er en hypotetisk situation: Du køber en fancy bukser, super high-megapixel kamera, men har svært ved at tage skarpe billeder, fordi linsen er forfærdelig. Du kan bare ikke fokusere det, og det tager slørede billeder, der mangler detaljer. Kan du ringe til dit billede med høj opløsning? Du er måske fristet til, men det kan du ikke. Du kan tænke på dette som hvad optisk opløsning midler. Objektiver eller andre metoder til indsamling af optiske data har øvre grænser for mængden af ​​detaljer, de kan fange. De kan kun optage så meget lys baseret på formfaktor (et vidvinkelobjektiv i forhold til en telelinse), da linsens faktor og stil giver mere eller mindre lys.

    Lys har også en tendens til afbøje og / eller skabe forvrængninger af bølger kaldet afvigelser. Begge skaber forvrængninger af billeddetaljer ved at holde lyset fra at fokusere præcist for at skabe skarpe billeder. De bedste linser er dannet for at begrænse diffraktion og giver derfor en højere øvre grænse for detaljer, om målbilledfilen har en megapixeldensitet til at optage detaljerne eller ej. EN Kromatisk afvigelse, illustreret ovenfor, er når forskellige bølgelængder af lys (farver) bevæger sig ved forskellige hastigheder gennem en linse for at konvergere på forskellige punkter. Det betyder, at farverne er forvrængede, detalje er eventuelt tabt, og billeder optages unøjagtigt baseret på disse øvre grænser for optisk opløsning.

    Digitale fotosensorer har også øvre grænser for evne, selvom det er fristende at bare antage, at dette kun har at gøre med megapixel og pixeldensitet. I virkeligheden er dette et andet skummelt emne, fuld af komplekse ideer, der er værdige til en egen artikel. Det er vigtigt at huske på, at der er mærkelige afvejninger for at løse detaljer med højere megapixelsensorer, så vi går videre dybt i et øjeblik. Her er en anden hypotetisk situation, du klipper din ældre højmega-pixel kamera til en helt ny med to gange så mange megapixel. Desværre køber du en med samme afgrødefaktor som dit sidste kamera og løber i problemer, når du optager i omgivelser med svagt lys. Du mister meget detaljer i det miljø og skal skyde i super hurtige ISO-indstillinger, der gør dine billeder grønt og grimt. Afhandlingen er denne-din sensor har fotosites, små små receptorer, der optager lys. Når du pakker flere og flere fotosites på en sensor for at skabe et højere megapixelantal, mister du de bødere, større fotosider, der er i stand til at opfange flere fotoner, hvilket vil medvirke til at gøre mere detaljer i de svage omgivelser.

    På grund af denne afhængighed af begrænsede lysoptagelsesmedier og begrænset optisk optik kan man opnå detaljerede detaljer ved hjælp af andre midler. Dette billede er et billede af Ansel Adams, der er kendt for sine præstationer med at skabe High Dynamic Range-billeder ved hjælp af dodging og brændende teknikker og almindelige fotopapirer og film. Adams var et geni ved at tage begrænsede medier og bruge det til at løse det maksimale antal detaljer, der var muligt, effektivt sidestepping mange af de begrænsninger, vi talte om ovenfor. Denne metode, såvel som tone-mapping, er en måde at øge opløsningen af ​​et billede ved at udbrede detaljer, der ellers ikke kunne ses.

    Løsning af detaljer og forbedring af billedbehandling og udskrivning

    Fordi "resolution" er så vidtrækkende, har det også indflydelse på trykkeribranchen. Du er sikkert klar over, at fremskridt i de seneste år har lavet fjernsyn og overvåger højere definition (eller i det mindste gjort højere def monitorer og fjernsyn mere kommercielt levedygtige). Lignende billedteknologi revolutioner har forbedret kvaliteten af ​​billeder i print-og ja det er også "opløsning."

    Når vi ikke taler om din inkjet-printer, taler vi normalt om processer, der skaber halvtoner, linetoner og faste former i en slags formidlet materiale, der bruges til at overføre blæk eller toner til en slags papir eller substrat. Eller mere simpelthen sætte "figurer på en ting, der sætter blæk på en anden ting." Det ovenfor trykte billede blev sandsynligvis udskrevet med en slags offset-litografi-proces, ligesom de fleste farvebilleder i bøger og magasiner i dit hjem. Billederne reduceres til rækker prikker og lægges på et par forskellige trykflader med et par forskellige blæk og rekombineres for at lave trykte billeder.

    Udskrivningsfladerne er normalt afbildet med en slags lysfølsom materiale, der har en egen opløsning. Og en af ​​grundene til, at udskriftskvaliteten er forbedret så drastisk i løbet af det sidste årti eller deromkring, er den øgede opløsning af forbedrede teknikker. Moderne offsetpresser har øget opløsning af detaljer, fordi de bruger præcise computerstyrede laserbilledsystemer, der ligner dem i din kontorsort laserprinter. (Der er også andre metoder, men laser er uden tvivl den bedste billedkvalitet.) Disse lasere kan skabe mindre, mere præcise og mere stabile punkter og former, der skaber bedre, rigere og mere sømløse, mere højopløselige udskrifter baseret på trykning overflader i stand til at løse mere detaljer. Tag et øjeblik til at se på udskrifter, der er lavet lige så tidligt som dem fra begyndelsen af ​​90'erne og sammenligne dem med de moderne. Det sprang i opløsning og udskriftskvalitet er ganske svimlende.

    Forsæt ikke skærme og billeder

    Det kan være ret nemt at klump opløsningen af ​​billeder i med opløsningen på din skærm. Lad dig ikke friste, bare fordi du ser på billeder på skærmen, og begge er forbundet med ordet "pixel". Det kan være forvirrende, men pixler i billeder har variabel pixeldybde (DPI eller PPI, hvilket betyder at de kan have variabel pixel pr. tommer), mens skærme har et fast antal fysisk ledede, computerstyrede farvepunkter, der bruges til at vise billeddata, når computeren beder om det. Virkelig er en pixel ikke relateret til en anden. Men de kan begge kaldes "billedelementer", så de begge kaldes "pixels." Simpelthen er billedpunkterne i billeder en måde at indspilning billeddata, mens pixlerne i skærme er måder at Skærm disse data.

    Hvad betyder det? Generelt når du taler om opløsning af skærme, taler du om et langt mere klart scenario end med billedopløsning. Mens der er andre teknologier (hvoraf ingen vi diskuterer i dag) det kan forbedre billedkvaliteten - simpelthen sætte flere billedpunkter på en skærm føje til displayets evne til at løse detaljerne mere præcist.

    I sidste ende kan du tænke på de billeder, du opretter som et ultimativt mål - det medium du vil bruge dem på. Billeder med ekstremt høj pixeldensitet og pixelopløsning (billeder med høj megapixel optaget fra fancy digitale kameraer) er egnede til brug fra et meget tyndt (eller "printdot" tætt) trykmedium, som f.eks. En inkjet eller en offsetpresse fordi der er meget detaljer for høj opløsning printer til at løse. Men billeder, der er beregnet til internettet, har meget lavere pixeldensitet, fordi skærme har omkring 72 ppi pixeldensitet, og næsten alle er toppede omkring 100 ppi. Ergo, kun så meget "resolution" kan ses på skærmen, alligevel er alle detaljer, der er løst, inkluderet i den faktiske billedfil.


    De enkle kugler peger på at tage væk fra dette er, at "opløsning" ikke er så simpelt som at bruge filer med mange og mange pixels, men er som regel en funktion af løse billeddetaljer. Ved at holde den simple definition i tankerne skal du bare huske på, at der er mange aspekter ved at skabe et højopløsningsbillede, idet pixelopløsningen kun er en af ​​dem. Tanker eller spørgsmål om dagens artikel? Lad os vide om dem i kommentarerne, eller send dine spørgsmål til [email protected].

    Billedkreditter: Desert Girl af Bhagathkumar Bhagavathi, Creative Commons. Lego Pixel kunst af Emmanuel Digiaro, Creative Commons. Lego Mursten af ​​Benjamin Esham, Creative Commons. D7000 / D5000 B & W af Cary og Kacey Jordan, Creative Commons. Chromatic Abbertation diagrammer af Bob Mellish og DrBob, GNU License via Wikipedia. Sensor Klear Loupe af Micheal Toyama, Creative Commons. Ansel Adams billede i offentligt område. Offset af Thomas Roth, Creative Commons. RGB LED ved Tyler Nienhouse, Creative Commons.