Idag har skärmupplösning (även kallad skärmupplösning) inte varit mycket av ett problem. Windows kom med några förinställda alternativ och för att få högre upplösning eller fler färger (eller båda) skulle du installera en drivrutin för ditt grafikkort. När tiden gick, kunde du välja bättre videokort och bättre skärmar också. Idag har vi många alternativ när det gäller bildskärmar, deras kvalitet och de stödda resolutionerna. I denna artikel vill jag ta dig igenom lite historia och förklara alla viktiga begrepp, inklusive vanliga akronymer som 1080p eller 4K.
Allt började med IBM & CGA
Färggrafiktekniken utvecklades först av IBM. CGA var först, följt av EGA och VGA - färggrafikadapter, förstärkt grafikkort, video grafikmatris. Oavsett om din bildskärm har kapacitet, måste du fortfarande välja mellan en av de få alternativen som finns tillgängliga via grafikkortets drivrutiner. För nostalgiens skull, här är en titt på en en gång känd CGA-bildskärm.
Med tillkomsten av högupplöst video och den ökade populariteten för 16: 9-bildförhållandet (vi kommer att förklara mer om bildförhållanden lite) väljer du en skärmupplösning inte den enkla affären det en gång var. Men det innebär också att det finns många fler alternativ att välja mellan, med något som passar nästan allas preferenser. Låt oss titta på vad dagens terminologi är och vad det betyder:
Skärmen är vad av vad?
Jag är säker på att några av er redan vet att termen "upplösning" inte är korrekt när det brukar referera till antalet pixlar på en skärm. Det säger ingenting om hur tätt pixlarna är kluster. "Upplösning" är tekniskt antalet pixlar per enhetens area, snarare än det totala antalet pixlar. Här använder vi termen som det är allmänt förstått, snarare än den absolut tekniskt korrekta användningen.
Sedan början har upplösningen beskrivits (noggrant eller inte) med antalet pixlar som är placerade horisontellt och vertikalt på en bildskärm, till exempel 640 x 480 = 307200 pixlar. De tillgängliga valen bestämdes av videokortets kapacitet, och de skilde sig från tillverkare till tillverkare.
Upplösningarna inbyggda i Windows var väldigt begränsade, så om du inte hade drivrutinen för ditt grafikkort skulle du fastna med den nedre upplösningsskärmen som Windows tillhandahöll. Om du har tittat på Windows Setup eller installerat en nyare version av en videodrivrutin, kan du ha sett en skärm på 640 x 480 för en liten stund eller två. Det var ful även på CGA-skärmar, men det var Windows-standard.
När skärmkvaliteten förbättrades började Windows erbjuda några fler inbyggda alternativ, men belastningen var fortfarande mestadels på grafikkortstillverkarna, speciellt om du ville ha en riktigt högupplöst upplösning. De senaste versionerna av Windows kan upptäcka standard skärmupplösning för din bildskärm och grafikkort och justera därefter. Det betyder inte att det som Windows väljer är alltid det bästa alternativet, men det kommer att fungera, och du kan ändra det om du vill, efter att du har sett hur det ser ut. Om du behöver hjälp med att göra det, kolla här handledningen: Ändra bildskärmens upplösning och gör text och ikoner större.
Tänk på din P och jag är
Du kan ha sett skärmupplösningen som beskrivs som något liknande 720p eller 1080i. Vad betyder det?
Till att börja med berättar bokstäverna hur bilden är "målad" på bildskärmen. En "p" står för progressiv och en "jag" står för interlaced .
Den interlaced scanningen är en holdover från TV och från tidiga CRT-skärmar. Skärmen eller TV-skärmen har pixellinjer anordnade horisontellt över den. Linjerna var ganska lätta att se om du kom nära en äldre bildskärm eller TV, men nuförtiden är pixlarna på skärmen så små att de är mycket svåra att se även med förstoring. Skärmens elektronik "färgar" varje skärmlinje för rad, för snabbt för ögat att se. En interlaced display mäter alla udda linjer först, sedan alla jämna linjer.
Eftersom skärmen är målade i alternativa linjer har flimmer alltid varit ett problem med interlaced scans. Tillverkare har försökt övervinna detta problem på olika sätt. Det vanligaste sättet är att öka antalet gånger en komplett skärm är målade på en sekund, som kallas uppdateringshastigheten . Den vanligaste uppdateringshastigheten var 60 gånger per sekund, vilket var acceptabelt för de flesta, men det kunde bli skjutit lite högre för att bli av med flimmer som vissa upplevde.
När folk flyttade från de äldre CRT-skärmarna, ändrade terminologin från uppdateringshastighet till bildhastighet på grund av skillnaden i hur LED-monitorn fungerar. Bildhastigheten är den hastighet med vilken monitorn visar varje separat dataram. De senaste versionerna av Windows sätter frameratet vid 60 Hertz, eller 60 cykler per sekund, och LED-skärmarna flimmer inte. Och systemet förändrades från interlaced scan till progressiv sökning eftersom de nya digitala displayerna var så mycket snabbare. I en progressiv avsökning målas linjerna på skärmen i följd snarare än först de udda linjerna och sedan de jämnaste linjerna. Om du exempelvis vill översätta 1080p används den för displayer som kännetecknas av 1080 horisontella linjer med vertikal upplösning och en progressiv avsökning.
Det finns en ganska ögonblicklig illustration av skillnaderna mellan progressiva och interlaced scans på Wikipedia här: Progressiv scanning. För ytterligare intressanta historielektioner, läs också Interlaced video.
Vad sägs om siffrorna: 720p, 1080p, 1440p, 4K och 8K?
När HD-TV blev normen utvecklade tillverkarna en stenografi för att förklara deras bildskärmsupplösning. De vanligaste siffrorna du kommer att se är 720p, 1080p och 2160p eller 4K. Som vi har sett, berättar "p" och "jag" om det är en progressiv-scan eller interlaced-scan-skärm. Och dessa kortnummer används ibland för att även beskriva datorskärmar, även om en bildskärm i allmänhet kan visa en HD-skärm än en TV. Numret avser alltid antalet horisontella linjer på displayen.
Så här översätter stenografi:
- 720p = 1280 x 720 - brukar kallas HD eller "HD Ready" -upplösning
- 1080p = 1920 x 1080 - brukar kallas FHD eller Full HD-upplösning
- 1440p = 2560 x 1440 - allmänt känd som QHD eller Quad HD-upplösning, och vanligtvis ses på spelmonitorer och på avancerade smartphones. 1440p är fyra gånger upplösningen på 720p HD eller "HD ready".
- 2160p = 3840 x 2160 - allmänt känd som 4K, UHD eller Ultra HD-upplösning. Det är en mycket stor skärmupplösning och den finns på high-end TV och skärmar. 2160p heter 4K eftersom den erbjuder fyra gånger pixlarna på 1080p FHD eller "Full HD".
- 4320p = 7680 x 4320 - kallas 8K och erbjuder 16 gånger fler pixlar än den vanliga 1080p FHD eller Full HD-upplösningen. Även om du inte kommer att se TV-apparater eller datorskärmar med denna upplösning för tidigt kan du testa om din dator kan göra så stor mängd data. Här är ett 8K-videoprov:
Vad är bildformat?
I början nämnde vi termen aspektförhållande. Detta användes ursprungligen i rörliga bilder, vilket indikerar hur stor bilden var i förhållande till dess höjd. Filmer var ursprungligen i 4: 3-bildförhållande, och detta överfördes till tv och tidiga dataskärmar. Bildformatförhållandet ändrades mycket snabbare till en bredare skärm, vilket innebar att när filmer visades på tv var de tvungna att beskäras eller bilden manipulerades på andra sätt för att passa tv-skärmen.
När skärmtekniken förbättrades, började TV- och bildskärmstillverkare också att flytta mot widescreen-skärmar. Ursprungligen hänvisade "widescreen" till något bredare än den vanliga 4: 3-skärmen, men det kom snabbt att betyda ett 16:10 förhållande och senare 16: 9. Numera är nästan alla dataskärmar och tv-apparater endast tillgängliga på widescreen, och TV-sändningar och webbsidor har anpassats för att matcha.
Fram till 2010 var 16:10 det mest populära bildförhållandet för widescreendisplayer. Men med den ökande populariteten hos högupplösta tv-apparater, som använde högupplösta resolutioner som 720p och 1080p och gjorde dessa termer synonymer med high-definition, har 16: 9 blivit high-definition standardaspektförhållandet. Idag hitta 16: 10 skärmar är nästan omöjliga.
Beroende på bildskärmens bildförhållande kan du bara använda upplösningar som är specifika för dess bredd och höjd. Några av de vanligaste resolutionerna som kan användas för varje bildförhållande är följande:
- 4: 3 bildformatupplösningar: 640 × 480, 800 × 600, 960 × 720, 1024 × 768, 1280 × 960, 1400 × 1050, 1440 × 1080, 1600 × 1200, 1856 × 1392, 1920 × 1440 och 2048 × 1536.
- 16:10 bildformatupplösningar: - 1280 × 800, 1440 × 900, 1680 × 1050, 1920 × 1200 och 2560 × 1600.
- 16: 9 bildformatupplösningar: 1024 × 576, 1152 × 648, 1280 × 720, 1366 × 768, 1600 × 900, 1920 × 1080, 2560 × 1440 och 3840 × 2160.
Hur påverkar storleken på skärmen upplösningen?
Även om en 4: 3-TV-skärm kan justeras för att visa svarta staplar längst upp och längst ner på skärmen medan en widescreen-film eller -visning visas, är det inte meningsfullt med en bildskärm, så du kommer att se att Windows kommer att inte ens erbjuda dig widescreen-skärmen som ett val. Du kan titta på filmer med svarta rader som om du tittade på en TV-skärm, men det görs av din mediaspelare.
Det viktigaste är inte bildstorleken, men dess förmåga att visa högupplösta bilderna. Ju högre du ställer upplösningen desto mindre blir bilderna på skärmen, och det kommer en punkt där texten på skärmen blir så liten att den inte kan läsas. På en större bildskärm är det möjligt att trycka upp resolutionen väldigt högt, men om bildskärmens pixeldensitet inte är upp till par, får du inte den maximala upplösningen innan bilden blir oläslig. I många fall kommer monitorn inte att visa någonting alls, om du berättar för Windows att använda en upplösning som bildskärmen inte kan hantera. Med andra ord, förvänta dig inte mirakel ur en billig bildskärm. När det gäller högupplösta skärmar får du definitivt vad du betalar för.
Slutsats
Om du inte är så teknisk, är det mycket troligt att du är förvirrad av så många tekniker. Förhoppningsvis har den här artikeln lyckats hjälpa till med att förstå de viktigaste egenskaperna hos en bildskärm: bildformat, upplösningar eller typ. Om du har några frågor om detta ämne, tveka inte att fråga oss i kommentarformuläret nedan.