Har du någonsin undrat vad PPI är? Kanske har du hört företag pratar om höga DPI-skärmar och ville veta vad det är? Varför tillverkar vissa tillverkare sina high-end-enheter med stora pixeldensitetsskärmar? Varför betyder PPI så mycket, särskilt när man hänvisar till smartphones? Läs den här artikeln, och du får reda på vad det betyder, om PPI och DPI är desamma och om denna mätning är viktig när du pratar om skärmar av alla storlekar:
Vad är PPI?
PPI är akronymen från Pixels Per Inch . Det är en måttenhet som används för att kvantifiera antalet pixlar som finns på en kvadrat tums yta. För att få en klar uppfattning om vad det betyder, föreställ dig en fyrkantig tum som är uppdelad och organiserad i ett rutnät av celler. Varje cell i det nätet har en pixel inuti. Antalet celler i nätet, även känt som pixlar, berättar för PPI.
Vanligtvis används Pixels Per Inch- värdet för att mäta pixeldensiteten hos bildskärmar, till exempel den monitor som du har på datorn eller datorn, på din TV-skärm och på din smartphone.
PPI är dock en term som också används löst för att beskriva pixeldensiteten hos skannrar, kameraskärmar eller bilder som lagras digitalt. Vissa använder PPI även för att berätta för vilken upplösning som skrivare skriver ut på papper.
Är PPI och DPI densamma?
PPI är den korta versionen från Pixels Per Inch, och DPI är den förkortade versionen av Dots Per Inch . Sunt förnuft kommer troligen att leda dig att tro att de inte är samma. Och du hade rätt! Även om båda termerna refererar till densitet, och du enkelt kan förväxla pixlar med prickar (förmodligen eftersom de är så små), är PPI och DPI olika saker. Medan PPI refererar mest till skärmar och digitala element, är DPI en term som används korrekt när man hänvisar till saker som tryckt papper.
Upplösningen och kvaliteten på ett tryckt papper mäts med rätta av antalet bläckpunkter i vilken som helst figur eller ritning. Både DPI och PPI mäter liknande saker, men prickar är inte pixlar, och pixlar är inte prickar, så DPI är inte detsamma som PPI.
PPI och DPI används emellertid ofta för att beskriva samma sak. Det är inte korrekt, men stora företag som Google och Microsoft och många hårdvarufabrikanter använder ofta dessa villkor utbytbart och sålunda började folk använda dem löst också.
Går PPI när du väljer din TV, datorskärm eller smartphone?
Ja, det gör det, och det spelar en roll mycket. När du köper en ny smartphone, en dataskärm eller en TV eller någon annan typ av enhet som har en bildskärm kan du frestas att välja den som har den största diagonala storleken. Det är bara naturligt att gå stort när du kan, eller hur? Men det är inte alltid rätt val och här är ett exempel varför:
Låt oss säga att du vill få en ny smartphone, och du vill att den ska ha en stor skärm. Något mellan 5, 5 "och 6". Efter att ha tittat på internet bestämmer du att du gillar Samsung Galaxy S8 och Sony Xperia XA1 Ultra. Pengar spelar ingen roll för dig - vad betyder dock skärmen på din nästa smartphone. Samsung Galaxy S8 har en 5, 8 tums skärm, en upplösning på 1440 x 2960 pixlar och en pixeldensitet på 570 PPI. Sony Xperia XA1 Ultra har en 6, 0-tums skärm, en upplösning på 1080 x 1920 pixlar och en pixeldensitet på 367 PPI. Även om de båda har en liknande skärmstorlek är upplösningen och PPI-pixeldensiteten hos Samsung Galaxy S8 mycket högre än vad Sony Xperia XA1 Ultra har att erbjuda. Det betyder att det finns mycket fler pixlar spridda över en liknande fysisk yta, skärmen. Vi kan inte rita 570 pixlar, eller till och med 367, i en bild storleken på en tum, eftersom du inte skulle se dem. Men här är en illustration av vilka olika PPI pixeldensiteter som ser ut:
Så skulle du inte välja smartphone med den högre PPI, Samsung Galaxy S8?
En högre PPI, eller pixeldensitet, innebär att du får mycket mer detaljer för allt som visas på din skärm. Vilket innebär bättre bilder, bättre teckensnitt, smidigare linjer, eller med andra ord högre kvalitet. Alla vill ha det, eller hur?
När blir PPI så hög att det blir meningslöst?
Även om högre PPI alltid är teoretiskt bättre, innan du köper, borde du också veta att ögonen på de flesta människor förmodligen inte kan uppleva skillnader i en PPI som är högre än en viss gräns.
Men vad den gränsen är när det mänskliga ögat slutar att kunna se mer detaljer på en skärm och pixeldensiteten slutar vara viktig, är en fråga om debatt. För närvarande kan varken forskare eller vanliga människor ge dig ett rakt svar och säga att "pixeldensiteten blir meningslös efter att säga ett värde på 570 PPI."
Enligt grunden för Digital Imaging in Medicine av Roger Bourne verkar det dock som det magiska numret skulle vara 400 PPI om man tittar på en bild som finns på ungefär 16 tum eller 40 cm avstånd från dina ögon. Det beror på att det mänskliga ögat har 400 sensorceller per millimeter av näthinnans yta. Men människor på Sharp tror att det mänskliga ögat kan se upp till 1000 PPI, vilket är betydligt högre än vad elektronik erbjuder idag.
Eizo har också en utmärkt artikel, kallad förvirrad över HiDPI och Retina displayen? - Förstå pixeldensitet i en ålder av 4K, där du kan hitta några tabeller med data som visar vilka skärmupplösningar och pixeldensiteter som används idag. De flesta pixeldensitetsvärden som du kommer se använda på moderna skärmar, oavsett om de är smarttelefoner, tablettskärmar eller dataskärmar, beräknas av tillverkningsbolagen beroende på de vanliga avstånden som användarna tittar på de här skärmarna. Till exempel bör en smartphone med en skärmstorlek på 5, 6 tum ha en upplösning på minst 2560 x 1440 pixlar och en pixeldensitet på ca 525 PPI. Pixeltäthet är viktigt, men oavsett vilka företag som marknadsför sina produkter, börja inte spendera pengar tills du ser vad skärmen på din nästa enhet ser ut.
Ska du leta efter den högsta PPI?
Vi är nyfiken: nu när du vet att en högre pixeldensitet är bättre än en lägre, kommer du att ta hänsyn till nästa gång du köper en TV-skärm, en dataskärm eller en ny smartphone? Eller kommer du att gå till den högsta storleken oavsett pixlar per tum ?