Píxel

Punto físico en una imagen rasterizada
Este ejemplo muestra una imagen con una porción muy ampliada para que los píxeles individuales, representados como pequeños cuadrados, puedan verse fácilmente.

En imágenes digitales , un píxel (abreviado px ), pel [ 1] o elemento de imagen [2] es el elemento direccionable más pequeño en una imagen rasterizada o el elemento direccionable más pequeño en un dispositivo de visualización de matriz de puntos . En la mayoría de los dispositivos de visualización digital , los píxeles son el elemento más pequeño que se puede manipular a través del software.

Cada píxel es una muestra de una imagen original; cuantas más muestras se tengan, más precisa será la representación del original. La intensidad de cada píxel es variable. En los sistemas de imágenes en color, un color suele estar representado por tres o cuatro intensidades de componentes, como rojo, verde y azul , o cian, magenta, amarillo y negro .

En algunos contextos (como en las descripciones de sensores de cámara ), píxel se refiere a un único elemento escalar de una representación multicomponente (llamado fotositios en el contexto de sensores de cámara, aunque a veces se utiliza el término " elemento sensor " ), [3] mientras que en otros contextos (como la resonancia magnética) puede referirse a un conjunto de intensidades de componentes para una posición espacial.

El software de los primeros ordenadores de consumo se reproducía necesariamente a baja resolución, con píxeles de gran tamaño visibles a simple vista; los gráficos realizados con estas limitaciones pueden denominarse pixel art , especialmente en referencia a los videojuegos. Sin embargo, los ordenadores y las pantallas modernas pueden reproducir fácilmente órdenes de magnitud más píxeles de lo que era posible antes, lo que requiere el uso de grandes unidades de medida, como el megapíxel (un millón de píxeles).

Etimología

Una fotografía de elementos de visualización de subpíxeles en la pantalla LCD de una computadora portátil

La palabra píxel es una combinación de pix (de "pictures", abreviado como "pics") y el (de " elemento "); formaciones similares con ' el' incluyen las palabras voxel [4] ' píxel de volumen ' y texel ' píxel de textura ' . [4] La palabra pix apareció en los titulares de la revista Variety en 1932, como abreviatura de la palabra pictures , en referencia a películas. [5] En 1938, los fotoperiodistas usaban "pix" en referencia a imágenes fijas. [6]

La palabra "píxel" fue publicada por primera vez en 1965 por Frederic C. Billingsley del JPL para describir los elementos de imagen de las imágenes escaneadas desde sondas espaciales a la Luna y Marte. [7] Billingsley había aprendido la palabra de Keith E. McFarland, de la División Link de General Precision en Palo Alto , quien a su vez dijo que no sabía dónde se originó. McFarland dijo simplemente que estaba "en uso en ese momento" ( c.  1963 ). [6]

El concepto de "elemento de imagen" data de los primeros tiempos de la televisión, por ejemplo, como " Bildpunkt " (la palabra alemana para píxel , literalmente 'punto de imagen') en la patente alemana de 1888 de Paul Nipkow . Según varias etimologías, la primera publicación del término elemento de imagen en sí fue en la revista Wireless World en 1927, [8] aunque ya se había utilizado antes en varias patentes estadounidenses presentadas en 1911. [9]

Algunos autores explican el píxel como una celda de imagen, ya en 1972. [10] En gráficos y en el procesamiento de imágenes y vídeos, a menudo se utiliza pel en lugar de píxel . [11] Por ejemplo, IBM lo utilizó en su Referencia técnica para el PC original .

La pixilación , escrita con una segunda i , es una técnica cinematográfica no relacionada que data de los inicios del cine, en la que actores en vivo posan cuadro por cuadro y son fotografiados para crear una animación stop-motion. Una palabra británica arcaica que significa "posesión por espíritus ( pixies )", el término se ha utilizado para describir el proceso de animación desde principios de la década de 1950; varios animadores, incluidos Norman McLaren y Grant Munro , son reconocidos por popularizarlo. [12]

Técnico

No es necesario que un píxel se represente como un cuadrado pequeño. Esta imagen muestra formas alternativas de reconstruir una imagen a partir de un conjunto de valores de píxeles, utilizando puntos, líneas o un filtro suave.

En general, se considera que un píxel es el componente más pequeño de una imagen digital . Sin embargo, la definición depende en gran medida del contexto. Por ejemplo, puede haber " píxeles impresos " en una página, píxeles transportados por señales electrónicas o representados por valores digitales, píxeles en un dispositivo de visualización o píxeles en una cámara digital (elementos fotosensores). Esta lista no es exhaustiva y, según el contexto, los sinónimos incluyen pel, muestra, byte, bit, punto y punto puntual. Los píxeles se pueden utilizar como una unidad de medida, como 2400 píxeles por pulgada, 640 píxeles por línea o separados por 10 píxeles.

Arte de píxeles

Las medidas " puntos por pulgada " (dpi) y " píxeles por pulgada " (ppi) a veces se usan indistintamente, pero tienen significados distintos, especialmente para dispositivos de impresión, donde dpi es una medida de la densidad de colocación de puntos (por ejemplo, gotas de tinta) de la impresora. [13] Por ejemplo, una imagen fotográfica de alta calidad se puede imprimir con 600 ppp en una impresora de inyección de tinta de 1200 ppp. [14] Incluso números de ppp más altos, como los 4800 ppp citados por los fabricantes de impresoras desde 2002, no significan mucho en términos de resolución alcanzable . [15]

Cuantos más píxeles se utilicen para representar una imagen, más parecido puede ser el resultado al original. El número de píxeles de una imagen a veces se denomina resolución, aunque la resolución tiene una definición más específica. La cantidad de píxeles se puede expresar como un solo número, como en una cámara digital de "tres megapíxeles", que tiene un número nominal de tres millones de píxeles, o como un par de números, como en una "pantalla de 640 por 480", que tiene 640 píxeles de lado a lado y 480 de arriba a abajo (como en una pantalla VGA ) y, por lo tanto, tiene un número total de 640 × 480 = 307 200 píxeles, o 0,3 megapíxeles.

Los píxeles o muestras de color que forman una imagen digitalizada (como un archivo JPEG utilizado en una página web) pueden o no estar en correspondencia uno a uno con los píxeles de la pantalla, dependiendo de cómo muestre una imagen una computadora. En informática, una imagen compuesta de píxeles se conoce como imagen de mapa de bits o imagen rasterizada . La palabra raster se origina a partir de patrones de escaneo de televisión y se ha utilizado ampliamente para describir técnicas similares de impresión y almacenamiento de medios tonos .

Patrones de muestreo

Por comodidad, los píxeles se organizan normalmente en una cuadrícula bidimensional regular . Al utilizar esta disposición, se pueden implementar muchas operaciones comunes aplicando de manera uniforme la misma operación a cada píxel de forma independiente. Son posibles otras disposiciones de píxeles, con algunos patrones de muestreo que incluso cambian la forma (o núcleo ) de cada píxel en la imagen. Por este motivo, se debe tener cuidado al adquirir una imagen en un dispositivo y mostrarla en otro, o al convertir datos de imagen de un formato de píxel a otro.

Por ejemplo:

Texto generado con ClearType utilizando subpíxeles
  • Las pantallas LCD suelen utilizar una cuadrícula escalonada, en la que los componentes rojo, verde y azul se muestrean en ubicaciones ligeramente diferentes. La representación de subpíxeles es una tecnología que aprovecha estas diferencias para mejorar la representación del texto en las pantallas LCD.
  • La gran mayoría de las cámaras digitales en color utilizan un filtro Bayer , lo que da como resultado una cuadrícula regular de píxeles donde el color de cada píxel depende de su posición en la cuadrícula.
  • Un mapa de recorte utiliza un patrón de muestreo jerárquico, donde el tamaño del soporte de cada píxel depende de su ubicación dentro de la jerarquía.
  • Las cuadrículas deformadas se utilizan cuando la geometría subyacente no es plana, como en las imágenes de la Tierra desde el espacio. [16]
  • El uso de cuadrículas no uniformes es un área de investigación activa que intenta eludir el límite tradicional de Nyquist . [17]
  • Los píxeles de los monitores de computadora normalmente son "cuadrados" (es decir, tienen un paso de muestreo horizontal y vertical igual); los píxeles en otros sistemas a menudo son "rectangulares" (es decir, tienen un paso de muestreo horizontal y vertical desigual; tienen forma oblonga), al igual que los formatos de video digital con diversas relaciones de aspecto , como los formatos de pantalla ancha anamórficos del estándar de video digital Rec. 601 .

Resolución de los monitores de ordenador

Los monitores de ordenador (y los televisores) suelen tener una resolución nativa fija . Su valor depende del monitor y del tamaño. Consulta a continuación las excepciones históricas.

Las computadoras pueden usar píxeles para mostrar una imagen, a menudo una imagen abstracta que representa una GUI . La resolución de esta imagen se denomina resolución de pantalla y está determinada por la tarjeta de video de la computadora. Los monitores de pantalla plana (y los televisores), por ejemplo, los monitores OLED o LCD , o los de tinta electrónica , también usan píxeles para mostrar una imagen y tienen una resolución nativa , que (idealmente) debería coincidir con la resolución de la tarjeta de video. Cada píxel está formado por tríadas , y la cantidad de estas tríadas determina la resolución nativa.

En los monitores CRT más antiguos, que se encontraban disponibles históricamente, la resolución era posiblemente ajustable (aún más baja que la que logran los monitores modernos), mientras que en algunos de esos monitores (o televisores) la velocidad de barrido del haz era fija, lo que daba como resultado una resolución nativa fija. La mayoría de los monitores CRT no tienen una velocidad de barrido del haz fija, lo que significa que no tienen una resolución nativa en absoluto; en cambio, tienen un conjunto de resoluciones que son igualmente compatibles. Para producir las imágenes más nítidas posibles en una pantalla plana, por ejemplo, OLED o LCD, el usuario debe asegurarse de que la resolución de pantalla de la computadora coincida con la resolución nativa del monitor.

Resolución de los telescopios

La escala de píxeles utilizada en astronomía es la distancia angular entre dos objetos en el cielo que se encuentran separados por un píxel en el detector (CCD o chip infrarrojo). La escala s, medida en radianes, es la relación entre el espaciado entre píxeles p y la distancia focal f de la óptica precedente, s = p / f . (La distancia focal es el producto de la relación focal por el diámetro de la lente o espejo asociado).

Dado que s suele expresarse en unidades de segundos de arco por píxel, que 1 radián equivale a (180/π) × 3600 ≈ 206 265 segundos de arco y que las distancias focales suelen expresarse en milímetros y los tamaños de píxeles en micrómetros, lo que da otro factor de 1000, la fórmula suele citarse como s = 206 p / f .

Bits por píxel

La cantidad de colores distintos que se pueden representar con un píxel depende de la cantidad de bits por píxel (bpp). Una imagen de 1 bpp utiliza 1 bit por cada píxel, por lo que cada píxel puede estar encendido o apagado. Cada bit adicional duplica la cantidad de colores disponibles, por lo que una imagen de 2 bpp puede tener 4 colores y una imagen de 3 bpp puede tener 8 colores:

  • 1 bpp, 2 1 = 2 colores ( monocromo )
  • 2 bpp, 2 2 = 4 colores
  • 3 bpp, 2 3 = 8 colores
  • 4 bpp, 2 4 = 16 colores
  • 8 bpp, 2 8 = 256 colores
  • 16 bpp, 2 16 = 65.536 colores (" Highcolor ")
  • 24 bpp, 2 24 = 16.777.216 colores (" color verdadero ")

Para profundidades de color de 15 o más bits por píxel, la profundidad normalmente es la suma de los bits asignados a cada uno de los componentes rojo, verde y azul. Highcolor , que normalmente significa 16 bpp, normalmente tiene cinco bits para rojo y azul cada uno, y seis bits para verde, ya que el ojo humano es más sensible a los errores en verde que en los otros dos colores primarios. Para aplicaciones que involucran transparencia, los 16 bits se pueden dividir en cinco bits cada uno de rojo, verde y azul, con un bit restante para la transparencia. Una profundidad de 24 bits permite 8 bits por componente. En algunos sistemas, está disponible una profundidad de 32 bits: esto significa que cada píxel de 24 bits tiene 8 bits adicionales para describir su opacidad (para fines de combinación con otra imagen).

Subpíxeles

Geometría de los elementos de color de varias pantallas CRT y LCD; los puntos de fósforo en la pantalla a color de los CRT (fila superior) no tienen relación con los píxeles o subpíxeles.

Muchos sistemas de visualización y adquisición de imágenes no son capaces de mostrar o detectar los diferentes canales de color en el mismo sitio. Por lo tanto, la cuadrícula de píxeles se divide en regiones de un solo color que contribuyen al color mostrado o detectado cuando se ve a distancia. En algunas pantallas, como las pantallas LCD, LED y de plasma, estas regiones de un solo color son elementos direccionables por separado, que se conocen como subpíxeles , principalmente colores RGB . [18] Por ejemplo, las LCD suelen dividir cada píxel verticalmente en tres subpíxeles. Cuando el píxel cuadrado se divide en tres subpíxeles, cada subpíxel es necesariamente rectangular. En la terminología de la industria de las pantallas, los subpíxeles a menudo se denominan píxeles , ya que son los elementos direccionables básicos desde el punto de vista del hardware y, por lo tanto, se utilizan circuitos de píxeles en lugar de circuitos de subpíxeles .

Subpíxeles del televisor Samsung UA40M5860AKCHD

La mayoría de los sensores de imagen de las cámaras digitales utilizan regiones de sensor de un solo color, por ejemplo, utilizando el patrón de filtro Bayer , y en la industria de las cámaras estos se conocen como píxeles, al igual que en la industria de las pantallas, no como subpíxeles .

Para los sistemas con subpíxeles, se pueden adoptar dos enfoques diferentes:

  • Los subpíxeles se pueden ignorar y los píxeles a todo color se tratan como el elemento de imagen direccionable más pequeño; o
  • Los subpíxeles se pueden incluir en los cálculos de renderizado, lo que requiere más tiempo de análisis y procesamiento, pero puede producir imágenes aparentemente superiores en algunos casos.

Este último enfoque, conocido como renderizado de subpíxeles , utiliza el conocimiento de la geometría de los píxeles para manipular los tres subpíxeles de color por separado, lo que produce un aumento en la resolución aparente de las pantallas en color. Si bien las pantallas CRT utilizan áreas de fósforo con máscaras de rojo, verde y azul, dictadas por una cuadrícula llamada máscara de sombra, requeriría un paso de calibración difícil para alinearse con la trama de píxeles mostrada, por lo que las CRT no utilizan renderizado de subpíxeles.

El concepto de subpíxeles está relacionado con las muestras .

Píxel lógico

En el diseño gráfico, web e interfaces de usuario, un "píxel" puede hacer referencia a una longitud fija en lugar de un píxel real en la pantalla para adaptarse a diferentes densidades de píxeles . Una definición típica, como en CSS , es que un píxel "físico" mide 196 pulgadas (0,26 mm). De esta manera, se garantiza que un elemento determinado se mostrará con el mismo tamaño sin importar la resolución de pantalla en la que se visualice. [19]

Sin embargo, puede haber algunos ajustes adicionales entre un píxel "físico" y un píxel lógico en pantalla. Como las pantallas se ven a diferentes distancias (considere un teléfono, una pantalla de computadora y un televisor), la longitud deseada (un "píxel de referencia") se escala en relación con una distancia de visualización de referencia (28 pulgadas (71 cm) en CSS). Además, como las densidades de píxeles de pantalla reales rara vez son múltiplos de 96 ppp, a menudo se aplica algún redondeo para que un píxel lógico sea una cantidad entera de píxeles reales. Al hacerlo, se evitan artefactos de renderizado. El "píxel" final obtenido después de estos dos pasos se convierte en el "ancla" en el que se basan todas las demás mediciones absolutas (por ejemplo, el "centímetro"). [20]

Ejemplo práctico, con un televisor de 30 pulgadas (76 cm) y 2160p colocado a 56 pulgadas (140 cm) del espectador:

  • Calcule el tamaño de píxel escalado como 196 pulgadas × (56/28) = 148 pulgadas (0,53 mm) .
  • Calcule el DPI del televisor como 2160 / (30 pulgadas / 9^2 + 16^2 × 16) ≈ 82,61 dpi .
  • Calcule el recuento de píxeles reales por píxel lógico como 148 pulgadas × 82,61 ppp ≈ 1,721 píxeles .

El navegador optará entonces por utilizar el tamaño de píxel de 1,721× o redondearlo a una proporción de 2×.

Megapíxeles

Diagrama de resoluciones de sensores comunes de cámaras digitales, incluidos los valores de megapíxeles
Comparación del nivel de detalle entre 0,3 y 24 megapíxeles

Un megapíxel ( MP ) es un millón de píxeles; el término se utiliza no solo para la cantidad de píxeles de una imagen, sino también para expresar la cantidad de elementos del sensor de imagen de las cámaras digitales o la cantidad de elementos de visualización de las pantallas digitales . Por ejemplo, una cámara que produce una imagen de 2048 × 1536 píxeles (3 145 728 píxeles de imagen final) normalmente utiliza algunas filas y columnas adicionales de elementos del sensor y se dice comúnmente que tiene "3,2 megapíxeles" o "3,4 megapíxeles", dependiendo de si el número informado es el recuento de píxeles "efectivo" o "total". [21]

El píxel se utiliza para definir la resolución de una fotografía. La resolución de una fotografía se calcula multiplicando el ancho y la altura de un sensor en píxeles.

Las cámaras digitales utilizan componentes electrónicos fotosensibles, ya sea sensores de imagen de dispositivo acoplado por carga (CCD) o de semiconductor de óxido metálico complementario (CMOS), que constan de una gran cantidad de elementos sensores individuales, cada uno de los cuales registra un nivel de intensidad medido. En la mayoría de las cámaras digitales, el conjunto de sensores está cubierto con un mosaico de filtros de color con patrones que tiene regiones rojas, verdes y azules en la disposición del filtro Bayer, de modo que cada elemento sensor puede registrar la intensidad de un solo color primario de luz. La cámara interpola la información de color de los elementos sensores vecinos, a través de un proceso llamado desmosaico , para crear la imagen final. Estos elementos sensores a menudo se denominan "píxeles", aunque solo registran un canal (solo rojo, verde o azul) de la imagen en color final. Por lo tanto, se deben interpolar dos de los tres canales de color para cada sensor y una llamada cámara de N megapíxeles que produce una imagen de N megapíxeles proporciona solo un tercio de la información que una imagen del mismo tamaño podría obtener de un escáner. Así, ciertos contrastes de color pueden parecer más difusos que otros, dependiendo de la distribución de los colores primarios (el verde tiene el doble de elementos que el rojo o el azul en la disposición de Bayer).

DxO Labs inventó el Perceptual MegaPixel (P-MPix) para medir la nitidez que produce una cámara cuando se combina con un objetivo en particular, a diferencia del MP que indica un fabricante para un producto de cámara, que se basa únicamente en el sensor de la cámara. El nuevo P-MPix afirma ser un valor más preciso y relevante para que los fotógrafos lo tengan en cuenta al sopesar la nitidez de la cámara. [22] A mediados de 2013, el objetivo Sigma 35 mm f/1.4 DG HSM montado en una Nikon D800 tenía el P-MPix medido más alto. Sin embargo, con un valor de 23 MP, todavía borra [ aclaración necesaria ] más de un tercio del sensor de 36,3 MP de la D800. [23] En agosto de 2019, Xiaomi lanzó el Redmi Note 8 Pro como el primer teléfono inteligente del mundo con una cámara de 64 MP. [24] El 12 de diciembre de 2019, Samsung lanzó el Samsung A71, que también tiene una cámara de 64 MP. [25] A fines de 2019, Xiaomi anunció el primer teléfono con cámara con un sensor de 108 MP y 1/1,33 pulgadas de ancho. El sensor es más grande que la mayoría de las cámaras puente con un sensor de 1/2,3 pulgadas de ancho. [26]

Se ha introducido un nuevo método para añadir megapíxeles en una cámara con sistema Micro Four Thirds , que solo utiliza un sensor de 16 MP pero puede producir una imagen RAW de 64 MP (JPEG de 40 MP) haciendo dos exposiciones, desplazando el sensor medio píxel entre ellas. Al utilizar un trípode para tomar varias fotografías a nivel en una misma toma, las múltiples imágenes de 16 MP se generan en una imagen unificada de 64 MP. [27]

Véase también

Referencias

  1. ^ Foley, JD; Van Dam, A. (1982). Fundamentos de gráficos interactivos por computadora. Reading, MA: Addison-Wesley. ISBN 0201144689.
  2. ^ Rudolf F. Graf (1999). Diccionario moderno de electrónica. Oxford: Newnes. pág. 569. ISBN 0-7506-4331-5.
  3. ^ Michael Goesele (2004). Nuevas técnicas de adquisición para objetos reales y fuentes de luz en gráficos por computadora. Libros a pedido. ISBN 3-8334-1489-8. Archivado desde el original el 22 de enero de 2018.
  4. ^ ab James D. Foley; Andries van Dam; John F. Hughes; Steven K. Fainer (1990). "Representaciones de particionamiento espacial; detalle de superficie". Gráficos por computadora: principios y práctica . Serie de programación de sistemas. Addison-Wesley . ISBN 0-201-12110-7Estas celdas a menudo se denominan vóxeles ( elementos de volumen), en analogía con los píxeles.
  5. ^ "Diccionario etimológico en línea". Archivado desde el original el 30 de diciembre de 2010.
  6. ^ ab Lyon, Richard F. (2006). Una breve historia del "píxel" (PDF) . Simposio IS&T/SPIE sobre imágenes electrónicas. Archivado (PDF) desde el original el 19 de febrero de 2009.
  7. ^ Fred C. Billingsley, "Procesamiento de fotografías de guardabosques y marineros", en Computerized Imaging Techniques, Proceedings of SPIE , vol. 0010, págs. XV-1–19, enero de 1967 (agosto de 1965, San Francisco).
  8. ^ Safire, William (2 de abril de 1995). "Modem, I'm Odem". Sobre el lenguaje. The New York Times . Archivado desde el original el 9 de julio de 2017. Consultado el 21 de diciembre de 2017 .
  9. ^ US 1175313, Alf Sinding-Larsen, "Transmisión de imágenes de objetos en movimiento", publicado el 14 de marzo de 1916 
  10. ^ Robert L. Lillestrand (1972). "Técnicas para la detección de cambios". IEEE Trans. Comput . C-21 (7).
  11. ^ Lewis, Peter H. (12 de febrero de 1989). «Compaq agudiza su opción de vídeo». The Executive Computer. The New York Times . Archivado desde el original el 20 de diciembre de 2017. Consultado el 21 de diciembre de 2017 .
  12. ^ Tom Gasek (17 de enero de 2013). Stop Motion fotograma a fotograma: enfoques no tradicionales de la animación stop motion. Taylor & Francis. pág. 2. ISBN 978-1-136-12933-9Archivado desde el original el 22 de enero de 2018.
  13. ^ Derek Doeffinger (2005). La magia de la impresión digital . Lark Books. pág. 24. ISBN 1-57990-689-3. impresora puntos por pulgada píxeles por pulgada.
  14. ^ "Experimentos con píxeles por pulgada (PPP) para mejorar la nitidez de las imágenes impresas". ClarkVision.com . 3 de julio de 2005. Archivado desde el original el 22 de diciembre de 2008.
  15. ^ Harald Johnson (2002). Mastering Digital Printing (1.ª ed.). Curso de tecnología de Thomson. pág. 40. ISBN 978-1-929685-65-3.
  16. ^ "Registro de imágenes satelitales borrosas". staff.utia.cas.cz. 28 de febrero de 2001. Archivado desde el original el 20 de junio de 2008. Consultado el 9 de mayo de 2008 .
  17. ^ Saryazdi, Saeı̈d; Haese-Coat, Véronique; Ronsin, Joseph (2000). "Representación de imágenes mediante un nuevo muestreo morfológico no uniforme óptimo". Reconocimiento de patrones . 33 (6): 961–977. Bibcode :2000PatRe..33..961S. doi :10.1016/S0031-3203(99)00158-2.
  18. ^ "Subpixel en la ciencia". dictionary.com . Archivado desde el original el 5 de julio de 2015. Consultado el 4 de julio de 2015 .
  19. ^ "CSS: em, px, pt, cm, in..." w3.org. 8 de noviembre de 2017. Archivado desde el original el 6 de noviembre de 2017 . Consultado el 21 de diciembre de 2017 .
  20. ^ "Módulo de valores y unidades CSS nivel 3". www.w3.org .
  21. ^ "Ahora un megapíxel es realmente un megapíxel". Archivado desde el original el 1 de julio de 2013.
  22. ^ "¿Buscas un nuevo equipo fotográfico? ¡Perceptual Megapixel de DxOMark puede ayudarte!". DxOMark . 17 de diciembre de 2012. Archivado desde el original el 8 de mayo de 2017.
  23. ^ "Calificaciones de lentes de cámara según DxOMark". DxOMark . Archivado desde el original el 26 de mayo de 2013.
  24. ^ Anton Shilov (31 de agosto de 2019). "El primer teléfono inteligente del mundo con una cámara de 64 MP: Redmi Note 8 Pro de Xiaomi".
  25. ^ "Samsung Galaxy A51 y Galaxy A71 anunciados: pantallas Infinity-O y cámaras cuádruples en forma de L". 12 de diciembre de 2019.
  26. ^ Robert Triggs (16 de enero de 2020). «Revisión de la cámara del Xiaomi Mi Note 10: la primera cámara de 108 MP para teléfono» . Consultado el 20 de febrero de 2020 .
  27. ^ Damien Demolder (14 de febrero de 2015). «Pronto, 40 MP sin trípode: una conversación con Setsuya Kataoka de Olympus». Archivado desde el original el 11 de marzo de 2015. Consultado el 8 de marzo de 2015 .
  • Un píxel no es un pequeño cuadrado: nota de Microsoft del pionero de los gráficos por computadora Alvy Ray Smith.
  • "Los píxeles y yo", conferencia de 2016 de Richard F. Lyon en el Museo de Historia de la Computación
  • Píxeles cuadrados y no cuadrados: información técnica sobre las relaciones de aspecto de los píxeles de los estándares de vídeo modernos (480i, 576i, 1080i, 720p), además de implicaciones de software.
  • Cómo funciona un televisor en cámara lenta – The Slow Mo Guys – Vídeo de YouTube de The Slow Mo Guys
Obtenido de "https://es.wikipedia.org/w/index.php?title=Píxel&oldid=1247354101#Megapíxel"