DxOMark muestra lo lejos que han llegado las cámaras telefónicas

Ahora componente view

En los seis años que DxOMark ha estado probando las cámaras de los teléfonos, ha visto muchas mejoras importantes. En un nuevo informe técnico, la compañía se toma el tiempo para detallar cuán dramáticamente las nuevas tecnologías han mejorado la calidad de imagen del teléfono. Miremos más de cerca.

Las puntuaciones generales han aumentado drásticamente a lo largo de los años



En 2012, la mejor cámara para teléfonos inteligentes disponible fue el Nokia 808 PureView. Amasó lo que en ese momento eran puntuaciones muy altas de fotos y videos en los años 60 (como se volvió a probar con los protocolos de 2017). Avance rápido hasta el día de hoy, donde los dispositivos insignia de la línea principal de Google, Huawei, Samsung y Apple están todos muy cerca unos de otros y superan la marca de los 100.

Las puntuaciones generales de DxOMark Mobile han seguido aumentando con la adopción de nuevas tecnologías.

Las puntuaciones generales de DxOMark Mobile han seguido aumentando con la adopción de nuevas tecnologías.



Superar los límites físicos: trucos de hardware, software inteligente

El impulso para crear teléfonos más delgados con más funciones ha significado que los sensores y lentes de los teléfonos sean tan pequeños como siempre lo fueron (de hecho, más pequeños que el que se encuentra en el 808 PureView). Pero al innovar en una serie de áreas de hardware y procesamiento de imágenes, los fabricantes de teléfonos obtienen imágenes mucho mejores con sus pequeñas cámaras. El documento de DxOMark se sumerge en las mejoras en varias áreas, que incluyen ruido, exposición, HDR, enfoque automático, estabilización y zoom. Desglosaremos el progreso en algunos de ellos para usted.

Enfoque automático: un hardware más inteligente significa un enfoque más rápido

Si bien muchos factores, incluidos los procesadores más rápidos, han contribuido a un enfoque automático más rápido, algunos de los más importantes son las nuevas e inteligentes funciones de hardware. Uno de los primeros avances fue la detección de fase utilizando áreas dedicadas del sensor. Esta misma técnica se ha utilizado para mejorar drásticamente el rendimiento del enfoque automático en muchas cámaras sin espejo. Antes de la detección de fase, los teléfonos inteligentes y las cámaras sin espejo se basaban en un proceso mucho más lento de analizar los fotogramas y tratar de maximizar el contraste en el software. Google combinó la detección de fase con la detección de profundidad de tiempo de vuelo con láser para lograr buenos resultados en su Pixel original, por ejemplo.

La detección de fase, los telémetros láser y los sensores de doble píxel han dado como resultado un rendimiento de enfoque automático muy mejorado

La detección de fase, los telémetros láser y los sensores de doble píxel han dado como resultado un rendimiento de enfoque automático muy mejorado



Impulsando la tecnología aún más, el Pixel 2 y algunos otros teléfonos Android incorporan un sensor de doble píxel, donde las mitades izquierda y derecha de cada píxel se pueden leer por separado. La relación entre los dos se puede utilizar como una forma de detección de fase. Sin embargo, a diferencia de la detección de fase tradicional, todos los píxeles de la cámara pueden participar, por lo que básicamente tiene sensores de enfoque ilimitados. Apple no tiene acceso a sensores de doble píxel, lo que ayuda a explicar sus puntuaciones más bajas de enfoque automático. Google va incluso más lejos que sus competidores y utiliza la información de doble píxel para estimar la profundidad, lo que le permite capturar imágenes en modo Retrato, incluso con una sola cámara.

Menos ruido significa mejores imágenes

Los sensores pequeños significan ruido. No hay forma de evitarlo, dada la naturaleza de la electrónica de semiconductores y la física de la luz. Pero hay muchas técnicas inteligentes que los fabricantes de teléfonos han comenzado a usar para solucionarlo.

El primero son mejores algoritmos de reducción de ruido. El problema de reducir el ruido es que también terminas suavizando las texturas de la imagen y perdiendo detalles. Una forma de evitar esto es la Reducción de ruido temporal (TNR), que implica combinar datos de varios fotogramas para promediar el ruido. Los procesadores más rápidos le permiten hacer eso sin introducir artefactos visibles. Los procesadores ejecutan algoritmos avanzados de procesamiento de imágenes para alinear las imágenes con precisión y tomar decisiones sobre qué incluir en la imagen final. HDR + en el Pixel 2, por ejemplo, usa hasta 10 cuadros tomados a 30 fps para crear una imagen final.

Se han utilizado muchas tecnologías y algoritmos nuevos para reducir el ruido de la imagen en los teléfonos inteligentes

Se han utilizado muchas tecnologías y algoritmos nuevos para reducir el ruido de la imagen en los teléfonos inteligentes



Las técnicas adicionales para reducir el ruido incluyen la introducción de una mejor estabilización, lo que permite velocidades de obturación más largas. Las aperturas de lente más amplias también permiten que se recolecte más luz en la misma cantidad de tiempo. En dispositivos multicámara, algunas configuraciones permiten el uso de datos de ambas cámaras para producir una única imagen con reducción de ruido.

La exposición automática inteligente y HDR llegan a los teléfonos

La exposición solía significar simplemente elegir una combinación de ISO (implementada a través de una configuración de ganancia en el caso de los teléfonos), velocidad de obturación y apertura (que está fija en los teléfonos, aunque algunos tienen la opción de elegir entre dos módulos de cámara con diferentes aperturas de lente ). Los primeros teléfonos inteligentes tenían una capacidad de procesamiento limitada y utilizaban técnicas bastante simples para determinar la exposición adecuada. Sin embargo, los modelos recientes han comenzado a depender tanto del análisis de imágenes avanzado, incluida la detección de rostros, como del aprendizaje automático basado en bibliotecas de escenas de referencia, para predecir con mayor precisión la exposición de la idea para una escena en particular. La exposición automática ha mejorado en todos los ámbitos, pero las mayores ganancias se han producido en el rendimiento con poca luz

Pero debido a que el rango dinámico de los pequeños sensores en los teléfonos es bastante limitado, los proveedores también han comenzado a capturar múltiples imágenes en una ráfaga y usarlas para aumentar aún más el rango dinámico aparente de la cámara. Esto está relacionado con la exposición, porque diferentes empresas utilizan diferentes algoritmos para capturar escenas HDR de esta manera. La mayoría utiliza una técnica de horquillado tradicional, intercalando una imagen sobreexpuesta, subexpuesta y de referencia juntas, y mapeando el tono del resultado alineado. Google utiliza una técnica novedosa para capturar todas las imágenes con la misma configuración ligeramente subexpuesta y luego combinarlas con su tecnología HDR +.

Zoom está sucediendo, pero sigue siendo un talón de Aquiles



Habla con casi cualquier diseñador de cámaras de teléfonos y se lamentarán de que los límites de la física son particularmente problemáticos cuando se trata de agregar zoom a las cámaras de los teléfonos. Al utilizar una segunda cámara dedicada, pueden pasar de un gran angular a una distancia focal más normal, pero no hay suficiente profundidad (altura z) en un teléfono moderno para lentes más largos. Son tan delgados que incluso la óptica plegada utilizada por la startup Light en su L16 sería demasiado gruesa. El santo grial puede ser la óptica difractiva, pero hasta ahora la calidad de la imagen aún no está ahí.

Los teléfonos inteligentes modernos utilizan una variedad de técnicas para estimar la profundidad y crear efectos de retrato

Los teléfonos inteligentes modernos utilizan una variedad de técnicas para estimar la profundidad y crear efectos de retrato

Sin embargo, incluso aquí las cámaras actuales son capaces de obtener resultados muy mejorados. Las cámaras duales permiten tanto la opción de un teleobjetivo dedicado como en algunos modelos de Apple, Google y otros, como para combinar cámaras en color y monocromáticas para obtener más detalles, como lo implementó Huawei en su Mate 10 Pro.

La calidad del zoom ha mejorado hasta donde incluso los sensores pequeños de las cámaras insignia modernas pueden mejorar el rendimiento del sensor grande del antiguo 808 PureView.

La calidad del zoom ha mejorado hasta donde incluso los sensores pequeños de las cámaras insignia modernas pueden mejorar el rendimiento del sensor grande del antiguo 808 PureView.

Las nuevas tecnologías significan nuevos puntos de referencia

Las mejoras en la calidad de la imagen no solo han aumentado las puntuaciones de referencia de la cámara; han requerido un nuevo conjunto de puntos de referencia. En septiembre, DxOMark actualizó su conjunto original de pruebas de cámaras móviles de 2012 a un Versión 2017 , que presenta pruebas mucho más exigentes para imágenes con poca luz e imágenes con movimiento, así como pruebas adicionales para evaluar los efectos de zoom y profundidad (bokeh). Dado que los puntajes no son directamente comparables, DxOMark volvió a probar algunos teléfonos anteriores para compararlos, y son esos resultados de reevaluación los que se muestran en los gráficos que hemos utilizado en este artículo.

Dado el rápido ritmo de adopción de la tecnología en las cámaras de los teléfonos, es probable que esta no sea la última vez que los puntos de referencia deban actualizarse para reflejar funciones y casos de uso adicionales. Si desea ver de manera divertida el proceso que utiliza DxOMark para medir la calidad de imagen de la cámara, la compañía ha publicado este breve video:

Imágenes cortesía de DxOMark Image Labs. Puedes leer el todo el libro blanco aquí .

Descargo de responsabilidad: Trabajo mucho con DxOMark y participé en elementos del lanzamiento del nuevo sitio web de DxOMark Mobile.

Copyright © Todos Los Derechos Reservados | 2007es.com