Noticias, Gadgets, Android, Móviles, Descargas de Aplicaciones

Allí "magia" de la cámara Google Pixel está en el software, no solo en el hardware: he aquí por qué

Allí Cámara de Google Pixel, muy elogiado por DXoMark, parece haber convencido incluso a los primeros revisores extranjeros, pero alguien aún podría ser escéptico, mirando la mera hoja de datos técnicos de los teléfonos inteligentes, que ve el uso de un sensor de 12 megapíxeles, f / 2.0, sin OIS, con píxeles de 1,55 um. El caso es que, por primera vez en la historia, Google realmente ha hecho magia con el software, como explica. Marc Levoy, que ha trabajado en algunas de las particularidades implementadas en los Pixels.

[sentence_dx]Los píxeles capturan imágenes incluso antes de presionar el botón del obturador[/sentence_dx]

HDR + en particular, es una de esas funciones que nunca debe desactivarse. Gracias también a la potencia del Hexagon DSP presente en el Snapdragon 821, Los píxeles pueden capturar imágenes RAW sin retardo de obturación, y la belleza es que estas imágenes constituyen un flujo continuo que comienza a grabar tan pronto como abre la aplicación de la cámara. El momento en que presiona el botón del obturador le dice al software que procesará todas las imágenes grabadas hasta ese punto para brindarle el mejor resultado posible.

Si recuerdas, el funcionamiento de HDR + en el Nexus fue muy diferente. En el momento en que presionó el botón del obturador, el Nexus capturó imágenes lo más rápido posible que luego se procesaron en HDR, pero eso también significaba que podía perderse el momento que deseaba.

Con píxeles el enfoque es completamente diferente, incluso en comparación con las técnicas tradicionales de obtención de imágenes HDR, que implican capturar la misma escena con diferentes valores de exposición (idealmente con exposición correcta, subexpuesta y sobreexpuesta) y luego combinar el resultado en una sola imagen. HDR + también captura varias tomas de la misma escena, pero todo subexpuesto. De esta manera, las áreas con alto brillo se renderizan de la mejor manera y no “quemadas”, lo cual es bastante típico en la fotografía de teléfonos inteligentes; pero en cambio el oscuridad ¿No deberían ser excesivos? No, porque el procesamiento matemático tiene lugar allí.

En resumen, cuantas más tomas se capturen, menos ruido habrá incluso en aquellos píxeles con poca luz (proporcionalmente a la raíz cuadrada del número de fotos tomadas), y con este enfoque se vuelve más fácil. alinear las diversas fotos sin que se produzcan fenómenos de efecto fantasma, así como mejorar las tomas en condiciones de luz baja, con colores que se pueden mantener más saturados (y no desteñidos como otras cámaras) gracias a la reducción de ruido mencionada anteriormente.

En última instancia, esta es también la razón por la que lo no se incluyó estabilizador óptico: al no tener que capturar imágenes de larga exposición, pero al poder combinar muchas imágenes de corta exposición, no hay necesidad de un OIS, aunque obviamente ya hemos entrado en un campo algo cuestionable, como de hecho casi todo en el campo del renderizado fotográfico.

Levoy sigue convencido de que la fotografía computacional es la dirección correcta para investigar, y que por el momento solo se ha afectado la superficie de su potencial, citando experimentos que hizo en condiciones de luz extremadamente baja, como se puede ver en el video a continuación. Si va a ser una apuesta exitosa, lo averiguaremos no tanto con Google Pixels, sino en los próximos años.