Noticias, Gadgets, Android, Móviles, Descargas de Aplicaciones

Google nos explica "magia" del efecto bokeh en el Pixel 2, pero se parece un poco al zorro con uvas

Mientras no tenga uno cámara doble trasero (y ni siquiera delantero), el Pixel 2 promete uno modo retrato para competir con la competencia, con un Efecto bokeh estilo DSLR obtenido principalmente a través de software. Pero, ¿cómo es esto posible?

Google lo explica en un largo post de su blog, en el que hay muchos detalles técnicos a los que te remitimos si estás interesado. Aquí resumiremos brevemente las principales etapas del modo retrato.

    Capturar una imagen HDR +, para tener una iluminación perfecta en toda la escena. Gracias al aprendizaje automático llegan separar los píxeles del primer plano de los del fondo. Obviamente, es más fácil decirlo que hacerlo. Si el sujeto en primer plano estuviera frente a una pantalla verde clásica, sería fácil, pero en cambio, el fondo puede ser muy heterogéneo, y aquí es donde entra en juego TensorFlow. Uno esta construido mapa de profundidad de cada punto de la escena, para distinguir el fondo más cercano del más lejano, y aplicar un desenfoque proporcional a estos datos, y no uniforme. Esto sucede gracias al “píxel dual“, pero aquí las cosas se ponen un poco incorrecto. De hecho, los Pixel 2 están equipados con Enfoque automático con detección de fase (PDAF), que según Google también se llama doble píxel enfoque automático (DPAF). En realidad, esto no es correcto, y es el DPAF la implementación más refinada del PDAF. En resumen, el Pixel 2 no tiene el doble píxel (perdón por el juego de palabras), pero Google usa este término de manera un poco incorrecta para indicar que la imagen está nuevamente dividida en dos partes, una para el lado izquierdo de la lente y otra para el lado correcto. La diferencia entre estos dos puntos de vista es de solo un milímetro pero es suficiente para elaborar un mapa de profundidad. Junta todos estos datos, lo que da como resultado la imagen final. Al combinar la “máscara de segmentación” del paso 2 con el “mapa de profundidad” del paso 3, el algoritmo decide cuánto difuminar cada píxel de la imagen HDR + obtenida en el paso 1. Obviamente, “la magia” está aquí, en el forma en que estos datos se combinan.

Los lectores más atentos ya tendrán una pregunta: y la camara frontal? ¿Hay PDAF allí también? La respuesta es no y, de hecho, el modo retrato de la cámara frontal del Pixel 2 es menos preciso, ya que se salta el paso 3. Siempre tendrá un efecto de desenfoque, siempre que el punto 2 reconozca claramente la cara del sujeto desde el fondo, pero no será un “borroso borroso” como con la cámara trasera.

El aprendizaje automático aplicado al procesamiento de imágenes realizado por Google es ciertamente notable, y BigG parece más que convencido de que este es el futuro, tanto que el artículo termina con: “¡Bienvenido al nuevo mundo de las cámaras definidas por software y la fotografía computacional!”

Sin embargo, no podemos evitar preguntarnos: por que tanto esfuerzo software ¿cuándo se puede hacer (¿mejor?) a través del hardware? Esto nos recuerda un poco al año pasado, cuando Google predicó las bondades de su EIS incluso en comparación con el OIS. Lástima que uno de los orgullosos del Pixel 2 sea la combinación de estas dos tecnologías. Casi parece que Google hace el papel del zorro con las uvas, y si nos da tanto, el año que viene tendremos doble cámara + aprendizaje automático. Y, por supuesto, Google nos dirá que es la mejor solución que existe.