Google legt ons uit "Magie" van het bokeh-effect op de Pixel 2, maar het lijkt een beetje op de vos met druiven

Zolang ik er geen heb dubbele camera achter (en niet eens voor), de Pixel 2 belooft er een portret-modus om te concurreren met de concurrentie, met een bokeh-effect in DSLR-stijl voornamelijk via software verkregen. Maar hoe is dit mogelijk?

Google legt het uit in een lange blogpost, waarin veel technische details staan ​​waar we je naar verwijzen als je interesse hebt. Hier zullen we kort de belangrijkste fasen van de portretmodus samenvatten.

    een afbeelding vastleggen HDR+, voor een perfecte verlichting in de hele scène. Dankzij machine learning voorgrondpixels scheiden van achtergrondpixels. Uiteraard is dit makkelijker gezegd dan gedaan. Als het onderwerp op de voorgrond zich voor een klassiek groen scherm zou bevinden, zou het gemakkelijk zijn, maar in plaats daarvan kan de achtergrond erg heterogeen zijn, en dit is waar TensorFlow in het spel komt. een is gebouwd dieptekaart van elk punt van de scène, om de dichtstbijzijnde achtergrond van de verste te onderscheiden, en een proportionele vervaging toe te passen op deze gegevens, en niet uniform. Dit gebeurt dankzijdubbele pixelMaar hier wordt het een beetje niet correct. In feite zijn de Pixel 2 uitgerust met: Fasedetectie autofocus (PDAF), die volgens Google ook wel dubbele pixel autofocus (DPAF). Eigenlijk klopt dit niet en is de DPAF de meest verfijnde uitvoering van de PDAF. Kortom, de Pixel 2 heeft niet de dubbele pixel (excuseer de woordspeling), maar Google gebruikt deze term een ​​beetje verkeerd om te bedoelen dat het beeld weer in twee delen is verdeeld, een voor de linkerkant van de lens en een voor de goede kant. Het verschil tussen deze twee gezichtspunten is slechts één millimeter, maar het is voldoende om een ​​dieptekaart te maken. Het voegt al deze gegevens samen, wat resulteert in het uiteindelijke beeld. Door het “segmentatiemasker” uit stap 2 te combineren met de “dieptekaart” uit stap 3, bepaalt het algoritme hoeveel elke pixel van het HDR+-beeld verkregen in stap 1 moet worden vervaagd. Het is duidelijk dat “de magie” hier zit, in hoe deze gegevens worden gecombineerd.

De meest oplettende lezers zullen al een vraag hebben: en de camera aan de voorkant? Zit daar ook PDAF in? Het antwoord is nee, en in feite is de portretmodus van de Pixel 2 aan de voorkant minder nauwkeurig, omdat deze stap 3 overslaat. Het zal altijd een wazig effect hebben, zolang punt 2 het gezicht van het onderwerp duidelijk vanaf de achtergrond herkent, maar het zal geen “wazige onscherpte” zijn zoals bij de achteruitrijcamera.

  

Machine learning toegepast op beeldverwerking gedaan door Google is zeker opmerkelijken BigG lijkt er meer dan van overtuigd dat dit de toekomst is, zozeer zelfs dat het artikel eindigt met: “Welkom in de nieuwe wereld van softwaregedefinieerde camera’s en computationele fotografie!”

We kunnen echter niet anders dan ons afvragen: waarom zoveel moeite? software, wanneer kan het (beter?) via hardware? Dit doet ons een beetje denken aan vorig jaar, toen Google de voordelen van zijn EIS predikte, zelfs in vergelijking met OIS. Jammer dat een van de trotse van de Pixel 2 de combinatie van deze twee technologieën is. Het lijkt er bijna op dat Google de rol van de vos bij de druiven speelt, en als het ons zoveel oplevert, hebben we volgend jaar dubbele camera + machine learning. En natuurlijk zal Google ons vertellen dat dit de beste oplossing is die er is.

0 Shares:
You May Also Like