Flujo de trabajo de fotografía móvil: empujar el sobre con Lightroom y Pixel

Equipo fotográfico móvil para tiradores profesionales de David Cardinal

No es ningún secreto que la mayoría de las fotos del mundo ahora se toman y se ven en un teléfono inteligente. Para la fotografía informal, el impresionante procesamiento integrado de los teléfonos modernos suele ser suficiente: simplemente dispara y comparte. Pero si eres un poco más quisquilloso con tus imágenes, o estás fotografiando sujetos difíciles o con una iluminación complicada, es probable que desees editar algunas imágenes. Incluso con aplicaciones inteligentes como Lightroom CC y Snapseed, eso puede resultar doloroso en la pantalla pequeña de un teléfono. Afortunadamente, ahora hay algunas formas de mantenerse liviano pero tener una mejor plataforma para editar.



Quizás sintiendo lástima de mí por llevar 20 libras de equipo fotográfico en cada conferencia de tecnología que cubro, Google me desafió a ver qué podía hacer con un Pixelbook, un Pixel 2 y Lightroom. Así que he estado confiando en esa combinación siempre que sea posible durante las últimas semanas para ver qué tan completa puedo lograr una solución de fotografía móvil. Lo he complementado con mi Canon G9 X de apuntar y disparar o mi Nikon D7500 para capturar imágenes más allá de lo que el teléfono puede hacer por sí solo. Así es como ha funcionado, junto con algunas opciones para ajustar su propio flujo de trabajo de fotografía móvil.

Además de Pixelbook y Pixel 2, yo

Además de Pixelbook y Pixel 2, he estado llevando una DSLR compacta o pequeña para tomas que necesitan más zoom u otras capacidades adicionales. Junto con un par de tarjetas SD y un mouse (sí, todavía uso uno), eso es suficiente para una sorprendente cantidad de proyectos fotográficos.



Aprovechar al máximo la cámara de su teléfono inteligente

Primero, para las fotos que me importan, las disparo en RAW. En el caso del Pixel 2 o de mi OnePlus 5 personal, normalmente es DNG, aunque con Lightroom ahora también puedo aprovechar el flujo de trabajo Raw HDR de Adobe. Este último produce una imagen DNG de punto flotante de alto rango dinámico a la que ya se le ha dado un mapeo de tonos predeterminado, pero aún tiene mucho más rango para trabajar que un simple JPEG o un DNG tradicional. Aparte del requisito de posprocesamiento, la única otra razón para no disparar en RAW es que algunas de las imágenes computacionales súper inteligentes realizadas por teléfonos de gama alta solo son accesibles cuando dispara JPEG. Por ejemplo, la tecnología HDR + de Google, que combina varios fotogramas para crear una imagen única y superior, solo funciona para archivos JPEG tomados con la aplicación Cámara.

Lightroom mobile ofrece una amplia variedad de herramientas de edición, comenzando con estos sencillos ajustes basados ​​en controles deslizantesAunque tengo un montón de aplicaciones de cámara en mis teléfonos, para este artículo he estado usando la capacidad de cámara incorporada en Lightroom Mobile y la aplicación de cámara de Google predeterminada para Pixel 2. La cámara de Lightroom sincroniza mis imágenes con la nube de Adobe y mis otros dispositivos Lightroom automáticamente, y también es compatible con la captura de imágenes RAW, que no es compatible con la aplicación predeterminada de la cámara de Google para Pixel 2. La aplicación Cámara de Google me brinda todos los beneficios de la impresionante tecnología HDR + de imágenes computacionales de Google y se sincroniza con Google Photos automáticamente.



Las imágenes tomadas con la cámara Lightroom también se almacenan en Google Photos, lo cual es bastante bueno, ya que todas las imágenes tomadas con un Pixel 2 entre ahora y 2020 se almacenarán en la resolución original de forma gratuita por Google. Sin embargo, como he escrito anteriormente, el Proliferación de varias nubes de fotos back-end. está agregando algo de confusión, ya que las aplicaciones de cada proveedor actualmente funcionan mejor con su propia nube.

Siempre que ambos dispositivos estén en línea, las imágenes tomadas con Pixel 2 se sincronizan automáticamente a través de Lightroom con la Pixelbook (y con la máquina de escritorio Lightroom en mi estudio y mi computadora portátil principal). Para obtener imágenes de mi Nikon D7500 o Canon G9 X, necesito usar Wi-Fi o una tarjeta SD. Desafortunadamente, mientras que el Pixel 2 combinó bien con el D7500, el Pixelbook no lo hizo. En última instancia, no estoy seguro de cuán importante es eso, ya que el Wi-Fi de las cámaras es demasiado lento para transferir grandes cantidades de imágenes o archivos RAW. Entonces, un lector de tarjetas SD USB es la respuesta pequeña y simple. Para el Pixelbook, necesitarás una versión USB-C o un adaptador económico. La buena noticia es que todo, incluido el D7500, el flash, los cargadores y los cables, cabe en una cómoda bolsa como el MindShift PhotoCross que se muestra en la imagen.

No es sorprendente que el flujo de trabajo que comienza con la cámara del teléfono inteligente sea mucho más simple. Pero, ¿cómo se compara con situaciones fotográficas desafiantes? Las escenas de alto rango dinámico y poca luz han sido algunas de las más difíciles de capturar con teléfonos inteligentes. Una variedad de tecnologías de imágenes computacionales bajo el título flexible 'HDR' están ahora disponibles para abordar esas deficiencias. Los analizaremos y analizaremos cómo funcionan.

HDR en teléfonos inteligentes está mejorando por saltos y límites



Cuando el HDR apareció por primera vez en los teléfonos inteligentes, era inteligente, pero bastante torpe. Imitó el proceso de horquillado en una cámara independiente capturando (relativamente lentamente) 2-3 imágenes y luego mapeando el tono de una manera sencilla. Ahora, el Pixel 2, por ejemplo, captura hasta 10 imágenes en una fracción de segundo, luego las alinea y ensambla utilizando toda la potencia de la GPU y el hardware de procesamiento de imágenes del teléfono. Finalmente, hace reducción de ruido y un mapeo de tonos basado en IA que tiene en cuenta el contraste local y la escena en general. Incluso la exposición inicial se calcula en función de un motor de aprendizaje automático que se ha entrenado en miles de escenas de muestra. Apple, Samsung y otros fabricantes de teléfonos de alta gama tienen sistemas similares, aunque varían en la cantidad de imágenes que capturan, si todas tienen la misma exposición y en la calidad del posprocesamiento y la supresión de artefactos.

Esta es una de las escenas que realmente me vendió en HDR + como se implementó en el Pixel 2. Esto es en automático completo, directamente desde la cámara. Puede hacer clic para ver una versión reducida al 50% del original.

Esta es una de las escenas que realmente me vendió el HDR + de Google tal como se implementó en el Pixel 2. Se capturó en modo totalmente automático y salió directamente de la cámara. Puede hacer clic para ver una versión reducida del 50 por ciento del original.

El resultado de HDR + de Google (y características similares en otros teléfonos) es una extensión efectiva del rango dinámico de la cámara del teléfono mucho más allá de lo que el sensor de imagen de 10 bits puede proporcionar de forma nativa. Google, así como Apple, Samsung y un par de otros fabricantes de teléfonos también han hecho un excelente trabajo reduciendo o eliminando los artefactos que acompañan a la fusión de imágenes. Aún puedes engañarlos con suficiente movimiento en la escena, pero cada vez es más difícil. Para cualquiera que desee una imagen utilizable al instante, este HDR integrado en la cámara produce un JPEG estándar que puede compartir de inmediato. Pero si desea lo último en HDR, Adobe ha llevado las cosas aún más lejos.

Mientras hace un excelente trabajo al renderizar la escena de alto rango dinámico, este Adobe RAW HDR muestra imágenes fantasma en el ciclista

Mientras hace un excelente trabajo al renderizar la escena de alto rango dinámico, este Adobe RAW HDR muestra imágenes fantasma en la pierna del ciclista a pesar de una velocidad de obturación nominal de 1/1800.

Con la versión más reciente de Lightroom Mobile, si tiene uno de los teléfonos inteligentes compatibles, la función de cámara de Lightroom Mobile puede capturar sin problemas suficientes imágenes individuales para registrar tanto las áreas sombreadas como las resaltadas de una escena. A continuación, fusiona automáticamente las imágenes RAW individuales en una versión RAW de punto flotante de alta fidelidad para el procesamiento posterior. Los resultados son muy impresionantes, al menos para escenas estáticas. El proceso es más lento que la función HDR + incorporada, por lo que no funciona tan bien cuando hay movimiento en la escena. Además, debido a que se trata de un cambio en el formato RAW que es exclusivo de Adobe, las imágenes en este formato no son ampliamente compatibles, al menos todavía no. Por ejemplo, las imágenes de Adobe HDR que tomé con el Pixel 2 no se pueden ver en Google Fotos. Sin embargo, encajan perfectamente en Lightroom, lo que nos lleva a la siguiente pieza del rompecabezas, el procesamiento de imágenes.

Pude hacer algunos ajustes rápidos usando Lightroom Mobile que se muestra en la máscara del Pincel de ajuste, que se sincronizaron automáticamente con mi escritorio y el Pixelbook, donde pude editar más.

Pude hacer algunos ajustes rápidos usando Lightroom Mobile que se muestra en la máscara del Pincel de ajuste, que se sincronizaron automáticamente con mi escritorio y el Pixelbook, donde pude editar más.

Lightroom ahora abarca casi todos los dispositivos, desde el más grande hasta el más pequeño



Antes solo estaba disponible en computadoras completas, gracias en parte a una interfaz compleja que pedía un teclado, un mouse y una pantalla grande, ahora se puede acceder fácilmente a Lightroom en teléfonos, tabletas, computadoras e incluso en las últimas Chromebooks que tienen soporte para Android. Si bien el conjunto de funciones disponibles varía entre dispositivos, como era de esperar, incluso la versión móvil se ha vuelto bastante poderosa. Cuando se usa en un Pixelbook o una tableta grande, puede realizar una gran cantidad de edición de imágenes de nivel profesional con él. Si eso no es suficiente, todas sus imágenes se pueden sincronizar automáticamente con sus computadoras para editarlas más, aún con total fidelidad.

El Pixelbook no es el Chromebook de tu padre

Lightroom Mobile en Pixelbook proporciona una interfaz similar a la del teléfono, pero con aún más potenciaCuando intenté usar el Google Pixel original como mi computadora de viaje en 2013, me volví loco. No había grandes editores de imágenes para Chrome OS y no tenía acceso ni a mis aplicaciones familiares de Windows ni a sus equivalentes de Android. La adición de compatibilidad con Android, la disponibilidad de Lightroom Mobile y la opción de un lápiz óptico activo ayudan a que el nuevo Pixelbook sea una experiencia completamente diferente. Ahora puedo hacer casi la misma edición en la Pixelbook que haría en la carretera con mi computadora portátil con Windows. Y con Lightroom Mobile, mis ediciones no se desperdiciarán si decido trabajar más en una imagen más adelante en mi escritorio de Windows en Lightroom o Photoshop.

En general, Google ha reunido un golpe 1-2 efectivo para los fotógrafos que desean viajar con poco peso, pero aún tienen un flujo de trabajo de alto nivel. Dicho esto, si no necesita el teclado en el Pixelbook, entonces un iPad o una tableta Android con un lápiz óptico activo sería una alternativa menos costosa y más liviana que el Pixelbook. Del mismo modo, si desea una de las mejores cámaras para teléfonos inteligentes del mercado, el Pixel 2 es ideal. Pero si tiene un presupuesto limitado, puede encontrar modelos menos costosos que aún admitan alguna forma de HDR automático y la capacidad RAW HDR de Adobe. Por ejemplo, mi OnePlus 5 más barato encaja igual de bien en este flujo de trabajo, aunque no produce la misma calidad de imagen que el Pixel 2.

(Imágenes de Cardenal david )

Copyright © Todos Los Derechos Reservados | 2007es.com